Módulo redes neuronalesParte 1 de 2
El Perceptrón y Backpropagation
Construyendo la arquitectura fundamental del Deep Learning
🧠 Redes Neuronales
El puente entre la matemática y la inteligencia artificial. Aquí aprenderás a construir la arquitectura fundamental que permite a las máquinas aprender patrones complejos: el Perceptrón Multicapa.
Filosofía "De Cero"
No usaremos
torch.nn hasta que hayamos implementado manualmente el paso hacia adelante (forward) y hayamos entendido la mecánica del gradiente.1. La Neurona Artificial
Inspirada en la biología, una neurona artificial es simplemente una función matemática que suma entradas ponderadas y decide si "disparar" o no mediante una activación.
Renderizando arquitectura...
La Ecuación Sagrada
Donde son los pesos, las entradas, el sesgo y la activación.
neurona_manual.py
1import torch
2
3def simple_neuron(x, w, b):
4 # Suma ponderada + sesgo
5 z = torch.dot(x, w) + b
6 # Activación ReLU
7 return torch.max(torch.tensor(0.0), z)
8
9x = torch.tensor([1.2, 0.5, -1.0])
10w = torch.tensor([0.1, -0.8, 0.5])
11b = torch.tensor(0.1)
12
13print(f"Salida: {simple_neuron(x, w, b)}")2. Backpropagation
No es magia, es cálculo. Backpropagation es el proceso de usar la regla de la cadena para calcular el gradiente de la función de pérdida respecto a cada peso.
Renderizando arquitectura...
1. Forward Pass
Pasamos los datos y calculamos la predicción y el error (Loss).
2. Backward Pass
Viajamos hacia atrás calculando derivadas para saber qué pesos son los culpables del error.
entrenamiento_autograd.py
1# PyTorch hace el trabajo sucio con Autograd
2weights = torch.randn(3, requires_grad=True)
3loss = (output - target) ** 2
4
5loss.backward() # ¡Magia! Calcula todos los gradientes
6print(weights.grad) # Gradiente acumulado