Módulo redes neuronalesParte 1 de 2

El Perceptrón y Backpropagation

Construyendo la arquitectura fundamental del Deep Learning

🧠 Redes Neuronales

El puente entre la matemática y la inteligencia artificial. Aquí aprenderás a construir la arquitectura fundamental que permite a las máquinas aprender patrones complejos: el Perceptrón Multicapa.

Filosofía "De Cero"

No usaremos torch.nn hasta que hayamos implementado manualmente el paso hacia adelante (forward) y hayamos entendido la mecánica del gradiente.

1. La Neurona Artificial

Inspirada en la biología, una neurona artificial es simplemente una función matemática que suma entradas ponderadas y decide si "disparar" o no mediante una activación.
Renderizando arquitectura...

La Ecuación Sagrada

y=σ(iwixi+b)y = \sigma(\sum_i w_i x_i + b)
Donde ww son los pesos, xx las entradas, bb el sesgo y σ\sigma la activación.
neurona_manual.py
1import torch
2
3def simple_neuron(x, w, b):
4  # Suma ponderada + sesgo
5  z = torch.dot(x, w) + b
6  # Activación ReLU
7  return torch.max(torch.tensor(0.0), z)
8
9x = torch.tensor([1.2, 0.5, -1.0])
10w = torch.tensor([0.1, -0.8, 0.5])
11b = torch.tensor(0.1)
12
13print(f"Salida: {simple_neuron(x, w, b)}")

2. Backpropagation

No es magia, es cálculo. Backpropagation es el proceso de usar la regla de la cadena para calcular el gradiente de la función de pérdida respecto a cada peso.
Renderizando arquitectura...

1. Forward Pass

Pasamos los datos y calculamos la predicción y el error (Loss).

2. Backward Pass

Viajamos hacia atrás calculando derivadas para saber qué pesos son los culpables del error.
entrenamiento_autograd.py
1# PyTorch hace el trabajo sucio con Autograd
2weights = torch.randn(3, requires_grad=True)
3loss = (output - target) ** 2
4
5loss.backward() # ¡Magia! Calcula todos los gradientes
6print(weights.grad) # Gradiente acumulado