¿Qué es el Perceptrón? Perceptrón Simple y Multicapa
Las redes neuronales artificiales son algoritmos o modelos computacionales diseñados según la estructura del cerebro humano. La propiedad más cierta de ellas es su capacidad de entender a partir de los datos, son estructuras de procesamiento de información que han adquirido enormes logros en diversos dominios desde el marketing hasta la investigación.
Existen numerosos tipos de redes neuronales artificiales pero los algoritmos de perceptrón simple y multicapa ocupan un lugar adecuado. En esta publicación, verás los fundamentos del modelo perceptrón, su funcionamiento y algunos aspectos esenciales del mismo.
Perceptrón Definición
Un perceptrón es un modelo matemático inspirado en una estructura y función simplificadas de una única neurona biológica. Es una sección de Machine Learning que se utiliza para entender el concepto de clasificadores binarios.
Forma parte del sistema de redes neuronales. De hecho, se puede decir que el perceptrón y las redes neuronales están interconectados. El perceptrón constituye el fundamento básico de la red neuronal que forma parte de Deep Learning. Se considera como bloques de construcción de una sola capa de la red neuronal. Una red neuronal formada por el perceptrón puede definirse como un enunciado complejo con una comprensión muy profunda de las ecuaciones lógicas. Un enunciado neuronal que sigue al perceptrón es verdadero o falso, pero nunca puede ser ambas cosas a la vez.
El objetivo final del perceptrón es identificar las entradas que intervienen en él. Hay que identificar si las características son verdaderas o no.
Origen del Perceptrón
Este proyecto formó parte de una investigación de cinco años destinada a diseñar un modelo de cerebro electrónico capaz de aprender patrones complejos, percibir patrones y generalizar. La intuición detrás de esta investigación era construir un dispositivo que tuviera funciones similares a las humanas, como la percepción, la formación de conceptos, la capacidad de generalizar a partir de la experiencia, reconocer el patrón complejo de información y percibir objetos similares de diferentes tamaños, forma y orientación.
Sin embargo, para llevar a cabo todas estas operaciones, un sistema informático convencional tendría que almacenar miles, sino millones de patrones, y luego, siempre que fuera necesario, se buscaría este número excesivo de patrones para reconocer un patrón no visto, lo que era computacionalmente muy caro y no era una forma económica de identificar un patrón u objeto.
Para resolver este problema, Frank Rosenblatt propuso un sistema que podría funcionar según los principios del cerebro biológico y reconocer las similitudes entre los patrones utilizando un enfoque probabilístico, en lugar del enfoque determinista.
El modelo del perceptrón cobró vida gracias a la construcción de un hardware personalizado llamado Mark 1 Perceptron, diseñado principalmente el reconocimiento de imágenes. Era una caja negra muy parecida a la red neuronal actual, con una capa de entrada, capas ocultas y una capa de salida.
Avanzando unas décadas, la historia del perceptrón continuó con el trabajo presentado por Geoffery Hinton en 1986, cuando presentó un nuevo procedimiento de aprendizaje con el nombre de retropropagación que pasó a convertirse en la columna vertebral de los modelos de redes neuronales actuales.
Esta técnica funciona minimizando entre los valores reales y los deseados mediante el ajuste de los pesos del modelo de red neuronal. Hace que la red neuronal aprenda o extraiga características y generalice un patrón o secuencia de entradas para hacer predicciones bastante precisas sobre representaciones de datos no vistas.
Componentes principales del Perceptrón
- Entrada. Las entradas en el algoritmo del perceptrón se entienden como x1, x2, x3, x4 y así sucesivamente. Todas estas entradas denotan los valores del perceptrón de características y la ocurrencia total de las características.
- Pesos. Se observan como valores que se planifican al largo de la sesión de preparación del perceptrón. Los pesos ofrecen un valor preliminar en el inicio del aprendizaje del algoritmo. Con la ocurrencia de cada inexactitud de entrenamiento, los valores de los pesos se actualizan. Estos se representan principalmente como w1, w2, w3, w4 y así sucesivamente.
- Función de activación. Cada función de activación, o no lineal, toma un único número y realiza una determinada operación matemática fija sobre él. Hay varias funciones de activación que se pueden encontrar en la práctica, las más comunes son la Sigmoide o la ReLU o unidad lineal rectificada.
- Suma ponderada. Es la proliferación de cada valor de entrada o característica asociada con el valor de paso correspondiente.
- Salida. La suma ponderada se pasa a la función de activación y cualquier valor que obtengamos después del cálculo es nuestra salida predicha.
Modelo de perceptrón de una capa
Un modelo de perceptrón de una capa incluye una red feedforward que depende de una función de transferencia de umbral en su modelo. Es el tipo más sencillo de red neuronal artificial que puede analizar solo objetos linealmente separables con resultados binarios, es decir, 1 y 0.
Si hablamos del funcionamiento del modelo de perceptrón de una capa, su algoritmo no tiene información previa, por lo que inicialmente, los pesos se asignan de forma inconstante, entonces el algoritmo suma todas las entradas ponderadas, si el valor añadido es más que algún valor predeterminado o valor umbral, entonces el perceptrón de una capa se declara activo y entrega la salida como +1.
En palabras sencillas, los valores de entrada múltiples alimentan el modelo del perceptrón, el modelo se ejecuta con los valores de entrada, y si el valor estimado es el mismo que la salida requerida, entonces el rendimiento del modelo se encuentra satisfecho, por lo que los pesos no exigen cambios. De hecho, si el modelo no cumple con el resultado requerido, entonces se realizan algunos cambios en los pesos para minimizar los errores.
Modelo de perceptrón multicapa
Un modelo de perceptrón multicapa tiene una estructura similar a la de un modelo de perceptrón de una sola capa con más número de capas ocultas. También se denomina algoritmo de retropropagación. Se ejecuta en dos etapas: la etapa hacia adelante y la etapa hacia atrás.
En la etapa hacia adelante, las funciones de activación se originan desde la capa de entrada a la capa de salida, y en la etapa hacia atrás, el error entre el valor real observado y el valor demandado se origina hacia atrás en la capa de salida para modificar los pesos.
En términos sencillos, el perceptrón multicapa puede tratarse como una red de numerosas neuronas artificiales sobre capas variadas, la función de activación ya no es lineal, en su lugar se despliegan funciones de activación no lineales como las funciones sigmoides, TanH, funciones de activación ReLU, entre otras, para su ejecución.
Los modelos de perceptrón son el tipo más simplista de red neuronal en la que llevan una entrada, el peso de cada entrada, toman la suma de la entrada ponderada y se aplica una función de activación.
Aceptan y construyen solo valores binarios, es decir, el perceptrón solo se implementa para la clasificación binaria con la limitación de que solo son aplicables para objetos linealmente separables.
El perceptrón es la base de las redes neuronales, por lo que hay que conocer bien el modelo del perceptrón que aporta ventajas a la hora de estudiar las redes neuronales profundas.
Pregunta: De las siguientes afirmaciones ¿cuál crees que es cierta?
Opción 1: El perceptrón es un modelo matemático inspirado en una estructura y función simplificadas de una única neurona biológica
Respuesta Correcta.
Opción 2: El Perceptrón se puede utilizar para proyectos tanto de clasificación como de regresión.
Respuesta Incorrecta. El perceptrón solo se implementa para la clasificación binaria con la limitación de que solo son aplicables para objetos linealmente separables.
Opción 3: Los componentes del Perceptrón son la entrada, pesos, función de activación, suma ponderada y la salida.
Respuesta Correcta.