驴Qu茅 es el Perceptr贸n? Perceptr贸n Simple y Multicapa

Las redes neuronales artificiales son algoritmos o modelos computacionales dise帽ados seg煤n la estructura del cerebro humano. La propiedad m谩s cierta de ellas es su capacidad de entender a partir de los datos, son estructuras de procesamiento de informaci贸n que han adquirido enormes logros en diversos dominios desde el marketing hasta la investigaci贸n.

Existen numerosos tipos de redes neuronales artificiales pero los algoritmos de perceptr贸n simple y multicapa ocupan un lugar adecuado. En esta publicaci贸n, ver谩s los fundamentos del modelo perceptr贸n, su funcionamiento y algunos aspectos esenciales del mismo.

Perceptr贸n Definici贸n

Un perceptr贸n es un modelo matem谩tico inspirado en una estructura y funci贸n simplificadas de una 煤nica neurona biol贸gica. Es una secci贸n de Machine Learning que se utiliza para entender el concepto de clasificadores binarios.

Forma parte del sistema de redes neuronales. De hecho, se puede decir que el perceptr贸n y las redes neuronales est谩n interconectados. El perceptr贸n constituye el fundamento b谩sico de la red neuronal que forma parte de Deep Learning. Se considera como bloques de construcci贸n de una sola capa de la red neuronal.

Una red neuronal formada por el perceptr贸n puede definirse como un enunciado complejo con una comprensi贸n muy profunda de las ecuaciones l贸gicas. Un enunciado neuronal que sigue al perceptr贸n es verdadero o falso, pero nunca puede ser ambas cosas a la vez.

Escuela AprendeIA - Curso Aprende Inteligencia Artificial

El objetivo final del perceptr贸n es identificar las entradas que intervienen en 茅l. Hay que identificar si las caracter铆sticas son verdaderas o no.

Origen del Perceptr贸n

El perceptr贸n fue inventado por Frank Resonblatt en enero de 1957, en el Cornell Aeronautical Laboratory en Buffalo, Nueva York.

Este proyecto form贸 parte de una investigaci贸n de cinco a帽os destinada a dise帽ar un modelo de cerebro electr贸nico capaz de aprender patrones complejos, percibir patrones y generalizar. La intuici贸n detr谩s de esta investigaci贸n era construir un dispositivo que tuviera funciones similares a las humanas, como la percepci贸n, la formaci贸n de conceptos, la capacidad de generalizar a partir de la experiencia, reconocer el patr贸n complejo de informaci贸n y percibir objetos similares de diferentes tama帽os, forma y orientaci贸n.

Sin embargo, para llevar a cabo todas estas operaciones, un sistema inform谩tico convencional tendr铆a que almacenar miles, sino millones de patrones, y luego, siempre que fuera necesario, se buscar铆a este n煤mero excesivo de patrones para reconocer un patr贸n no visto, lo que era computacionalmente muy caro y no era una forma econ贸mica de identificar un patr贸n u objeto.

Para resolver este problema, Frank Rosenblatt propuso un sistema que podr铆a funcionar seg煤n los principios del cerebro biol贸gico y reconocer las similitudes entre los patrones utilizando un enfoque probabil铆stico, en lugar del enfoque determinista.

El modelo del perceptr贸n cobr贸 vida gracias a la construcci贸n de un hardware personalizado llamado Mark 1 Perceptron, dise帽ado principalmente el reconocimiento de im谩genes. Era una caja negra muy parecida a la red neuronal actual, con una capa de entrada, capas ocultas y una capa de salida.

Avanzando unas d茅cadas, la historia del perceptr贸n continu贸 con el trabajo presentado por Geoffery Hinton en 1986, cuando present贸 un nuevo procedimiento de aprendizaje con el nombre de retropropagaci贸n que pas贸 a convertirse en la columna vertebral de los modelos de redes neuronales actuales.

Esta t茅cnica funciona minimizando entre los valores reales y los deseados mediante el ajuste de los pesos del modelo de red neuronal. Hace que la red neuronal aprenda o extraiga caracter铆sticas y generalice un patr贸n o secuencia de entradas para hacer predicciones bastante precisas sobre representaciones de datos no vistas.

Componentes principales del Perceptr贸n

Perceptron aprendeIA

El perceptr贸n est谩 formado por una serie de componentes como:

  • Entrada. Las entradas en el algoritmo del perceptr贸n se entienden como x1, x2, x3, x4 y as铆 sucesivamente. Todas estas entradas denotan los valores del perceptr贸n de caracter铆sticas y la ocurrencia total de las caracter铆sticas.
  • Pesos. Se observan como valores que se planifican al largo de la sesi贸n de preparaci贸n del perceptr贸n. Los pesos ofrecen un valor preliminar en el inicio del aprendizaje del algoritmo. Con la ocurrencia de cada inexactitud de entrenamiento, los valores de los pesos se actualizan. Estos se representan principalmente como w1, w2, w3, w4 y as铆 sucesivamente.
  • Funci贸n de activaci贸n. Cada funci贸n de activaci贸n, o no lineal, toma un 煤nico n煤mero y realiza una determinada operaci贸n matem谩tica fija sobre 茅l. Hay varias funciones de activaci贸n que se pueden encontrar en la pr谩ctica, las m谩s comunes son la Sigmoide o la ReLU o unidad lineal rectificada.
  • Suma ponderada. Es la proliferaci贸n de cada valor de entrada o caracter铆stica asociada con el valor de paso correspondiente.
  • Salida. La suma ponderada se pasa a la funci贸n de activaci贸n y cualquier valor que obtengamos despu茅s del c谩lculo es nuestra salida predicha.

Modelo de perceptr贸n de una capa

Un modelo de perceptr贸n de una capa incluye una red feedforward que depende de una funci贸n de transferencia de umbral en su modelo. Es el tipo m谩s sencillo de red neuronal artificial que puede analizar solo objetos linealmente separables con resultados binarios, es decir, 1 y 0.

Si hablamos del funcionamiento del modelo de perceptr贸n de una capa, su algoritmo no tiene informaci贸n previa, por lo que inicialmente, los pesos se asignan de forma inconstante, entonces el algoritmo suma todas las entradas ponderadas, si el valor a帽adido es m谩s que alg煤n valor predeterminado o valor umbral, entonces el perceptr贸n de una capa se declara activo y entrega la salida como +1.

En palabras sencillas, los valores de entrada m煤ltiples alimental el modelo del perceptr贸n, el modelo se ejecuta con los valores de entrada, y si el valor estimado es el mismo que la salida requerida, entonces el rendimiento del modelo se encuentra satisfecho, por lo que los pesos no exigen cambios. De hecho, si el modelo no cumple con el resultado requerido, entonces se realizan algunos cambios en los pesos para minimizar los errores.

Modelo de perceptr贸n multicapa

Un modelo de perceptr贸n multicapa tiene una estructura similar a la de un modelo de perceptr贸n de una sola capa con m谩s n煤mero de capas ocultas. Tambi茅n se denomina algoritmo de retropropagaci贸n. Se ejecuta en dos etapas: la etapa hacia adelante y la etapa hacia atr谩s.

Perceptron aprendeIA 2

En la etapa hacia adelante, las funciones de activaci贸n se originan desde la capa de entrada a la capa de salida, y en la etapa hacia atr谩s, el error entre el valor real observado y el valor demandado se origina hacia atr谩s en la capa de salida para modificar los pesos.

En t茅rminos sencillos, el perceptr贸n multicapa puede tratase como una red de numerosas neuronas artificiales sobre capas variadas, la funci贸n de activaci贸n ya no es lineal, en su lugar se despliegan funciones de activaci贸n no lineales como las funciones sigmoides, TanH, funciones de activaci贸n ReLU, entre otras, para su ejecuci贸n.

Los modelos de perceptr贸n son el tipo m谩s simplista de red neuronal en la que llevan una entrada, el peso de cada entrada, toman la suma de la entrada ponderada y se aplica una funci贸n de activaci贸n.

Aceptan y construyen solo valores binarios, es decir, el perceptr贸n solo se implementa para la clasificaci贸n binaria con la limitaci贸n de que solo son aplicables para objetos linealmente separables.

El perceptr贸n es la base de las redes neuronales, por lo que hay que conocer bien el modelo del perceptr贸n que aporta ventajas a la hora de estudiar las redes neuronales profundas.


Con esto finalizamos la explicaci贸n. Por lo tanto, te dejo la siguiente pregunta para comprobar lo que has aprendido con este contenido: de las siguientes afirmaciones 驴cu谩l crees que es cierta?

Opci贸n 1: El perceptr贸n es un modelo matem谩tico inspirado en una estructura y funci贸n simplificadas de una 煤nica neurona biol贸gica

Respuesta Correcta.

Opci贸n 2: El Perceptr贸n se puede utilizar para proyectos tanto de clasificaci贸n como de regresi贸n.

Respuesta Incorrecta. El perceptr贸n solo se implementa para la clasificaci贸n binaria con la limitaci贸n de que solo son aplicables para objetos linealmente separables.

Opci贸n 3: Los componentes del Perceptr贸n son la entrada, pesos, funci贸n de activaci贸n, suma ponderada y la salida.

Respuesta Correcta.

Deja un comentario

Tu direcci贸n de correo electr贸nico no ser谩 publicada. Los campos obligatorios est谩n marcados con *

aprendeia

Conoce la ruta de aprendizaje ideal, para profesionales, para aprender Inteligencia Artificial