Entradas
1936 La maquina de Turing
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
En 1936, Alan Turing en su trabajo Acerca de los números computables , introduce el concepto de la máquina de Turing y, junto a Alonzo Church demostraron ambos que es imposible escribir tal algoritmo. Como consecuencia, es también imposible decidir con un algoritmo general si ciertas frases concretas de la aritmética son ciertas o falsas. Turing estudio el cerebro humano como forma de ver el mundo de la computación.
1943 - Modelo De Neuronas Artificiales
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
El modelo neuronal de McCulloch y Pitts de 1943, Threshold Logic Unit (TLU), o Linear Threshold Unit, fue el primer modelo neuronal moderno, y ha servido de inspiración para el desarrollo de otros modelos neuronales. Sin embargo, en muchos de los estudios en que refieren a este modelo, no se interpreta correctamente el sentido que quisieron dar originalmente McCulloch y Pitts, atribuyéndole características o funciones que no fueron descritas por sus autores, o restándole importancia a la capacidad de procesamiento del modelo. Por otro lado, el modelo McCulloch-Pitts por sí mismo está retomando importancia debido a que es uno de los pocos modelos digitales en tiempo discreto y, como para realizar implantaciones electrónicas o computacionales de las neuronas artificiales en la actualidad se utilizan sistemas digitales, con la mayoría de los modelos analógicos actuales es necesario realizar ciertas adaptaciones a los modelos al momento de implantarlos, lo que dificulta y hace impr
1949 - Donald Hebb Y El Aprendizaje
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
En su libro " The Organization of Behavio ", publicado dicho año, propuso la que hoy día se conoce como Regla de Hebb que puede resumirse del siguiente modo: "Supongamos que la persistencia de una actividad repetitiva (o "señal") tiende a inducir cambios celulares duraderos que promueven su estabilidad... Cuando el axón de una célula A está lo suficientemente cerca como para excitar a una célula B y repetidamente toma parte en la activación, ocurren procesos de crecimiento o cambios metabólicos en una o ambas células de manera que tanto la eficiencia de la célula A, como la capacidad de excitación de la célula B son aumentadas" Es decir, cuando una neurona tiende a activar otra, el "peso" o la importancia de esa conexión entre ambas neuronas aumenta, propuesta que provee el algoritmo básico de aprendizaje mediante redes neuronales artificiales. Esta regla suele resumirse con la frase " neuronas que se activan juntas, permanecen juntas &q
1950 - Estudio Del Cerebro
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
Karl Lashley mediante un ensaño, encontró que la información no era almacenada en el centro del cerebro, sino que se distribuían en ella. Por 1950 , Lashley había dividido sus investigaciones en dos teorías. La principal "acción en masa" postulaba que las acciones del cerebro y su cortex funcionaban como un único ente holístico en muchos tipos de aprendizaje. El principio de "equipotencialidad" postulaba que si ciertas partes del cerebro eran dañadas, otras partes del cerebro podrían ocupar el rol de las partes dañadas, reconfigurar la estructura cerebral para reemplazar las funciones de las que se encargaban las estructuras cerebrales dañadas.
1951 - Creacion del SNARC
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
La idea de que un simple programa o conjunto de reglas podría representarse en un formato menos explícito, una red de neuronas, es el principio fundamental de la inteligencia artificial en la actualidad. Estas teorías no se implementaron hasta 1951, cuando la primera máquina de red neuronal fue diseñada por Marvin Minsky y uno de los estudiantes graduados de Minsky, Dean Edmonds. Esta primera máquina de red neuronal se conocía como SNARC (Calculadora de Refuerzo Analógico Neuronal Estocástico). Una neuro-computadora que contenía 40 "neuronas" informáticas que imitaban a una rata que se abría paso por un laberinto. Minsky en realidad se inspiró en el documento de McCulloch de 1943 para construir la SNARC, que se consideraba una de las primeras máquinas electrónicas de aprendizaje. Utilizando componentes de un bombardero B-24 y unos pocos miles de dólares de la Oficina de Investigación Naval, Minsky dio uno de los primeros pasos iniciales para desarrollar capacidades de apren
1956 - El Congreso De Dartmouth
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
En el verano de 1956 tuvo lugar una conferencia en Dartmouth sobre inteligencia artificial, organizada por Marvin Minsky, John McCarthy y Claude Shanon. La conferencia reunió a todos los que trabajaban en el recién estrenado campo de la inteligencia artificial. En ella se discutió la lógica teórica desarrollada por los autores citados. La lógica teórica fue considerada como el primer programa de inteligencia artificial y usada para resolver problemas de búsqueda heurística. En la conferencia se acuño la expresión “Inteligencia Artificial” y prefijo que al cabo de 25 años los ordenadores harían todo el trabajo de los hombres. Los fundadores fueron demasiado optimistas con respecto al futuro de su disciplina.
1957 - El Desarrollo Del Perceptrón.
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
IBM 704. Frank Rosenblatt estuvo al frente de varias investigaciones importantes relacionadas con la neurobiología , es conocido mayormente por el desarrollo del Perceptrón , un clasificador binario o discriminador lineal , el cual genera una predicción basándose en un algoritmo combinado con el peso de las entradas. Este el gráfico de un Perceptrón : En 1957 se implementó en un programa ( software ) el funcionamiento del Perceptrón por primera vez utilizando un IBM704 , uno de los ordenadores más potentes de aquella época. El Perceptrón estaba destinado a ser realmente una máquina en vez de un algoritmo y por eso finalmente se construyó el Mark I Perceptron , basado en las ideas del Perceptrón de Frank Rosenblatt . El Mark I Perceptron se dedicaba exclusivamente a la clasificación de imágenes. Todo el hardware estaba construido a medida y utilizaba potenciómetros para determinar los pesos de cada entrada por Perceptrón así como una cámara capaz de producir imáge
1959 - Comenzó el desarrollo del Perceptrón.
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
Frank Rosenblatt. Comenzó el desarrollo del Perceptrón. Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como reconocedor de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado anteriormente. Sin embargo, tenía una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente. En 1959, escribió el libro Principios de Neurodinámica, en el que confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptrón convergía hacia un estado finito (Teorema de Convergencia del Perceptrón).
1960 - Se crea el Adaline
- Obtener enlace
- X
- Correo electrónico
- Otras aplicaciones
El profesor Bernard Widrow y su alumno Ted Hoff con el diagrama del Adaline El adaline (de ADA ptative LIN ear E lement) es un tipo de red neuronal artificial desarrollada por el profesor Bernard Widrow y su alumno Ted Hoff en la Universidad de Stanford en 1960. El modelo está basado en la Neurona de McCulloch-Pitts . el objetivo de este tipo de red neuronal era la de crear una red adaptiva en el sentido de que exista un procedimiento definido en donde se modifiquen los pesos de los objetivos para hacer posible que la red proporcione la señal de salida correcta para cada tipo de entrada dada. Características Entre las características que posee esta red artificial tenemos que su aprendizaje es de tipo Off-Line el cual requiere de un conjunto de datos de entrenamiento y datos de prueba que ajusten los pesos de las conexiones de la red neuronal en función de las diferencias que existen entre los valores deseados y los obtenidos en las señales de salida. Este tipo