Entradas

1936 La maquina de Turing

Imagen
  En 1936, Alan Turing en su trabajo  Acerca de los números computables , introduce el concepto de la  máquina de Turing  y, junto a  Alonzo Church  demostraron ambos que es imposible escribir tal algoritmo. Como consecuencia, es también imposible decidir con un algoritmo general si ciertas frases concretas de la  aritmética  son ciertas o falsas. Turing estudio el cerebro humano  como forma de ver el mundo de la computación.

1943 - Modelo De Neuronas Artificiales

Imagen
  El modelo neuronal de  McCulloch  y  Pitts  de 1943, Threshold Logic Unit (TLU), o Linear Threshold Unit, ​ fue el primer modelo neuronal moderno, y ha servido de inspiración para el desarrollo de otros modelos neuronales. Sin embargo, en muchos de los estudios en que refieren a este modelo, no se interpreta correctamente el sentido que quisieron dar originalmente McCulloch y Pitts, atribuyéndole características o funciones que no fueron descritas por sus autores, o restándole importancia a la capacidad de procesamiento del modelo. Por otro lado, el modelo McCulloch-Pitts por sí mismo está retomando importancia debido a que es uno de los pocos modelos digitales en tiempo discreto y, como para realizar implantaciones electrónicas o computacionales de las neuronas artificiales en la actualidad se utilizan sistemas digitales, con la mayoría de los modelos analógicos actuales es necesario realizar ciertas adaptaciones a los modelos al momento de implantarlos, lo que dificulta y hace impr

1949 - Donald Hebb Y El Aprendizaje

Imagen
  En su libro " The Organization of Behavio ", publicado dicho año, propuso la que hoy día se conoce como  Regla de Hebb  que puede resumirse del siguiente modo: "Supongamos que la persistencia de una actividad repetitiva (o "señal") tiende a inducir cambios celulares duraderos que promueven su estabilidad... Cuando el axón de una célula A está lo suficientemente cerca como para excitar a una célula B y repetidamente toma parte en la activación, ocurren procesos de crecimiento o cambios metabólicos en una o ambas células de manera que tanto la eficiencia de la célula A, como la capacidad de excitación de la célula B son aumentadas" Es decir, cuando una neurona tiende a activar otra, el "peso" o la importancia de esa conexión entre ambas neuronas aumenta, propuesta que provee el algoritmo básico de aprendizaje mediante redes neuronales artificiales. Esta regla suele resumirse con la frase " neuronas que se activan juntas, permanecen juntas &q

1950 - Estudio Del Cerebro

Imagen
  Karl Lashley mediante un ensaño, encontró que la información no era almacenada en el centro del cerebro, sino que se distribuían en ella. Por  1950 , Lashley había dividido sus investigaciones en dos teorías. La principal "acción en masa" postulaba que las acciones del cerebro y su cortex funcionaban como un único ente holístico en muchos tipos de aprendizaje. El principio de "equipotencialidad" postulaba que si ciertas partes del cerebro eran dañadas, otras partes del cerebro podrían ocupar el rol de las partes dañadas, reconfigurar la estructura cerebral para reemplazar las funciones de las que se encargaban las estructuras cerebrales dañadas.

1951 - Creacion del SNARC

Imagen
  La idea de que un simple programa o conjunto de reglas podría representarse en un formato menos explícito, una red de neuronas, es el principio fundamental de la inteligencia artificial en la actualidad. Estas teorías no se implementaron hasta 1951, cuando la primera máquina de red neuronal fue diseñada por Marvin Minsky y uno de los estudiantes graduados de Minsky, Dean Edmonds. Esta primera máquina de red neuronal se conocía como SNARC (Calculadora de Refuerzo Analógico Neuronal Estocástico). Una neuro-computadora que contenía 40 "neuronas" informáticas que imitaban a una rata que se abría paso por un laberinto. Minsky en realidad se inspiró en el documento de McCulloch de 1943 para construir la SNARC, que se consideraba una de las primeras máquinas electrónicas de aprendizaje. Utilizando componentes de un bombardero B-24 y unos pocos miles de dólares de la Oficina de Investigación Naval, Minsky dio uno de los primeros pasos iniciales para desarrollar capacidades de apren

1956 - El Congreso De Dartmouth

Imagen
  En el verano de 1956 tuvo lugar una conferencia en Dartmouth  sobre inteligencia artificial, organizada por Marvin Minsky, John McCarthy y Claude Shanon. La conferencia reunió a todos los que trabajaban en el recién estrenado campo de la inteligencia artificial. En ella se discutió la lógica teórica desarrollada por los autores citados. La lógica teórica fue considerada como el primer programa de inteligencia artificial y usada para resolver problemas de búsqueda heurística. En la conferencia se acuño la expresión “Inteligencia Artificial” y prefijo que al cabo de 25 años los ordenadores harían todo el trabajo de los hombres. Los fundadores fueron demasiado optimistas con respecto al futuro de su disciplina.

1957 - El Desarrollo Del Perceptrón.

Imagen
  IBM 704. Frank Rosenblatt  estuvo al frente de varias investigaciones importantes relacionadas con la  neurobiología , es conocido mayormente por el desarrollo del  Perceptrón , un  clasificador binario  o  discriminador lineal , el cual genera una predicción basándose en un algoritmo combinado con el peso de las entradas. Este el gráfico de un  Perceptrón : En 1957 se implementó en un programa ( software ) el funcionamiento del  Perceptrón  por primera vez utilizando un  IBM704 , uno de los ordenadores más potentes de aquella época.  El  Perceptrón  estaba destinado a ser realmente una máquina en vez de un algoritmo y por eso finalmente se construyó el  Mark I Perceptron , basado en las ideas del  Perceptrón  de  Frank Rosenblatt . El  Mark I Perceptron  se dedicaba exclusivamente a la clasificación de imágenes. Todo el hardware estaba construido a medida y utilizaba potenciómetros para determinar los pesos de cada entrada por  Perceptrón  así como una cámara capaz de producir imáge

1959 - Comenzó el desarrollo del Perceptrón.

Imagen
  Frank Rosenblatt. Comenzó el desarrollo del Perceptrón. Esta es la red neuronal más antigua; utilizándose hoy en día para aplicación como reconocedor de patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido una serie de patrones podía reconocer otros similares, aunque no se le hubiesen presentado anteriormente. Sin embargo, tenía una serie de limitaciones, por ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en general, era incapaz de clasificar clases no separables linealmente.  En 1959, escribió el libro Principios de Neurodinámica, en el que confirmó que, bajo ciertas condiciones, el aprendizaje del Perceptrón convergía hacia un estado finito (Teorema de Convergencia del Perceptrón).

1960 - Se crea el Adaline

Imagen
   El profesor  Bernard Widrow  y su alumno  Ted Hoff  con el diagrama del Adaline El  adaline  (de  ADA ptative  LIN ear  E lement) es un tipo de  red neuronal artificial  desarrollada por el profesor  Bernard Widrow  y su alumno  Ted Hoff  en la  Universidad de Stanford  en 1960. ​ El modelo está basado en la  Neurona de McCulloch-Pitts . el objetivo de este tipo de red neuronal era la de crear una red adaptiva  en el sentido de que exista un procedimiento definido en donde se modifiquen los pesos de los objetivos para hacer posible que la red proporcione la señal  de salida correcta para cada tipo de entrada dada. Características Entre las características que posee esta red artificial tenemos que su aprendizaje es de tipo Off-Line el cual requiere de un conjunto de datos de entrenamiento y datos de prueba que ajusten  los pesos de las conexiones de la red neuronal en función de las diferencias que existen entre los valores deseados y los obtenidos en las señales de salida. Este tipo