Aportes



John  McCarthy
 
Creo el lenguaje de programación LISP y el tiempo compartido en las computadoras. McCarthy también inició la investigación en robótica en Stanford y ha trabajado sobre la formalización del conocimiento y del razonamiento en el sentido común. Publicó su diseño en Comunicaciones del ACM en 1960.
En 1957, John McCarthy fundó, junto con Marvin Minsky, el Laboratorio de Inteligencia Artificial del MIT, y ayudó a motivar la creación del Proyecto MAC. En 1962 se marchó de él, y se fue a la Universidad de Stanford, en la que, en 1963, fundó también el respectivo Laboratorio de IA, que durante muchos años fue un rival amistoso del Proyecto MAC.
En 1961 fue el primero en sugerir públicamente (en un discurso para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad).
La idea de una computadora o un sistema informático como servicio era muy popular a fines de la década del 60, pero se desvaneció hacia mediados de los 70 cuando quedó claro que el hardware, software y las tecnologías de telecomunicación simplemente no estaban preparadas. Sin embargo, desde el 2000, la idea reapareció en diferentes formas.
Además del Premio Turing, McCarthy recibió otras varias distinciones, y fue miembro de distintas academias. En 2010 ingresó en el llamado "IEEE Intelligent Systems Hall of Fame".

Marvin Minsky
 
 Ha estudiado la organización y representación de las estructuras del conocimiento.Marvin Minsky y John McCarthy fundaron el Laboratorio de Inteligencia Artificial en MIT, que es uno de los centros de investigación más prestigiosos en el mundo de inteligencia artificial. Minsky fue director de este centro durante algunos años. Minsky ha contribuido en el desarrollo de la descripción gráfica simbólica, geometría computacional, representación del conocimiento, semántica computacional, percepción mecánica, aprendizaje simbólico y conexionista. En 1951 creó SNARC, el primer simulador de redes neuronales.
Escribió el libro "Perceptrones" (con Seymour Papert), que se convirtió en el trabajo fundacional en el análisis de redes neuronales artificiales. Su crítica de la investigación poco rigurosa en el campo ha sido indicada como responsable de la desaparición virtual de la investigación académica en redes neuronales artificiales durante los años 70.
Minsky fue consejero en la película 2001: Una odisea del espacio y hay referencias a él tanto en la película como en el libro. Durante la filmación Minsky casi murió en un accidente.

Nathaniel Rochester
 
 Rochester estaba muy interesado en máquinas inteligentes, especialmente en aquellas que presentan una conducta original en la resolución de problemas.En 1955 , IBM organizó un grupo para estudiar el reconocimiento de patrones , teoría de la información y la teoría de conmutación de circuitos , encabezado por Rochester. Entre otros proyectos, el grupo simuló el comportamiento de las redes neuronales abstractos en una computadora IBM 704. Ese verano John McCarthy, un joven matemático Dartmouth College, también estaba trabajando en IBM. Él y Marvin Minsky había empezado a hablar en serio de la idea de las máquinas inteligentes . Se acercaron a Rochester y Claude Shannon con una propuesta de una conferencia sobre el tema. Con el apoyo de los dos científicos de alto nivel , se aseguraron 7,000 dólares de la Fundación Rockefeller para financiar una conferencia en el verano de 1956 . El encuentro, ahora conocida como la Conferencia de Dartmouth , es ampliamente considerado como el "nacimiento de la inteligencia artificial. "
Rochester ha seguido supervisando los proyectos de inteligencia artificial de IBM , incluyendo programa de damas de Arthur Samuel , de Herbert Gelernter Geometría Teorema del probador y el programa de ajedrez de Alex Bernstein. En 1958, fue profesor visitante en el MIT , donde ayudó a McCarthy con el desarrollo de Lisp lenguaje de programación . Los programas de inteligencia artificial desarrollado en IBM comenzaron a generar una gran cantidad de publicidad y se presentaron en artículos tanto en la revista Scientific American y The New York Times. Accionistas de IBM comenzaron a presionar a Thomas J. Watson , presidente de IBM, para explicar por qué se están utilizando dólares de la investigación para este tipo de "asuntos frívolos ". Además , la gente de marketing de IBM habían empezado a notar que los clientes tenían miedo de la idea de "cerebros electrónicos" y "máquinas pensantes" . Un informe interno elaborado alrededor de 1960 recomendó que IBM termina un amplio apoyo para la IA  y así la empresa puso fin a su programa de inseminación artificial y comenzó a extenderse agresivamente el mensaje de que " los ordenadores sólo pueden hacer lo que se les dijo . "


Claude Shannon
 
Su reputación estaba basada en el campo de la ciencia de la información.
Surgió su interés hacia los circuitos de relevadores complejos. Intentando simplificar centralitas telefónicas de relés, se dio cuenta de que estos podían usarse para hacer cálculos. Sumado esto a su gusto por la lógica y el álgebra booleana, pudo desarrollar esta idea durante el verano de 1937, que pasó en los laboratorios Bell en la ciudad de Nueva York.
En su tesis de maestría en el MIT, demostró cómo el álgebra booleana se podía utilizar en el análisis y la síntesis de la conmutación y de los circuitos digitales. La tesis despertó un interés considerable cuando apareció en 1938 en las publicaciones especializadas. En 1940 le fue concedido el Premio para ingenieros norteamericanos del Instituto Norteamericano Alfred Noble de los Estados Unidos, otorgado cada año a una persona de no más de treinta años. Un cuarto de siglo más tarde, H. H. Goldstine, en su libro Las computadoras desde Pascal hasta Von Neumann, citó su tesis como una de las más importantes de la historia que ayudó a cambiar el diseño de circuitos digitales.
Durante el verano de 1938 realizó trabajos de investigación en el MIT y le fue concedida la beca Bolles cuando trabajaba como ayudante de enseñanza mientras realizaba un doctorado en matemática. En 1940 estudió un máster en ingeniería eléctrica y se doctoró en filosofía matemática.

Shannon pasó quince años en los laboratorios Bell, una asociación muy fructífera con muchos matemáticos y científicos de primera línea como Harry Nyquist, Walter Houser Brattain, John Bardeen y William Bradford Shockley, inventores del transistor; George Stibitz, quien construyó computadoras basadas en relevadores; Warren Weaver, quien escribió una extensa y aclaradora introducción a su obra La teoría matemática de la comunicación y muchos otros más.

Durante este período Shannon trabajó en muchas áreas, y lo más notable fue todo lo referente a la teoría de la información, que se publicó en 1948 con el nombre de Una teoría matemática de la comunicación. En este trabajo se demostró que todas las fuentes de información (telégrafo eléctrico, teléfono, radio, la gente que habla, las cámaras de televisión, etcétera) pueden medirse, y que los canales de comunicación tienen una unidad de medida similar, determinando la velocidad máxima de transferencia o capacidad de canal. Demostró también que la información se puede transmitir sobre un canal si y solamente si la magnitud de la fuente no excede la capacidad de transmisión del canal que la conduce, y sentó las bases para la corrección de errores, supresión de ruidos y redundancia.

En el área de las computadoras y de la inteligencia artificial, publicó en 1950 un trabajo que describía la programación de una computadora para jugar al ajedrez, convirtiéndose en la base de posteriores desarrollos.
A lo largo de su vida recibió numerosas condecoraciones y reconocimientos de universidades e instituciones de todo el mundo.
Ante la pregunta de un periodista de si las máquinas podían pensar, replicó: «¡Naturalmente! ¡Usted y yo somos máquinas y vaya si pensamos!».

Allen Newell y Herbert Simon
 
A los que a veces se les conocen como “Grupo Carnegie-RAND”. Pertenecían al profesorado del Instituto Tecnológico Carnegie (ahora llamado Universidad Carnegie-Mellon o CMU) y a la plantilla de la RAND (Compañía de Investigación y Desarrollo).Anteriormente a la celebración de la Conferencia, Newell y Simon habían trabajado con J.C. Shaw y habían desarrollado un programa llamado el Teórico Lógico, que usaba razonamiento heurístico para demostrar teoremas matemáticos. Llegaron a la Conferencia con algo que ninguno de los otros participantes tenía: un programa de IA que funcionaba.
 Allen Newell
Fue un  Investigador en informática y psicología cognitiva en la corporación de la WWE y en la Escuela de informática de Carnegie Mellon. Contribuyó al Lenguaje de Procesamiento de Información (IPL ) ( 1956 ) ya dos de los Primeros Programas de Inteligencia artificial, La Máquina de lógica Teórica ( 1956 ) y el resolutor generales de Problemas ( 1957 ) , aire Herbert Simon.SOAR es Intento de Realizar la Teoría Unificada cognitiva , Titulado " No Se Puede Jugar a 20 ¿Tienes dudas? Estafa la Naturaleza y ganar " (1973 ) . Existencial Otras Arquitecturas cognitivas Similares , en particular, el ACT de John Anderson, Que es Una arquitectura Unificada Bastante popular, porción USADA estafa Éxito los cognitivistas párr describir el comportamiento humano En Un Amplio Conjunto de Tareas .Recibio el Premio Turing de la ACM junto estafa Herbert Simon en 1975 porque en un Esfuerzo Científico de Más de Veinte Años , inicialmente en Colaboración Con JC Shaw y la corporación RAND , Y posteriormente estafadores numerosos Profesores Estudiantes y EN Carnegie- Mellon , las Contribuciones de han de Hecho Básicas a la Inteligencia artificial , la psicología del Conocimiento Humano, y el Procesamiento de Listas .
 Herbert Simon
Fue profesor auxiliar (1942-1947) y profesor titular (1947-1949) de ciencias políticas en el Instituto de Tecnología (Institute of Technology). En 1949 comenzó a trabajar Carnegie Institute of Technology para enseñar administración y psicología y, después de 1966, enseñó ciencia de la computación y psicología en la Carnegie-Mellon (Pittsburgh). Además dedicó gran cantidad de tiempo a ser consejero de instituciones públicas y privadas. Recibió el Premio Turing de la ACM en 1975, junto con Allen Newell por hacer «contribuciones básicas a la inteligencia artificial, la psicología cognitiva humana y el procesamiento de listas», y el Award for Distinguished Scientific Contribution de la Asociación Norteamericana de Psicología (APA) en 1969. Además fue designado Miembro Distinguido (Distinguished Fellow) de la Asociación Norteamericana de Economía.

Oliver Selfridge 
 
Fue el adjunto de Wiener cuando éste estaba desarrollando la cibernética. Durante una estancia en RAND, donde presentó un programa de reconocimiento de patrones, logró que Allen Newell se interesara por este campo que más tarde entraría a formar parte de la IA. Newell y Simon fueron invitados a la Conferencia de Dartmouth de una forma accidental, ya que los organizadores no estaban muy familiarizados con su trabajo. Sin embargo, Newell y Simon llegaron a convertirse, con McCarthy y Minsky, en los más significativos pioneros americanos de la IA.

Selfridge escribió importantes trabajos tempranos en redes neuronales y reconocimiento de patrones y aprendizaje automático, y su papel de "Pandemonium " (1959 ) es generalmente reconocido como un clásico de la inteligencia artificial. En ella, Selfridge introdujo la noción de "demonios" que registran los eventos a medida que ocurren , reconocen patrones en esos eventos , y pueden desencadenar los acontecimientos posteriores de acuerdo a los patrones que reconocen. Con el tiempo, esta idea dio lugar a la programación orientada a aspectos .En 1968, en su papel formativo " El ordenador como un dispositivo de comunicación " , JCR Licklider y Robert Taylor introdujo un concepto conocido como OLIVER (Online Interactivo Expediter y Responder ), que fue nombrado en honor de Selfridge .Selfridge pasó su carrera en el Laboratorio Lincoln del MIT ( donde fue Director Asociado del Proyecto MAC ) , Bolt , Beranek y Newman , y GTE Laboratorios donde se convirtió en Jefe Científico . Sirvió en la Junta Asesora de la NSA durante 20 años, presidiendo el Grupo de Procesamiento de Datos . Selfridge se retiró en 1993 .

Arthur Samuel
 
 Escribió un programa para jugara las damas, que probablemente fue el primero que aprendió de sus propios errores.Esta ligado a la literatura de  IA a un programa al que le suele llamar el Jugador de Damas de Samuel.La característica más importante de este programa es que fue el primero capaz de aprender de sus propios errores. En 1961el programa jugaba a un nivel bastante elevado y podía ganar con facilidad a Samuel, que por cierto no era un buen jugador de damas. Samuel había refutado la nociva idea de que una computadora sólo puede hacer lo que está programado para hacer y que es incapaz de presentar una conducta original.
Samuel trabajó en una universidad de Emporia, Kansas para pagar sus estudios y recibió un máster en Ingeniería Eléctrica de parte de M.I.T. En 1928, ensambló los Laboratorios Bell, donde trabajó principalmente en el hardware o lo que hoy se conoce como Ingeniería_informática.
Luego de una restricccion de parte de U.I.U.C, Samuel fue a trabajar a la IBM, donde haría su mejor trabajo, que fue hacer programas inspectores en la primera computadora comercial de IBM, la IBM 701. El programa era una demostración sensacional de los avances del hardware y la programación experta.
Fue el pionero de la programación no numérica, que posteriormente se iba a utilizar para el sistema de instrucción de procesadores; fue uno de los pioneros en trabajar en proyectos con excepción de cómputo.
En 1966, Samuel visitó a un profesor de la Universidad de Stanford, donde trabajó el resto de su vida. En 1990, Samuel murió de Parkinson el 29 de julio en Stanford.

Alex Bernstein
 Bernstein.jpg
Desarrolló un programa para jugar al ajedrez que usaba un concepto fundamental en IA: la heurística. Al contrario de Samuel, al que no le gustaba jugar a las damas, Alex Bernstein era un entusiasta del juego que programó: ajedrez. Sin embargo, fue incapaz de lograr los niveles que Samuel había conseguido con su juego de damas, algo que no nos debe parecer extraño, considerando la distintas complejidad de ambos juegos. El programa de ajedrez de Bernstein es importante en la historia de la IA, porque usó técnicas heurísticas para la búsqueda de los mejores movimientos.
El Programa de Ajedrez de Bernstein,fue el primer programa de ajedrez completo, desarrollado en 1957 en el Instituto de Tecnología de Massachusetts por el jugador de ajedrez y programador en IBM, Alex Bernstein con sus colegas Michael de V. Roberts, Timothy Arbuckle y Martin Belsky, apoyado por el consejero de ajedrez Arthur Bisguier , que se convirtió en empleado de IBM en ese momento y en 1957 gran maestro internacional de ajedrez, y supervisado por Nathaniel Rochester .

El Programa de Ajedrez de Bernstein era el prototipo de una poda selectiva hacia adelante, el programa de Shannon Tipo B. En un IBM 704, uno de los últimos equipos de tubo de vacío, se buscó cuatro capas Minimax en unos 8 minutos, considerando siete movimientos más plausibles de cada posición y material evaluado, movilidad, control de área y la defensa del rey.

0 comentarios:

Publicar un comentario