Artículo sobre inteligencia artificial
McCarthy fue un gigante de la informática y una figura fundamental en el campo de la inteligencia artificial. Mientras estaba en Dartmouth en 1955, McCarthy fue autor de una propuesta para una conferencia de investigación de verano de dos meses y 10 personas sobre “inteligencia artificial”, el primer uso del término en una publicación.
Al proponer la conferencia, McCarthy escribió: “El estudio debe proceder sobre la base de la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que se puede hacer que una máquina lo simule”. La conferencia posterior se considera un momento decisivo en la informática.
En 1958, McCarthy inventó el lenguaje de programación informática LISP, el segundo lenguaje de programación más antiguo después de FORTRAN. LISP se sigue utilizando hoy en día y es el lenguaje de programación preferido para la inteligencia artificial.
También desarrolló el concepto de tiempo compartido de los ordenadores a finales de los años 50 y principios de los 60, un avance que mejoró enormemente la eficiencia de la computación distribuida y que precedió en décadas a la era de la computación en nube.
Cronología de la historia de las IAs
De hecho, los resultados recientes de una amplia encuesta de investigadores de aprendizaje automático predicen que la IA superará a los humanos en muchas actividades en los próximos diez años, como la traducción de idiomas (para 2024) hasta el trabajo de cirujano (para 2053). Los investigadores también creen que hay un 50% de posibilidades de que la IA supere a los humanos en todas las tareas dentro de 45 años y de que automatice todos los trabajos humanos dentro de 120 años.
La cuestión es que no siempre nos damos cuenta de cuándo estamos en contacto con la Inteligencia Artificial porque estamos tan acostumbrados a que la tecnología haga cosas nuevas y sorprendentes cada día que no nos paramos a pensar en la ciencia que hay detrás de los aparatos o programas que utilizamos.
Por ejemplo, sin la Inteligencia Artificial, no existirían los asistentes virtuales, ni en la web ni en tu dispositivo smartphone (¡di adiós a Siri!), y tampoco habrían existido las Soluciones Artificiales. Por ello, estamos eternamente agradecidos a las personas que fueron la inspiración de esta increíble tecnología y que han contribuido a que la informática sea mucho más humana y capaz.
Creación de Ai
Bernard MarrBernard Marr es un futurista de renombre mundial, influenciador y líder de pensamiento en los campos de los negocios y la tecnología, con una pasión por el uso de la tecnología para el bien de la humanidad. Es un autor de 20 libros de gran éxito, escribe una columna periódica para Forbes y asesora y entrena a muchas de las organizaciones más conocidas del mundo. Tiene más de dos millones de seguidores en las redes sociales, un millón de suscriptores a su boletín de noticias y ha sido clasificado por LinkedIn como una de las cinco personas más influyentes en el mundo de los negocios y la número uno en el Reino Unido.
Los debates sobre la inteligencia artificial (IA) han generado cierto malestar entre quienes temen que pase rápidamente de ser un beneficio para la sociedad humana a imponerse. Incluso Stephen Hawking y Elon Musk han advertido de las amenazas de la IA. Sin embargo, no todos operamos a partir de la misma definición del término y, aunque la base es generalmente la misma, el enfoque de la inteligencia artificial cambia dependiendo de la entidad que proporciona la definición. Veamos 6 definiciones de inteligencia artificial y veamos cómo algunos de los líderes de la industria están centrando sus esfuerzos de investigación en IA.
Pioneros de la Inteligencia Artificial
En la primera mitad del siglo XX, la ciencia ficción familiarizó al mundo con el concepto de robots artificialmente inteligentes. Comenzó con el “desalmado” hombre de hojalata del Mago de Oz y continuó con el robot humanoide que se hacía pasar por María en Metrópolis. En la década de 1950, teníamos una generación de científicos, matemáticos y filósofos con el concepto de inteligencia artificial (o IA) asimilado culturalmente en sus mentes. Uno de ellos fue Alan Turing, un joven polímata británico que exploró la posibilidad matemática de la inteligencia artificial. Turing sugirió que los humanos utilizan la información disponible además de la razón para resolver problemas y tomar decisiones, así que ¿por qué las máquinas no pueden hacer lo mismo? Este era el marco lógico de su artículo de 1950, Computing Machinery and Intelligence, en el que discutía cómo construir máquinas inteligentes y cómo probar su inteligencia.
Por desgracia, hablar es barato. ¿Qué impidió a Turing ponerse a trabajar en ese mismo momento? En primer lugar, los ordenadores debían cambiar fundamentalmente. Antes de 1949 los ordenadores carecían de un requisito clave para la inteligencia: no podían almacenar órdenes, sólo ejecutarlas. En otras palabras, se podía decir a los ordenadores lo que tenían que hacer, pero no podían recordar lo que hacían. En segundo lugar, la informática era extremadamente cara. A principios de la década de 1950, el coste de alquilar un ordenador ascendía a 200.000 dólares al mes. Sólo las universidades prestigiosas y las grandes empresas tecnológicas podían permitirse el lujo de adentrarse en estas aguas inexploradas. Para convencer a las fuentes de financiación de que la inteligencia artificial era una actividad que merecía la pena, se necesitaba una prueba de concepto y el apoyo de personas de alto nivel.