“La raza humana tendrá que salir de la Tierra si quiere sobrevivir” El físico Stephen Hawking reflexiona

Los ordenadores superarán a los humanos en los próximos cien años. Cuando eso ocurra, tenemos que asegurarnos de que sus objetivos coincidan con los nuestros"


Científicos han logrado imitar en un laboratorio el funcionamiento de un agujero negro a pequeña escala utilizando ondas de sonido en lugar de luz para probar la llamada teoría de radiación de Hawking. Postulada en 1976 porStephen Hawking, la teoría asegura que los agujeros negros emiten unas partículas por efecto de la mecánica cuántica. Tras 5 años de trabajo, investigadores del Instituto de Tecnología Technion de Haifa, Israel, han probado en un laboratorio que, efectivamente, se cumple la teoría establecida por el científico británico.

Parece que nos somos los únicos en sentir un cierto reparo hacia la idea de construir una máquina inteligente capaz de pensar por si misma. El laureado físico Stephen Hawking no ha dudado en calificar a la Inteligencia Artificial, o I.A. como el peor error que podría cometer la humanidad, y probablemente el último.

Hawking no se muestra abiertamente contrario a las investigaciones en este campo, pero cree que la comunidad científica no se está preocupando lo suficiente por mantener bajo control un eventual sistema de inteligencia artificial el día que se descubra.
 El físico ha publicado un artículo conjunto con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek. Estas son sus palabras. Podéis leer artículo completo :El éxito en la creación de AI sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos, según un grupo de científicos destacados
Stephen Hawking, Stuart Russell, Max Tegmark, Frank Wilczek
Jueves 01 de mayo 2014
Con el éxito de taquilla de Hollywood Trascendencia jugar en salas de cine, con Johnny Depp y Morgan Freeman mostrando visiones enfrentadas por el futuro de la humanidad, es tentador para descartar la noción de máquinas altamente inteligentes como mera ciencia ficción. Pero esto sería un error, y potencialmente nuestro peor error en la historia.
Artificial-intelligence (AI) la investigación está progresando rápidamente. Hitos recientes, como los coches de auto-conducción, un equipo ganador en Jeopardy! y los asistentes personales digitales Siri, Google ahora y Cortana no son más que síntomas de una carrera armamentista de TI impulsada por las inversiones y la creación sin precedentes sobre una base teórica cada vez más maduro. Tales logros probablemente pálido contra lo que traerán los próximos decenios.
Los beneficios potenciales son enormes; todo lo que la civilización tiene que ofrecer es un producto de la inteligencia humana; no podemos predecir lo que podríamos lograr cuando esta inteligencia se ve magnificado por las herramientas que AI puede proporcionar, pero la erradicación de la guerra, la enfermedad, la pobreza y estaríamos en lo alto de la lista de nadie. El éxito en la creación de AI sería el evento más grande en la historia humana.
En imágenes: Puntos de referencia en el desarrollo de la IAResultado de imagen de inteligencias artificiales COSMOLOGICA
Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos. En el corto plazo, los militares mundiales están considerando sistemas de armas autónoma que puede elegir y eliminar objetivos; la ONU y Human Rights Watch han abogado por un tratado de prohibición de este tipo de armas. En el mediano plazo, como destaca Erik Brynjolfsson y Andrew McAfee en El segundo era de la máquina, la IA puede transformar nuestra economía para que tanto grandes riquezas y gran dislocación.
A más largo plazo, no hay límites fundamentales a lo que puede lograrse: no hay ley física que excluye partículas de ser organizada de manera que realizan incluso los cálculos más avanzados que los arreglos de partículas en los cerebros humanos. Una transición explosiva es posible, aunque podría jugar fuera diferente de la película: como Irving Buena realizado en 1965, las máquinas con inteligencia sobrehumana podría mejorar en varias ocasiones su diseño aún más, lo que provocó lo que Vernor Vinge llama una "singularidad" y personaje de la película de Johnny Depp llama la "trascendencia".
Uno puede imaginar tal tecnología más inteligente que los mercados financieros, de salida inventando los investigadores humanos, fuera de la manipulación de los líderes humanos, y el desarrollo de armas que ni siquiera podemos entender. Considerando que el impacto a corto plazo de la IA depende de quién lo controla, el impacto a largo plazo depende de si se puede controlar en absoluto.  Así, frente a posibles futuros de beneficios y riesgos incalculables, los expertos son, sin duda haciendo todo lo posible para garantizar el mejor resultado, ¿no? Equivocado. Si una civilización alienígena superior nos envió un mensaje diciendo: "Vamos a llegar en un par de décadas," tendríamos que acabamos de responder, "OK, llámenos cuando llegue aquí - vamos a dejar las luces encendidas"? Probablemente no - pero esto es más o menos lo que está sucediendo con la IA. Aunque nos enfrentamos potencialmente el mejor o peor que puede pasarle a la humanidad en la historia, poca investigación seria se dedica a estos temas fuera de los institutos sin ánimo de lucro, como el Centro Cambridge para el Estudio de Riesgo Existencial, el futuro del Instituto Humanidad, la Máquina Instituto de Investigación en Inteligencia, y el futuro del Instituto Vida. Todos nosotros debemos preguntarnos qué podemos hacer ahora para mejorar las posibilidades de aprovechar los beneficios y evitar los riesgos.
Stephen Hawking es el director de investigación en el Departamento de Matemáticas Aplicadas y Física Teórica de Cambridge y un ganador del Premio de Física Fundamental 2012 por su trabajo sobre la gravedad cuántica. Stuart Russell es profesor de ciencias informáticas en la Universidad de California, Berkeley y coautor de "Inteligencia artificial: un enfoque moderno '. Max Tegmark es un profesor de física en el Instituto Tecnológico de Massachusetts (MIT) y autor de 'Nuestra Matemática Universo'. Frank Wilczek es profesor de física en el MIT y premio Nobel 2004 por su trabajo en la fuerza nuclear fuerte.
Los agujeros negros son concentraciones masivas de materia que surgen tras la explosión o colapso de una estrella u otro cuerpo celeste masivo. Se cree que su campo de gravedad es tan potente que no hay nada que escape a su zona de influencia, una frontera conocida como horizonte de sucesos. Sin embargo, Hawking postuló que sí podía existir una partícula que escapara la gravedad del agujero negro, un fenómeno al que llamó radiación de Hawking.
Para probar esa teoría, científicos han imitado en un laboratorio un agujero negro que, en lugar de luz, atrapa ondas de sonido a través de un fluido extremadamente frío. Lo hizo en el 2009 el físico Jeff Steinhauer, del Instituto de Tecnología Technion, en Israel. Tras años de investigación de los resultados, los investigadores aseguran que efectivamente han logrado probar la teoría de Hawking. 

Comentarios

Entradas populares de este blog

El rey Enrique VIII de Inglaterra era lujurioso y gay

Navidad 2023

Que los tuareg se unan a Al Qaeda es increible