Un destructor de mundos ?
Miedo a la inteligencia artificial |
Como investigador de inteligencia artificial, a menudo me encuentro con la idea de que muchas personas tienen miedo de lo que podría traer la IA .
Es quizás sorprendente, dada la historia y la industria del entretenimiento, que podamos tener miedo de una toma de control cibernética que nos obliga a vivir encerrados, "Matrix" - como, como una especie de batería humana .
Y sin embargo, es difícil para mí mirar desde los modelos de computadora evolutiva que uso para desarrollar la IA , para pensar en cómo las inocentes criaturas virtuales en mi pantalla podrían convertirse en los monstruos del futuro. ¿Podría convertirme en " el destructor de mundos ", como se lamentaba Oppenheimer después de encabezar la construcción de la primera bomba nuclear?
Yo tomaría la fama, Supongo, pero quizás los críticos tienen razón. Tal vez no debería evitar preguntar: Como un experto en IA, ¿qué tengo miedo de la inteligencia artificial?
Miedo a lo imprevisto
La computadora HAL 9000, inventada por el autor de ciencia ficción Arthur C. Clarke y puesta en vida por el director de cine Stanley Kubrick en 2001: Una odisea del espacio , es un buen ejemplo de un sistema que falla debido a consecuencias no deseadas. En muchos sistemas complejos - el RMS Titanic, el transbordador espacial de la NASA, la central nuclear de Chernobyl - los ingenieros unen muchos componentes diferentes. Los diseñadores pueden haber sabido bien cómo cada elemento trabajado individualmente, pero no sabía lo suficiente sobre cómo todos trabajaron juntos.
Eso dio lugar a sistemas que nunca podrían ser completamente comprendidos, y podrían fallar de maneras impredecibles. En cada catástrofe - hundiendo un buque, volando dos transbordadores y difundiendo contaminación radioactiva a través de Europa y Asia - un conjunto de pequeños fracasos se combinaron para crear una catástrofe.
Puedo ver cómo podríamos caer en la misma trampa en la investigación de la IA. Examinamos las últimas investigaciones de la ciencia cognitiva, traducimos eso en un algoritmo y lo añadimos a un sistema existente. Tratamos de ingenieros IA sin entender la inteligencia o la cognición primero.
Sistemas como Watson de IBM y Alpha de Google equipan redes neuronales artificiales con enorme poder de computación, y logran hazañas impresionantes. Pero si estas máquinas cometen errores, pierden en Jeopardy! O no derrotar a un maestro Go . Estas no son consecuencias que cambien el mundo; De hecho, lo peor que puede pasarle a una persona normal como resultado es perder algo de dinero apostando a su éxito.
Pero a medida que los diseños de AI se vuelven aún más complejos y los procesadores de computadora aún más rápido, sus habilidades mejorarán. Eso nos llevará a darles más responsabilidad, incluso a medida que aumenta el riesgo de consecuencias imprevistas. Sabemos que "errar es humano", por lo que es imposible para nosotros crear un sistema verdaderamente seguro.
Miedo al mal uso
No estoy muy preocupado por las consecuencias no deseadas en los tipos de IA que estoy desarrollando, usando un enfoque llamado neuroevolución . Creo ambientes virtuales y evoluciono criaturas digitales y sus cerebros para resolver tareas cada vez más complejas. El rendimiento de las criaturas es evaluado; Aquellos que realizan los mejores se seleccionan para reproducir, haciendo que la próxima generación. A lo largo de muchas generaciones, estas máquinas-criaturas desarrollan habilidades cognitivas.
En este momento estamos dando pequeños pasos para desarrollar máquinas que pueden realizar tareas sencillas de navegación, tomar decisiones sencillas o recordar un par de bits. Pero pronto evolucionaremos máquinas que pueden ejecutar tareas más complejas y tener inteligencia general mucho mejor. En última instancia, esperamos crear inteligencia a nivel humano.
En el camino, encontraremos y eliminaremos errores y problemas a través del proceso de la evolución. Con cada generación, las máquinas mejoran en el manejo de los errores que ocurrieron en generaciones anteriores. Eso aumenta las posibilidades de que encontremos consecuencias no deseadas en la simulación, que se pueden eliminar antes de que entren en el mundo real.
Otra posibilidad que está más abajo en la línea es utilizar la evolución para influir en la ética de los sistemas de inteligencia artificial. Es probable que la ética y la moralidad humana, como la confianza y el altruismo , sean el resultado de nuestra evolución y factores en su continuación. Podríamos configurar nuestros entornos virtuales para dar ventajas evolutivas a las máquinas que demuestran bondad, honestidad y empatía. Esto podría ser una manera de asegurar que desarrollemos servidores más obedientes o compañeros dignos de confianza y menos robots asesinos despiadados.
Si bien la neuroevolución puede reducir la probabilidad de consecuencias no deseadas, T evitar el uso indebido. Pero esa es una cuestión moral, no científica. Como científico, debo seguir mi obligación a la verdad, informando lo que encuentro en mis experimentos, si me gustan los resultados o no. Mi enfoque no está en determinar si me gusta o apruebo algo; Sólo importa que pueda revelarlo.
Miedo a las prioridades sociales equivocadas
Ser un científico no me absuelve de mi humanidad, sin embargo. Debo, en algún nivel, volver a conectar con mis esperanzas y temores. Como ser moral y político, tengo que considerar las implicaciones potenciales de mi trabajo y sus efectos potenciales sobre la sociedad.
Como investigadores, y como sociedad, todavía no hemos llegado a tener una idea clara de lo que queremos que AI haga o se convierta. En parte, por supuesto, esto es porque todavía no sabemos de qué es capaz. Pero tenemos que decidir cuál es el resultado deseado de la IA avanzada.
Una gran gente de la zona está prestando atención a es el empleo. Los robots ya están haciendo trabajos físicos como soldar piezas de automóviles juntos . Un día pronto también pueden hacer tareas cognitivas que una vez pensamos que eran exclusivamente humanos. Los automóviles autodirigidos podrían reemplazar a los taxistas ; Los aviones auto-volantes podrían reemplazar a los pilotos.
En lugar de obtener ayuda médica en una sala de emergencia con el personal de médicos potencialmente sobrecargados , los pacientes podrían obtener un examen y diagnóstico de un sistema experto con acceso instantáneo a todo el conocimiento médico jamás recogido - y la cirugía realizada por un robot incansable con una mano perfectamente estable . " El asesoramiento jurídico podría provenir de una base de datos legal que lo conoce todo ; El asesoramiento sobre inversiones podría provenir de un sistema de predicción del mercado .
Quizás un día, todos los trabajos humanos serán hechos por las máquinas. Incluso mi propio trabajo podía hacerse más rápido, por un gran número de máquinas que investigaban incansablemente cómo hacer máquinas aún más inteligentes .
En nuestra sociedad actual, la automatización empuja a la gente fuera de los puestos de trabajo, haciendo que las personas que poseen las máquinas más ricas y todos los demás más pobres . Eso no es una cuestión científica; Es un problema político y socioeconómico que nosotros como sociedad debemos resolver . Mi investigación no cambiará eso, Aunque mi yo político - junto con el resto de la humanidad - puede ser capaz de crear circunstancias en las que AI se convierte en ampliamente beneficioso en lugar de aumentar la discrepancia entre el uno por ciento y el resto de nosotros.
El miedo al escenario de pesadilla
Hay una última miedo, encarnado por HAL 9000, el Terminator y cualquier número de otros superinteligencias de ficción: Si AI sigue mejorando hasta que se supera la inteligencia humana, tendrán un sistema de super-inteligencia (o más de uno de ellos) les resulta Ya no necesita seres humanos? ¿Cómo justificaremos nuestra existencia ante la superinteligencia que puede hacer cosas que los humanos nunca podrían hacer? ¿Podemos evitar ser borrados de la faz de la Tierra por máquinas que ayudamos a crear?
La pregunta clave en este escenario es: ¿Por qué una superinteligencia nos debe mantener?
Yo diría que soy una buena persona que podría incluso haber ayudado a crear la superinteligencia misma. Apelo a la compasión y empatía que la superinteligencia tiene para mantenerme vivo, una persona compasiva y empática. También diría que la diversidad tiene un valor en sí misma, y que el universo es tan ridículamente grande que la existencia de la humanidad probablemente no importa en absoluto.
Pero no hablo por toda la humanidad, y me resulta difícil hacer un argumento convincente para todos nosotros. Cuando echo una mirada aguda a todos nosotros, hay mucho mal: Nos odiamos. Nos peleamos unos contra otros. No distribuimos alimentos, conocimientos o asistencia médica por igual. Contaminamos el planeta. Hay muchas cosas buenas en el mundo, Pero todo lo malo debilita nuestro argumento para que se nos permita existir.
Afortunadamente, todavía no necesitamos justificar nuestra existencia. Tenemos un cierto tiempo - en alguna parte entre 50 y 250 años, dependiendo de cómo el AI rápido se convierte . Como especie, podemos reunirnos y encontrar una buena respuesta de por qué una superinteligencia no sólo debe limpiarnos. Pero eso será difícil: Diciendo que abrazamos la diversidad y de hecho lo hacemos son dos cosas diferentes - como estamos diciendo que queremos salvar el planeta y hacerlo con éxito.
Todos, individualmente y como sociedad, necesitamos prepararnos para ese escenario de pesadilla, usando el tiempo que nos queda para demostrar por qué nuestras creaciones deben permitirnos seguir existiendo. O podemos decidir creer que nunca sucederá, y dejar de preocuparse por completo. Pero independientemente de las amenazas físicas que las superinteligencias puedan presentar, también representan un peligro político y económico. Si no encontramos una manera de distribuir mejor nuestra riqueza , habremos alimentado el capitalismo con trabajadores de inteligencia artificial que sirven sólo a muy pocos que poseen todos los medios de producción.
No hay comentarios: