No es para preocuparse

Blog

HogarHogar / Blog / No es para preocuparse

May 11, 2023

No es para preocuparse

[La exageración de la IA no es nueva. La historia de exagerar su potencial se remonta

[La exageración de la IA no es nueva. La historia de exagerar su potencial se remonta a décadas. En este artículo, Robert J. Marks se hace eco de muchos de los puntos de vista tratados con más detalle en su libro de 2022 Non-Computable You: What You Do That Artificial Intelligence Never Will. Hoy lo compartimos con ustedes, escrito originalmente el 3 de octubre de 2017 y publicado en The Stream.]

La IA está transformando nuestro mundo. ¿Deberíamos preocuparnos por eso?

El empresario multimillonario Elon Musk está preocupado.

Woody Allen dijo una vez: "¿Qué pasa si todo es una ilusión y nada existe? En ese caso, definitivamente pagué de más por mi alfombra". Musk cree que pagó de más por su alfombra. Él cree que hay una buena posibilidad de que el mundo tal como lo conocemos sea una sofisticada simulación por computadora diseñada por un superprogramador y nosotros, los humanos, somos agentes inteligentes en esa simulación. Supongo que podemos decir que Musk cree que somos producto de un diseño inteligente.

Y nosotros, como simulaciones diseñadas inteligentemente, estamos generando nuestras propias simulaciones de IA (inteligencia artificial). Somos, en el universo de Musk, simulaciones escribiendo simulaciones. Con respecto a la IA que creamos, Musk advierte: "Creo que debemos tener mucho cuidado con la inteligencia artificial. Si tuviera que adivinar cuál es nuestra mayor amenaza existencial, probablemente sea esa. Así que debemos tener mucho cuidado".

Musk parece no preocuparse de que podamos representar una amenaza existencial para el superprogramador que nos escribió. Y si Musk tiene razón, ¿las simulaciones de IA que creamos no serán finalmente destruidas por las simulaciones que escriben nuestras simulaciones? Así que tal vez Musk no tenga nada de qué preocuparse.

Para evitar que la IA arruine aún más a la humanidad, Musk cree que la IA debe ser controlada. Tiene razón en este punto. Los peligros acompañan a toda nueva tecnología. Hubo amenazas por la introducción del automóvil, la electricidad en el hogar y el horno de microondas. Alfred Nobel estaba preocupado por la amenaza que representaba su invención de la dinamita. Salvó su conciencia al fundar los Premios Nobel, incluido el Premio Nobel de la Paz.

Y luego está la tecnología de la bomba atómica y de hidrógeno, que es lo más cerca que hemos estado de inventar dispositivos del fin del mundo.

Entonces, ¿deberíamos preocuparnos de que una computadora como Skynet en las películas de Terminator se vuelva consciente de sí misma y trate de eliminarnos? O, como en Matrix, tal vez las computadoras nos obliguen a bañarnos en una sopa embrionaria viscosa mientras los programas de computadora conectados a nuestros cerebros nos llevan a un mundo ficticio de realidad virtual.

Los investigadores preocupados por la llamada singularidad, donde las computadoras obtienen una inteligencia superior a la del hombre, toman esta amenaza en serio. Cuando esto suceda, las computadoras tomarán el control y la mejor vida disponible para usted y para mí será como la mascota mimada de un robot. ¿Deberíamos preocuparnos?

La respuesta corta en no. Se pueden plantear muchas preocupaciones legítimas sobre la IA, pero no estas. Ninguna de estas cosas sucederá.

Cada vez hay más pruebas de que las computadoras nunca se volverán conscientes ni obtendrán comprensión. Gregory Chirikjian, director del Laboratorio de Robots de la Escuela Johns Hopkins Whiting, agrega: "Los robots tampoco podrán exhibir ninguna forma de creatividad o sensibilidad".

¡Pero espera un minuto! Sabemos de algo que hace todas estas cosas. De alguna manera está contenido en las tres libras de carne grasosa entre nuestras orejas. Debido a nuestro cerebro, presumiblemente, somos creativos, conscientes y sintientes. Entonces, ¿por qué la IA algún día no puede hacer lo que hacemos?

Una de las principales razones por las que la inteligencia artificial y los robots nunca obtendrán las habilidades superiores de los humanos es que características como la conciencia, la comprensión, la sensibilidad y la creatividad están más allá del alcance de lo que actualmente definimos como computadoras. Alan Turing inventó la máquina de Turing en la década de 1930. La tesis de Church-Turing establece que cualquier cosa que se pueda hacer en una computadora hoy en día se puede hacer en la máquina original de Turing. Puede tomar mil millones o un billón de veces más tiempo, pero se puede hacer. Por lo tanto, las operaciones que no pueden ser realizadas por una máquina de Turing no pueden ser realizadas por las supercomputadoras de hoy.

Turing demostró que había muchas operaciones deterministas más allá de los poderes de la computadora. Por ejemplo, un programa de computadora no se puede escribir para analizar siempre lo que hará otro programa de computadora arbitrario. ¿Se detendrá eventualmente un programa de computadora seleccionado arbitrariamente o se ejecutará para siempre? Turing demostró que una computadora no puede resolver este problema. La máquina de Turing, y por lo tanto las computadoras de hoy, tienen límites fundamentales en lo que pueden hacer. En términos de comprensión, nuestro cerebro funciona más allá de las máquinas de Turing de muchas maneras.

El filósofo John Searle ofreció otra razón en su argumento de la habitación china. Imagina una habitación con un hombrecito llamado Pudge. Recibe mensajes en chino deslizados por una ranura en la puerta. Pudge mira el mensaje y se dirige a un gran banco de archivadores en la habitación donde busca un mensaje idéntico o similar. Cada carpeta en el archivador tiene dos hojas de papel. En uno está escrito el mensaje que podría coincidir con el mensaje deslizado por la ranura de la puerta. La segunda hoja de papel en el archivo es la respuesta correspondiente a ese mensaje. Una vez que Pudge coincide con el mensaje correcto, copia la respuesta correspondiente. Después de volver a archivar la carpeta y cerrar el cajón del archivo, Pudge regresa a la ranura de la puerta a través de la cual entrega la respuesta y su trabajo está hecho.

Aquí está la comida para llevar.

¿Pudge entiende la pregunta o la respuesta? No. ¡Pudge hace su trabajo y ni siquiera lee chino! Simplemente está emparejando patrones. Desde fuera, podría parecer que Pudge entiende chino, pero no es así. Simplemente está siguiendo un algoritmo, un procedimiento paso a paso para lograr algún objetivo.

Cuando se sigue un procedimiento paso a paso para hornear un pastel, es decir, siguiendo una receta, se está ejecutando un algoritmo. Eso es todo lo que una computadora puede hacer. Puede seguir instrucciones de un algoritmo.

¿Recuerdas cuando la Supercomputadora Watson de IBM venció a todos en el programa de juegos Jeopardy!? Puedo imaginarme a Pudge en la sala de chino siendo reasignado a la sala de Wikipedia. Cuando se le hace una pregunta a Watson, Pudge va a un archivador de Wikipedia y recupera la respuesta correcta y la desliza a través de la ranura hacia el exterior. Watson la computadora no entiende ni las preguntas ni las respuestas. Watson está siguiendo un algoritmo preprogramado. No es consciente.

Entonces, ¿qué le permite a nuestro cerebro, o más bien a nosotros, hacer cosas que las computadoras no pueden? ¿Qué nos diferencia?

Algunos investigadores están buscando una explicación materialista de nuestros extraordinarios cerebros. Con atención a los túbulos cuánticos que se encuentran en el cerebro, Sir Roger Penrose y el Dr. Stuart Hameroff proponen un modelo mecánico cuántico. Hameroff señala que su teoría del túbulo cuántico del cerebro "está en conflicto con la premisa principal de la IA [fuerte] y la singularidad".

La teoría de Penrose y Hameroff propone un proceso cerebral físico que no es algorítmico. Las computadoras se limitan a ejecutar algoritmos. Dado que no algorítmico significa no computable, lo que proponen Penrose y Hameroff no se puede simular en una computadora. Si la teoría de Penrose-Hameroff u otro trabajo sobre la llamada conciencia cuántica tiene éxito y puede convertirse en un modelo funcional, podremos generar máquinas que hagan lo que hace el cerebro. Esta nueva tecnología no será una computadora. Tendremos que darle otro nombre.

Si podemos construir un cerebro como el humano, tengan miedo. Ten mucho miedo. Skynet podría estar a la vuelta de la esquina. Pero mientras las computadoras simplemente se vuelvan más rápidas y usen más memoria, no hay razón para preocuparse por esto.

Incluso si aceptamos los límites de las computadoras y, por lo tanto, de la IA, los temores de Musk aún tienen fundamento. Le preocupa que podamos "producir algo malo por accidente". El tiene razón. Las computadoras hacen lo que se les dice que hagan.

La célebre novela y película de ciencia ficción 2001: A Space Odyssey presenta una computadora de alto nivel llamada HAL. Al final de la película, HAL intenta matar a los astronautas porque interfieren con el objetivo principal de la misión.

Esto no es tanto una computadora que se ha vuelto corrupta, sino una programación descuidada. Incluso si aceptamos la ficción de que HAL es consciente, la culpa es del programador de HAL que no especificó que los seres humanos eran más importantes que la misión.

El escritor de ciencia ficción Isaac Asimov hizo una puñalada en la regulación de la IA en una historia de una revista pulp de ciencia ficción de 1942 que luego se agrupó con otras historias de temas similares y se publicó como el libro titulado I Robot. Asimov propuso tres leyes para asegurar la subordinación de los robots de IA a los humanos. La primera de las tres leyes de Asimov es:

Si HAL estuviera programado con la primera de las leyes de Asimov, HAL nunca intentaría hacerse cargo de la misión asesinando a los astronautas. Pero, de nuevo, la película sería menos interesante.

Los legisladores y reguladores de IA deben pensar de manera más amplia que Asimov. ¿Qué le haría un robot de IA a un policía que intenta electrocutar a un sospechoso de asesinato que huye? Siguiendo la primera ley de no permitir que ningún ser humano sufra daño, el robot desarmaría al policía y el asesino escaparía. La primera ley necesita ser enmendada.

Algunos dicen que AI algún día estará en condiciones de hacer juicios morales y éticos antes de actuar. No. Los juicios morales y éticos se realizarán previamente en el programa informático.

Pensar en las consecuencias de las reglas es lo que hacen los legisladores y reguladores. A menudo lo hacen tan mal. Espero que cualquier regulación resultante de la IA no requiera una horda de burócratas husmeando en el código de todos. Tener empresas responsables de la acción de su IA parece una mejor idea. Se necesitan legisladores con túbulos cuánticos mejores que los míos para formular tales reglas.

AI continuará reemplazando trabajadores y cambiando nuestro mundo. Los algoritmos están reemplazando a los agentes de viajes, a los trabajadores de las cabinas de peaje, a los cajeros de bancos, a los cajeros y a las tiendas físicas. Pero el crecimiento de la IA también ha creado puestos de trabajo como especialistas en tecnología de la información, bloggers, analistas de datos, programadores y webmasters.

Cualquier nueva tecnología dará lugar a este tipo de transición. A los economistas les gusta invocar las proverbiales fábricas de látigos para buggy, que fueron reemplazadas por fábricas de automóviles.

Pero tenga cuidado con la exageración de la IA motivada por el marketing, la fama, la ignorancia o la obtención de más clics en un sitio web. A principios de 1900, cuando intentaba lanzar su tecnología de corriente continua, Thomas Edison electrocutó animales en ferias estatales utilizando la corriente alterna de la competencia de Nikola Tesla. Edison incluso hizo matar al pobre Topsy, el elefante, en Coney Island en 1903. Edison hizo esto para que la gente adoptara su corriente continua en lugar de la corriente alterna de Tesla.

Según Edison, la corriente alterna de Tesla era una amenaza existencial potencial. Pero a Edison no le interesaba la verdad. Como pensó que mejoraría su negocio, Edison lanzó exageraciones. Como se desprende de la salida de los enchufes de pared de su casa hoy, Tesla ganó la batalla a pesar de que había y hay problemas con su corriente alterna. Todavía ocurren electrocuciones accidentales ocasionales y todavía hay incendios en las casas debido al aislamiento eléctrico deshilachado. Pero, ¿consideramos siquiera eliminar estos riesgos viviendo sin energía eléctrica?

Cada nueva tecnología tiene consecuencias. Mi maravilloso teléfono celular me permite acceder a la web y al conocimiento del mundo pero, al hacerlo, he sacrificado mi privacidad a Google y tal vez a la NSA. Siempre hay compensaciones. Personalmente, no veo la hora de programar mi automóvil para que conduzca desde McGregor, Texas, hasta nuestra casa cerca de Charleston, West Virginia, presione GO y arrástrese al asiento trasero para tomar una siesta. Hay un posible peligro aquí. Podría entrar por error en Charleston, Carolina del Norte.

Aquí el resultado final: filtre la exageración, comprenda los límites de la IA e ignore los elefantes electrocutados. Casi todos los pronósticos de IA son hiperbólicos. Al igual que National Enquirer, están motivados por algo diferente a la verdad. Preste atención al consejo de Neils Bohr, "La predicción es muy difícil, especialmente sobre el futuro".