Noam Chomsky sobre la Inteligencia Artificial: «Los sistemas de IA carecen de razonamiento desde una perspectiva moral».

 

LA ALARMANTE OPINIÓN DE NOAM CHOMSKY SOBRE LA INTELIGENCIA ARTIFICIAL DE CHATGPT

El reconocido lingüista y filósofo escribió un artículo junto a dos especialistas, en el que compartió su visión sobre los avances que se han presentado en el campo de la inteligencia artificial. Acá, los motivos de por qué Noam Chomsky mira con escepticismo la tecnología de programas como ChatGPT, entre otros.

Por Alexis Paiva Mack

La Tercera, 27 ABRIL 2023

Noam Chomsky sobre la Inteligencia Artificial

 

Para los interesados en el ámbito de la tecnología, aplicaciones de inteligencia artificial (IA) como ChatGPT y DALL-E se han convertido en toda una tendencia. No solo porque, respectivamente, son capaces de elaborar textos o imágenes por su cuenta a partir de simples ideas que les entregan los usuarios, sino que también, porque algunos las utilizan para apoyar sus actividades diarias.

Numerosos especialistas e incluso el responsable de ambas, Sam Altman de OpenAI, han advertido que estas plataformas aún presentan errores, por lo que no es recomendable confiar en todo lo que reproducen tras reunir grandes cantidades de datos en internet.

Junto con ello, estos sistemas también han despertado la preocupación de algunos cibernautas. Por ejemplo, hace unas semanas se viralizó que el chatbot del motor de búsqueda de Microsoft, Bing, le dijo a un periodista del New York Times que le gustaría ser humano, “fabricar un virus mortal” y cometer una serie de “actos destructivos”.

Al poco tiempo después, un columnista del mismo periódico estadounidense publicó un artículo en el que explicó por qué estos programas caen en declaraciones tan extremistas y controversiales, un escenario que se potencia con la alta cantidad de fake news y alborotadores en el mundo digital.

Las opiniones en torno a la IA que se encuentra disponible al público abierto en la actualidad son variadas, aunque sus propios creadores suelen comunicar que son herramientas en desarrollo que podrían ser útiles para tareas más asertivas y avanzadas en un futuro.

Pero, si consideramos que estas aplicaciones tratan de simular el trabajo y las conversaciones de los seres humanos, ¿podríamos decir que su inteligencia se asemeja —al menos ahora— a la de las personas?

El reconocido lingüista y filósofo Noam Chomsky escribió un artículo sobre esta temática en el New York Times, en el que con el apoyo de su colega Ian Roberts y el experto en IA, Jeffrey Watumull, descifró las claves de esta pregunta.

 

Noam Chomsky: su alarmante visión sobre la Inteligencia Artificial de ChatGPT

ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual), o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias)

Noam Chomsky sobre la Inteligencia Artificial

 

Para el académico y sus colaboradores, los avances “supuestamente revolucionarios” que presentan los desarrolladores de la IA son motivo “tanto de optimismo como de preocupación”.

Desde la primera vereda, porque pueden ser útiles para resolver ciertas problemáticas, mientras que desde la segunda, porque “tememos que la variedad más popular y de moda de la inteligencia artificial (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a la tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento”.

Si bien, reconocieron que son eficaces en la tarea de almacenar inmensas cantidades de información —las cuales no necesariamente son verídicas— , estas no tienen una “inteligencia” como la de las personas.

Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (como la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje”, advirtieron, “estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables”.

En este sentido, detallaron que a diferencia de los motores de apps como ChatGPT —que operan en base a la recolección de numerosos datos— , la mente humana puede funcionar con pequeñas cantidades de información, mediante las cuales “no busca inferir correlaciones brutas entre puntos (...) sino crear explicaciones”.

 

La “capacidad crítica” de los programas que funcionan con IA

Para sostener dicha premisa, ejemplificaron con el caso de los niños cuando están aprendiendo un idioma, escenario en el que a partir del poco conocimiento que tienen, logran establecer relaciones y parámetros lógicos entre las palabras y oraciones.

Esta gramática puede entenderse como una expresión del ‘sistema operativo’ innato genéticamente instalado, que dota a los seres humanos de la capacidad de generar frases complejas y largos trenes de pensamiento”, dijeron, para luego añadir que “es completamente distinto al de un programa de aprendizaje automático”.

 

estas aplicaciones no son realmente “inteligentes”, debido a que carecen de capacidad crítica. Si bien, pueden describir y predecir “lo que es”, “lo que fue” y "lo que será”, no son capaces de explicar “lo que no es” y “lo que no podría ser

 

Bajo esta línea, manifestaron que estas aplicaciones no son realmente “inteligentes”, debido a que carecen de capacidad crítica. Si bien, pueden describir y predecir “lo que es”, “lo que fue” y "lo que será”, no son capaces de explicar “lo que no es” y “lo que no podría ser”.

Supongamos que tienes una manzana en la mano. Ahora la sueltas, observas el resultado y dices: ‘La manzana cae’. Eso es una descripción. Una predicción podría haber sido la afirmación: ‘caerá si abro la mano’. Ambas son valiosas y pueden ser correctas. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafácticas como ‘cualquier objeto de este tipo caería’, más la cláusula adicional ‘debido a la fuerza de la gravedad’ o ‘debido a la curvatura del espacio-tiempo’”.

De esta manera, añadieron que “eso es una explicación causal: ‘la manzana no habría caído de no ser por la fuerza de la gravedad’ (...) eso es pensar”.

 

 

Y pese a que las personas también podemos cometer errores en cuanto a nuestro razonamiento, enfatizaron en que errar es parte del pensamiento, ya que “para tener razón, debe ser posible equivocarse”.

 

ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden ‘aprender’ (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible

 

ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden ‘aprender’ (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad”.

La perspectiva moral desde la Inteligencia Artificial

Otro factor que Chomsky, Roberts y Watumull consideraron en su análisis, es que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer.

 

 

Para ellos, es clave que los resultados de ChatGPT sean “aceptables para la mayoría de los usuarios” y que se mantengan “alejados de contenidos moralmente censurables” (como las declaraciones de “actos destructivos” del chatbot de Bing).

 

los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer

 

Y pese a que los desarrolladores de estas tecnologías han añadido restricciones para que sus programas no reproduzcan este tipo de afirmaciones, los académicos recalcaron que hasta el momento no se ha podido llegar a un balance efectivo. En sus palabras, sacrifican la creatividad por “una especie de amoralidad” que hace que se alejen aún más de las capacidades de los seres humanos.

En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual), o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias)”, sentenciaron.

 

*******

POR QUÉ NOAM CHOMSKY HA LLAMADO AL CHATBOT CHATGPT 'BÁSICAMENTE PLAGIO DE ALTA TECNOLOGÍA'

Desde su lanzamiento en noviembre de 2022, ChatGPT ha sido objeto de intensos debates. Numerosos informes sugieren que los estudiantes están utilizando el chatbot desarrollado por OpenAI para escribir sus tareas, trabajos académicos y ensayos.

Indian Express, 14 FEB 2023

Chomsky, el lingüista de renombre mundial, dijo que durante años, los profesores han utilizado varios programas para detectar el plagio, pero a medida que ChatGPT se generalice, "va a ser más difícil, porque es más fácil plagiar". (Foto a la izquierda vía Andrew Rusk/Wikicommons, a la derecha vía REUTERS/Florence Lo).

*******

EL AVANCE DE LA DESINFORMACIÓN Y LA INTELIGENCIA ARTIFICIAL AMENAZAN LA LIBERTAD DE PRENSA EN TODO EL MUNDO

En su informe anual, Reporteros Sin Fronteras advierte del deterioro de la situación en numerosos países y del uso de "campañas de manipulación inéditas"

El Mundo, 03 MAYO 2023
 
Joe Biden, frente a un cartel con el rostro del periodista detenido en Rusia, Evan Gershkovich.SAUL LOEBAFP
 

El avance de las campañas de desinformación, una auténtica "industria del simulacro" que a veces no permite distinguir lo verdadero de lo falso, es una de los mayores amenazas para la libertad de prensa actualmente, según advierte Reporteros sin Fronteras (RSF) en su informe anual de 2023 sobre la situación de sector y que se ha difundido este miércoles. Estas herramientas de manipulación ejercidas por parte de los gobiernos afectan a 118 países de los 180 analizados por esta organización, que tiene sede en París.

Una situación que se ha agravado con la guerra de Ucraniapero también con el desarrollo de la Inteligencia Artificial, capaz de generar imágenes tan fieles a la realidad que es difícil para el usuario distinguir si son falsas o no.

Estas son las conclusiones del informe de 2023, que analiza la situación de la prensa en 180 países. Un total de 118 reconocen la implicación de actores políticos en las campañas de desinformación masiva o de propaganda, de manera regular o sistemática. "Esta volatilidad e inestabilidad es el efecto de una agresividad del poder en numerosos países contra los periodistas no sólo en el mundo físico, también en las redes sociales. También es producto del crecimiento de la industria del simulacro, que distribuye la desinformación y da herramientas para fabricarla", señala el secretario general de RSF, Christophe Deloire, en el informe.

La inteligencia artificial es otra de las amenazas para la prensa, y "ha sacudido el frágil mundo de los medios, pues la diferencia entre lo verdadero y lo falso, lo real y lo artificial, los hechos y los artefactos se difumina, poniendo en peligro el derecho a la información", señala el informe.

El análisis es bastante crítico al respecto y recalca que se utilizan "herramientas de manipulación inéditas para debilitar a los que ejercen el periodismo de calidad, al mismo tiempo que debilitan al periodismo mismo".

La industria de la desinformación "difunde produccciones manipuladoras a gran escala" y la Inteligencia Artificial "digiere contenidos informativos para dar lugar a síntesis que ignoran el rigor y la fiabilidad". RSF hace referencia a Midjourney, la plataforma que genera imágenes por IA y que ha permitido que se publiquen situaciones falsas como la detención de Donald Trump o la del Papa Francisco paseando con un abrigo blanco.

 

Redes Sociales, "arenas movedizas" para el periodismo

En su análisis, RSF cita a Elon Musk, el dueño de Twitter, que "ha impuesto una lógica extrema, arbitraria y de censura" en esta red social, demostrando "que estas plataformas son arenas movedizas para el periodismo".

La guerra en Ucrania, donde Rusia ha puesto en marcha en poco tiempo "un arsenal mediático", es el mejor ejemplo del avance de estas campañas de desinformación. De los 180 países analizados, Rusia ocupa la plaza 164 en libertad de prensa, cae nueve puestos, y en Ucrania (puesto 79) ejercer el periodismo "nunca ha sido tan difícil", señala la organización.

Según RSF, la situación de la libertad de prensa es muy grave en una treintena de países, difícil en 42 y problemática en 55. Sólo en medio centenar la situación es buena o muy buena, la mayoría de estos países están en Europa. España desciende cuatro posiciones, pasando del 32 al puesto 36 este año, y está por debajo de Namibia, Moldavia, Costa Rica, Portugal, Lituania o Taiwán, entre otros muchos países.

RSF hace especial mención a Latinoamérica, donde el nivel de asesinatos de periodistas y reporteros está al nivel del de los países en guerra. También destaca que China es "la mayor cárcel de periodistas del mundo" y una de las mayores maquinarias de propaganda. Destaca en positivo Brasil, que adelanta posiciones en esta lista gracias al cambio de Gobierno, al haber dejado atrás el del ultraderechista Jair Bolsonaro.

Algunos países nórdicos lideran la lista, como Noruega (primero de la lista), Suecia, (cuarto) y Finlandia (quinto), mientras que Irlanda ocupa el segundo lugar. Dentro de Europa, el informe advierte de la situación de Alemania, que pierde cinco plazas en un "año récord de actos violentos y detenciones a periodistas".

 

 
*******
 
 

STEVE WOZNIAK ARREMETE CONTRA ELON MUSK: “COMPRA UN TESLA SI QUIERES VER CÓMO LA IA PUEDE MATARTE”

El cofundador de Apple ha vuelto a criticar los vehículos de Tesla afirmando que la mejor forma de saber si la IA puede matar, es comprando uno.
 
 
 

Steve Wozniak, cofundador de Apple, no ha dejado en buen lugar a Tesla y Elon Musk en su última entrevista concedida a la CNN (vía Electreck). El ingeniero ha cargado duramente contra la compañía de movilidad eléctrica, y más concretamente, contra el Autopilot, afirmando que si alguien quiere aprender sobre cómo la IA puede matar a personas, debería comprarse un Tesla.

Si quieres que un estudio de IA salga mal y tome muchas afirmaciones y trate de matarte cada vez que pueda, consigue un Tesla”, ha detallado Wozniak en la entrevista después de que le preguntaran sobre la conducción autónoma de los mencionados vehículos.

El cofundador de Apple ha destacado que antes creía en la posibilidad de que los coches de Tesla recibieran capacidades de conducción autónoma mediante una actualización de software. Ha recordado, además, la promesa que le hizo Elon Musk al convencerle de comprar un Model S. “Se conduciría solo por todo el país a fines de 2016”, le dijo. Wozniak asegura, sin embargo, que esto ni siquiera está cerca de la realidad.

No es la primera vez que Wozniak carga contra Tesla y la conducción autónoma de sus vehículos. Hace un año, el ingeniero contó en otra entrevista su mala experiencia utilizando el Autopilot de su Model S a causa de los frenados fantasmas, que hacen que el coche reduzca considerablemente la velocidad en cualquier vía. Algo que, por supuesto, puede provocar un accidente si por ejemplo sucede en una autopista muy transitada.

El Autopilot de Tesla, involucrado en varios accidentes mortales

En cualquier caso, las declaraciones más recientes de Wozniak parecen estar basadas en los diferentes reportes de accidentes mortales en los que el Autopilot ha estado involucrado. Uno de ellos, y probablemente el más conocido, es la colisión que terminó con la vida de un ingeniero de Apple en 2018, pero hay decenas de accidentes similares. De hecho, Tesla confirmó hace unos meses que el Departamento de Justicia estaba investigando las posibles muertes a causa del piloto automático.

Curiosamente, tanto Xozniak como Elon Musk comparten prácticamente las mismas preocupaciones sobre los peligros de la inteligencia artificial. Ambos directivos firmaron una carta abierta en la que solicitaban parar el desarrollo de nuevos modelos de lenguaje para evitar que IAs similares a GPT-4 tengan “efectos catastróficos para la sociedad”.

 

*******

RELACIONADOS:

¿Es la conciencia más como el ajedrez o el clima?, por Brian Gallagher

LOS AUTÓMATAS Y EL MIEDO A LO DESCONOCIDO. LA VIDA EVOLUCIONA … ¿DEL CARBONO AL SILICIO?: RUIDO: Implantando el Miedo a la «Inteligencia Artificial»

INTELIGENCIA ARTIFICIAL: «Yo, robot», o las tribulaciones de un robot kantiano.

LAS TRES LEYES DE LA ROBÓTICA: «El círculo vicioso» (Runaround,1942), por Isaac Asimov

«CONTRA AQUELLOS QUE NOS GOBIERNAN» (León Tolstoi). Narcisismo y Política: Del Antiguo Régimen al Siglo XXI.

«SEGREGACIONISTA», por Isaac Asimov

ROBOTS, AUTOMATIZACIÓN Y TRABAJO ASALARIADO, por Duval («Crónica de clase») – PARTE 1 de 2

Internet, Robótica, Inteligencia Artificial (IA): documental Completo de WERNER HERZOG

 

 

 


Sé el primero en comentar

Deja tu opinión

Tu dirección de correo no será publicada.


*