Empleados de Google DeepMind, OpenAI y Anthropic se muestran escépticos ante la evolución de la AI

Yago Fernández
| 4 min read
OpenAI

El desarrollo de la inteligencia artificial a manos de organizaciones como OpenAI ha representado sin duda uno de los avances en cuanto a tecnología más notables de los últimos años. Pero como todo avance significativo en este ámbito, la IA no se libra de ciertas críticas y voces que se encargan de señalar los peligros o riesgos que pueden derivar de su uso.

Concretamente, tanto extrabajadores como empleados de precisamente empresas como OpenAI, Google DeepMind o Anthropic mostraron sus preocupaciones al respecto. Pues a través de una carta pública, indicaron que este tipo de compañías tienen bajo su poder información clave sobre las limitaciones y capacidades de sus sistemas. Pero también sobre el nivel de efectividad de las medidas de protección y el nivel de riesgo vinculado a diferentes tipos de daños.

La falta de supervisión en empresas de IA como OpenAI


Pese a lo indicado anteriormente, las compañías no tienen una fuerte obligación de compartir la información con la sociedad civil ni los gobiernos. Por lo que las preocupaciones en torno a la falta de transparencia también son importantes. Y eso es algo que también puede verse en la existencia de fuertes incentivos financieros. Utilizados por las empresas de inteligencia artificial con el propósito de evitar la supervisión efectiva.

Entre los firmantes de la carta están incluidos hasta 11 extrabajadores y empleados de OpenAI. Pero también dos de Google DeepMind, incluyendo un exempleado de Anthropic). En la declaración indican que las estructuras de gobernanza corporativa existentes hoy en día no alcanzan para poder garantizar un nivel de supervisión adecuado.

OpenAI

Debido a ello, sus preocupaciones radican en torno a que los posibles riesgos potenciales de la inteligencia artificial podrían presentarse de varias formas. Ya sea a través de la desinformación y la manipulación, la consolidación de las desigualdades actuales o incluso el hecho de perder el control de los sistemas autónomos de IA. Con riesgos para la supervivencia humana. Sin embargo, vemos como las ventajas y funciones de la inteligencia artificial incluso llegan al mercado cripto con el top criptomonedas IA a seguir de cerca este año.

Asimismo, un tema al que se hace referencia en esta carta es el de poder garantizar un mayor nivel de protección a los denunciantes de empresas como OpenAI o DeepMind. Empleados que pueden tener dificultades para reportar este tipo de problemas dada la ausencia de mecanismos de denuncia anónimos o contratos de confidencialidad. Impidiendo que puedan señalar sus preocupaciones a las organizaciones independientes y las autoridades reguladores sin temor a consecuencias.

La inteligencia artificial general y sus riesgos


Si hablamos de inteligencia artificial durante los últimos tiempos, no cabe duda de que tanto OpenAI como ChatGPT son nombres que a día de hoy resultan conocidos para prácticamente todo el mundo. OpenAI centró sus objetivos en crear una IA general que pueda realizar tareas humanas. Y en otros ámbitos, el top de las criptomonedas inteligencia artificial no para de aumentar en cuanto a número de proyectos emergentes.

Los ejemplos de uso vistos en ChatGPT de la mano de OpenAI fueron sorprendentes desde un inicio. Pero nuevamente, avances tan significativos tuvieron la contrapartida que no tardó en hacerse notar. Y es que tanto empresarios, como expertos e incluso políticos pidieron la cancelación de ciertos experimentos realizados con IA avanzada dados los riesgos que podrían tener para la humanidad.

Pese a que quizá OpenAI es actualmente el nombre más popular junto a ChatGPT, compañías como Anthropic o Google DeepMind también fueron capaces de desarrollar sistemas avanzados a marchas forzadas. De hecho, incluso el Parlamento Europeo se encargó de aprobar una ley de inteligencia artificial que se implementará a partir de 2026.

La toma de acción y la integración de la IA en la sociedad


La carta a la que hacemos referencia incluye la firma de exempleados y trabajadores de Google Deepmind, OpenAI o Anthropic. Esta misiva busca alentar a la acción tanto al público como a la comunidad científica y a los legisladores. Pues desde su punto de vista, es necesario un mayor nivel de implicación en la regulación y la supervisión de la inteligencia artificial.

Según sus creencias, un mayor nivel de compromiso en este aspecto podría reducir considerablemente los riesgos asociados a la IA. Por eso tratan de exigir que las empresas punteras de inteligencia artificial sean mucho más transparentes. Al mismo tiempo que deberían tener una supervisión más estricta.

OpenAI

Estas medidas de control, según ellos, también deberían aplicarse a los sistemas de IA que son capaces de generar contenido e imágenes y que están desarrollados por compañías como Microsoft u OpenAI. Pues mediante estas prácticas se puede contribuir fácilmente a la desinformación de la población.

A estas alturas parece inevitable que la integración de la IA en diferentes sectores de la sociedad continuará avanzando. Por eso, parece totalmente lógico que la tanto la transparencia como la supervisión de organizaciones como OpenAI debería ser mucho mayor en este sentido. Y para ello, proteger a aquellos que se atreven a alzar la voz también podría suponer un buen comienzo.

Con todo, esta denuncia en la que participan trabajadores de OpenAI, Anthropic o Google DeepMind indica el camino que se debe tomar. Una cara que busca asegurar el desarrollo de la inteligencia artificial como un beneficio para la sociedad, sin volverse definitivamente una causa de desigualdad y riesgo.

Leer más: