/ martes 4 de junio de 2024

Trabajadores de empresas de IA alertan de opacidad ante falta de reglamento internacional

Los empleados advierten que OpenAI, Google DeepMind y Anthropic, solo tienen vagas obligaciones de compartir información con los gobiernos, pero no rinden cuentas con la sociedad civil

Un grupo de empleados y extrabajadores de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron este martes la opacidad de las compañías sobre los posibles riesgos de la vanguardista tecnología al aprovecharse de la falta de un reglamento internacional.

"Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil", anota el documento.

La carta, que fue firmada por 11 trabajadores y extrabajadores de la empresa creadora de ChatGPT y dos de Google DeepMind, uno de los cuales antes trabajó para Anthropic, resalta que los posibles riesgos de esta tecnología van "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Los expertos, algunos de los cuales firmaron desde el anonimato, dicen tener "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los legisladores y el público".

"Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", recalcan.

Actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil

Piden protección para los denunciantes

La falta de regularización y los estrictos contratos de confidencialidad entre las empresas y sus empleados complican posibles denuncias a estas compañías de vanguardia, según indican en el documento.

En tanto, los expertos piden que las empresas se "comprometan" a no llegar a acuerdos que prohíban "la crítica a la compañía por preocupaciones relacionadas con el riesgo"; igualmente, piden que se establezca un procedimiento de carácter anónimo en que empleados y extrabajadores pueda plantear "inquietudes relacionadas con riesgos al directorio de las empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante".

Han habido tímidos intentos de regulación

Por el momento, no existen regulaciones internacionales de la Inteligencia Artificial.

El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Europea, la primera del mundo que regula esta tecnología en el mundo, aunque no entrará en vigor hasta 2026.

➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

La ONU, por su parte, ha insistido ante los Estados miembros que es urgente consensuar una regulación y ha llegado a crear un 'consejo de sabios' con este fin, que hasta el momento no se ha traducido en ningún resultado concreto.

Un grupo de empleados y extrabajadores de empresas de inteligencia artificial (IA), como OpenAI, Google DeepMind y Anthropic, denunciaron este martes la opacidad de las compañías sobre los posibles riesgos de la vanguardista tecnología al aprovecharse de la falta de un reglamento internacional.

"Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil", anota el documento.

La carta, que fue firmada por 11 trabajadores y extrabajadores de la empresa creadora de ChatGPT y dos de Google DeepMind, uno de los cuales antes trabajó para Anthropic, resalta que los posibles riesgos de esta tecnología van "desde un mayor afianzamiento de las desigualdades existentes, pasando por la manipulación y la desinformación, hasta la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana".

Los expertos, algunos de los cuales firmaron desde el anonimato, dicen tener "la esperanza de que estos riesgos puedan mitigarse adecuadamente con la orientación suficiente de la comunidad científica, los legisladores y el público".

"Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobernanza corporativa sean suficientes para cambiar esto", recalcan.

Actualmente solo tienen vagas obligaciones de compartir parte de esta información con los Gobiernos, y ninguna con la sociedad civil

Piden protección para los denunciantes

La falta de regularización y los estrictos contratos de confidencialidad entre las empresas y sus empleados complican posibles denuncias a estas compañías de vanguardia, según indican en el documento.

En tanto, los expertos piden que las empresas se "comprometan" a no llegar a acuerdos que prohíban "la crítica a la compañía por preocupaciones relacionadas con el riesgo"; igualmente, piden que se establezca un procedimiento de carácter anónimo en que empleados y extrabajadores pueda plantear "inquietudes relacionadas con riesgos al directorio de las empresa, a los reguladores y a una organización independiente apropiada con experiencia relevante".

Han habido tímidos intentos de regulación

Por el momento, no existen regulaciones internacionales de la Inteligencia Artificial.

El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Europea, la primera del mundo que regula esta tecnología en el mundo, aunque no entrará en vigor hasta 2026.

➡️ Únete al canal de El Sol de México en WhatsApp para no perderte la información más importante

La ONU, por su parte, ha insistido ante los Estados miembros que es urgente consensuar una regulación y ha llegado a crear un 'consejo de sabios' con este fin, que hasta el momento no se ha traducido en ningún resultado concreto.

Local

Temas administrativos retrasan desarrollo de obra pública en Salamanca

Son tres rehabilitaciones de vialidades detenidas hasta el momento

Local

Incrementaran rondines de seguridad en el Conalep Salmanca, tras intento de secuestro

En materia de seguridad, el Ejército Mexicano ha incrementado los rondines en la zona, brindando tranquilidad a la comunidad educativa

Local

¿Vendrá Claudia Sheinbaum a Salamanca? Plantea Alcalde propuestas sobre RIAMA

La RIAMA extrae 600 litros de agua por segundo que son empleados en sus diferentes procesos

Local

Proceso para designar nuevo fiscal en Guanajuato inicia en enero de 2025

Nuevo fiscal en Guanajuato: Proceso inicia el 1 de enero de 2025