El gobierno del Reino Unido publicó recomendaciones para la industria de la inteligencia artificial el miércoles, describiendo un enfoque integral para regular la tecnología en un momento en que ha alcanzado niveles frenéticos de exageración.
En un libro blanco, el Departamento de Ciencia, Innovación y Tecnología (DSIT) describe cinco principios que quiere que sigan las empresas. Ellos son: seguridad, seguridad y fortaleza. transparencia y claridad; equidad, rendición de cuentas y gobernanza; y hacer frente y hacer frente.
Noticias de inversión relacionadas
En lugar de establecer nuevas regulaciones, el gobierno está pidiendo a los reguladores que implementen las regulaciones existentes e informen a las empresas sobre sus obligaciones en virtud del libro blanco.
Ha encomendado al Ejecutivo de Salud y Seguridad, la Comisión de Igualdad y Derechos Humanos y la Autoridad de Mercados y Competencia que presenten “enfoques adaptados y específicos del contexto sobre cómo se utiliza la IA en sus sectores”.
“Durante los próximos doce meses, los reguladores emitirán una guía práctica para las organizaciones, así como otras herramientas y recursos, como plantillas de evaluación de riesgos, para determinar cómo implementar estos principios en sus sectores”, dijo el gobierno.
“Cuando el tiempo parlamentario lo permita, se puede introducir legislación para garantizar que los reguladores consideren los principios de manera consistente”.
La llegada de recomendaciones es oportuna. Desarrollado por ChatGPT, el popular chatbot de IA. microsoftLa empresa respaldada OpenAI ha provocado una ola de demanda de la tecnología, y la gente está utilizando la herramienta para todo, desde escribir ensayos escolares hasta redactar opiniones legales.
ChatGPT ya se ha convertido en una de las aplicaciones de consumo de más rápido crecimiento de todos los tiempos, atrayendo a 100 millones de usuarios activos mensuales a partir de febrero. Pero los expertos han expresado su preocupación por los efectos negativos de la tecnología, incluido el potencial de piratería y discriminación contra las mujeres y las minorías étnicas.
Los especialistas en ética de la IA se preocupan por los sesgos en los datos utilizados para entrenar los modelos de IA. Los algoritmos han mostrado una tendencia a inclinarse a favor de los hombres, especialmente los hombres blancos, en desventaja frente a las mujeres y las minorías.
También se han planteado temores sobre la posibilidad de pérdidas de puestos de trabajo debido a la automatización. el martes, Goldman Sachs advirtió que 300 millones de puestos de trabajo podrían estar en riesgo de perderse debido a los productos de IA.
El gobierno quiere que las empresas que incorporen IA en sus negocios se aseguren de brindar suficiente transparencia sobre cómo se desarrollan y utilizan sus algoritmos. El DSIT dijo que las organizaciones deberían poder “comunicar cuándo y cómo se usa y definir los procesos de toma de decisiones del sistema en un nivel apropiado para abordar los riesgos que plantea el uso de la IA”.
DSIT dijo que las empresas también deberían ofrecer a los usuarios una forma de impugnar las decisiones tomadas por herramientas basadas en IA. como plataformas generadas por usuarios FacebookTikTok y YouTube a menudo usan sistemas automatizados para eliminar contenido marcado en contra de sus pautas.
La IA, que se cree que contribuye con 3700 millones de libras esterlinas (4600 millones de dólares) a la economía del Reino Unido cada año, también debe “utilizarse de manera coherente con las leyes vigentes del Reino Unido, por ejemplo, la Ley de Igualdad de 2010 o el RGPD del Reino Unido, y no debe Discriminar a las personas o crear consecuencias comerciales desleales”, agregó el DSIT.
El lunes, la secretaria de Estado Michelle Donlon visitó las oficinas de la startup de IA DeepMind en Londres, dijo un portavoz del gobierno.
“La inteligencia artificial ya no es materia de ciencia ficción, y el ritmo de desarrollo de la IA es asombroso, por lo que necesitamos reglas para garantizar que se pueda usar de manera segura”, dijo Donnellan en un comunicado el miércoles.
“Nuestro nuevo enfoque se basa en principios sólidos para que las personas puedan confiar en las empresas para lanzar la tecnología del mañana”.
Laila Ibrahim, directora de operaciones de DeepMind y miembro del Consejo de IA del Reino Unido, dijo que la IA es una “tecnología de transformación”, pero que “solo puede alcanzar su máximo potencial si se confía en ella, lo que requiere asociaciones público-privadas”. tomar iniciativas responsables”.
“El enfoque basado en el contexto propuesto por el Reino Unido ayudará a que la regulación siga el ritmo de los desarrollos de IA, apoye la innovación y mitigue los riesgos futuros”, dijo Ibrahim.
Esto se produce después de que otros países crearan sus propios gobiernos para regular la IA. En China, el gobierno ha exigido a las empresas de tecnología que proporcionen detalles sobre sus algoritmos de recomendación de valor, mientras que la Unión Europea ha propuesto sus propias regulaciones para la industria.
No todo el mundo está convencido del enfoque del gobierno del Reino Unido para regular la IA. John Byers, jefe de inteligencia artificial en el bufete de abogados Osborne Clarke, dijo que la medida para delegar la supervisión de la tecnología entre los reguladores corre el riesgo de crear un “complejo mosaico regulatorio lleno de agujeros”.
“El peligro con el enfoque actual es que un sistema de IA problemático tendría que presentarse en la forma correcta para activar la jurisdicción del regulador y, además, el regulador en cuestión para tomar medidas decisivas y efectivas necesitará tener los poderes de ejecución adecuados. Para crear un efecto disuasorio suficiente para abordar el daño causado y fomentar el cumplimiento en la industria”, dijeron los compradores a CNBC por correo electrónico.
Por el contrario, la UE ha propuesto un “marco regulatorio de arriba hacia abajo” cuando se trata de IA.
Mirar: Tres décadas después de inventar la web, Tim Berners-Lee tiene algunas ideas sobre cómo solucionarlo.