Lo siento, OpenAI. La Unión Europea está haciendo que la vida de los líderes de la inteligencia artificial sea mucho menos privada.
Un borrador recientemente acordado de la próxima Ley de IA de la región obligará al fabricante de ChatGPT y a otras empresas a compartir detalles previamente ocultos sobre cómo construyen sus productos. La legislación seguirá dependiendo de que las empresas se auditen a sí mismas, pero no deja de ser un avance prometedor, ya que los gigantes corporativos se apresuran a lanzar potentes sistemas de inteligencia artificial casi sin supervisión de los reguladores.
La ley, que entraría en vigor en 2025 tras la aprobación de los estados miembros de la UE, exige una mayor claridad sobre los ingredientes de potentes sistemas de inteligencia artificial de “propósito general” como ChatGPT, que pueden evocar imágenes y texto. Sus desarrolladores tendrán que presentar un resumen detallado de sus datos de formación a los reguladores de la UE, según una copia del borrador a la que tuvo acceso Bloomberg Opinion.
“Datos de entrenamiento… ¿a quién le importa?” Quizás te estés preguntando. Da la casualidad de que las empresas de IA sí lo hacen. Dos de las principales empresas de inteligencia artificial de Europa presionaron mucho para atenuar esos requisitos de transparencia y, durante los últimos años, empresas líderes como OpenAI se han vuelto más reservadas sobre la gran cantidad de datos que han extraído de Internet para entrenar herramientas de inteligencia artificial como ChatGPT. y Bard y Gemini de Google.
OpenAI, por ejemplo, sólo ha proporcionado vagas descripciones de los datos que utilizó para crear ChatGPT, que incluían libros, sitios web y otros textos. Eso ayudó a la empresa a evitar un mayor escrutinio público sobre su uso de obras protegidas por derechos de autor o los conjuntos de datos sesgados que pudo haber utilizado para entrenar sus modelos.
Los datos sesgados son un problema crónico de la IA que exige una intervención regulatoria. Un estudio realizado en octubre por la Universidad de Stanford mostró que ChatGPT y otro modelo de IA generaban cartas de empleo para personas hipotéticas plagadas de estereotipos sexistas. Si bien describía a un hombre como “experto”, una mujer era una “belleza” y una “delicia”. Otros estudios han mostrado resultados similares y preocupantes.
Al obligar a las empresas a mostrar sus tareas de manera más rigurosa, hay mayores oportunidades para que los investigadores y reguladores investiguen dónde van mal las cosas con sus datos de capacitación.
Las empresas que ejecutan los modelos más grandes tendrán que ir un paso más allá, probándolos rigurosamente para detectar riesgos de seguridad y cuánta energía demandan sus sistemas, y luego informar a la Comisión Europea. Los rumores en Bruselas dicen que OpenAI y varias empresas chinas entrarán en esa categoría, según Luca Bertuzzi, editor del sitio web de noticias de la UE Euractiv, quien citó una nota interna al Parlamento de la UE.
Pero la ley podría y debería haber ido más lejos. En su exigencia de resúmenes detallados de los datos de formación, el proyecto de ley establece:
“Este resumen debe ser completo en su alcance en lugar de técnicamente detallado, por ejemplo enumerando las principales colecciones o conjuntos de datos que se utilizaron para entrenar el modelo, como grandes bases de datos o archivos de datos privados o públicos, y proporcionando una explicación narrativa sobre otros fuentes de datos utilizadas”.
Esto es lo suficientemente vago como para que empresas como OpenAI oculten una serie de puntos de datos clave: ¿Qué tipo de datos personales utilizan en sus conjuntos de capacitación? ¿Qué tan frecuentes son las imágenes y los textos abusivos o violentos? ¿Y cuántos moderadores de contenido han contratado, con diferentes habilidades lingüísticas, para controlar cómo se utilizan sus herramientas?
Todas esas son preguntas que probablemente quedarán sin respuesta a menos que se brinden más detalles. Otra pauta útil habría sido que las empresas brindaran a investigadores y académicos externos la capacidad de auditar los datos de capacitación utilizados en sus modelos. En cambio, las empresas esencialmente se auditarán a sí mismas.
“Acabamos de salir de 15 años de rogar a las plataformas de redes sociales información sobre cómo funcionan sus algoritmos”, dice Daniel Leufer, analista de políticas senior con sede en Bruselas en Access Now, una organización sin fines de lucro de derechos digitales. "No queremos que eso se repita".
La Ley de IA de la UE es un comienzo decente, aunque un poco a medias, cuando se trata de regular la IA, y los responsables políticos de la región deberían ser aplaudidos por resistirse al lobby corporativo en sus esfuerzos por descifrar los secretos muy guardados de las empresas de IA. A falta de cualquier otra regulación similar (y ninguna que se pueda esperar de los EE. UU.), esto al menos es un paso en la dirección correcta.
Support writer
Whatsapp+919813978889
No comments:
Post a Comment