Inesperadamente, el gobierno australiano anunció una nueva consulta de ocho semanas para determinar qué tan estrictamente debería regular la industria de la IA.
Se ha atrevido una consulta rápida de ocho semanas por parte del gobierno australiano para determinar si se debe prohibir cualquier útil de IA de “parada peligro”.
En los últimos meses, asimismo se han introducido pasos en otras regiones, incluidos los Estados Unidos, la Unión Europea y China, para identificar y posiblemente acortar las preocupaciones relacionadas con el rápido incremento de la IA.
El 1 de junio se publicaron un documento de debate sobre “IA segura y responsable en Australia” y un documentación sobre IA generativa del Consejo Franquista de Ciencia y Tecnología, según el ministro de industria y ciencia, Ed Husic.
Los documentos son parte de una consulta que dura hasta el 26 de julio.
El gobierno está buscando información sobre cómo ayudar al “uso seguro y responsable de la IA” y debate si invertir estrategias voluntarias como marcos éticos, implementar una regulación específica o combinar los dos.
“¿Deberían prohibirse por completo las aplicaciones o tecnologías de IA de parada peligro?” es una pregunta planteada en la consulta. y qué estándares deben aplicarse para determinar qué herramientas de IA deben prohibirse.
El minucioso documento de discusión asimismo ofreció una matriz de peligro esbozada para los modelos de IA para comentarios. Clasificó las herramientas de IA generativa utilizadas para tareas como producir registros médicos de pacientes como de “peligro medio”, mientras que clasificó la IA en automóviles autónomos como de “parada peligro” solo para dar ejemplos.
El estudio destacó tanto los usos “perjudiciales” de la IA, como las herramientas de falsificación profunda, el uso en la producción de noticiero falsas y los casos en los que los bots de IA habían fomentado la autolesión, así como sus usos “positivos” en la medicina, la ingeniería y industrias legales.
El sesgo en los modelos de IA y las “alucinaciones” (información generada por IA que es errónea o incomprensible) asimismo se mencionaron como problemas.
Según el documento de discusión, la prohijamiento de IA es “relativamente descenso” en la nación ya que hay “bajos niveles de confianza pública”. Adicionalmente, mencionó las leyes de inteligencia sintético de otros países, así como la prohibición temporal de Italia en ChatGPT.
Australia tiene algunas capacidades favorables de IA en robótica y visión por computadora, pero su “capacidad fundamental central en [large language models] y áreas relacionadas es relativamente débil”, según un documentación del Consejo Franquista de Ciencia y Tecnología. Asimismo declaró:
“Australia se enfrenta a riesgos potenciales oportuno a la concentración de bienes de IA generativa en un pequeño número de grandes empresas tecnológicas multinacionales con una preponderancia de operaciones en los Estados Unidos”.
El documento continuó explorando la política internacional de IA, proporcionó ejemplos de modelos generativos de IA y predijo que estas tecnologías “probablemente afectarán todo, desde la banca y las finanzas hasta los servicios públicos, la educación y todo lo demás”.
La publicación En una consulta inesperada, Australia pregunta si la IA de “parada peligro” debería ser ilegalizada. apareció por primera vez en BTC Wires.