El pasado 1º de junio de 2023, la Subsecretaría de Tecnología de la Información de la Gobierno de Ministerio de Ministros de la Nación Argentina ha emitido una disposición con el fin de establecer recomendaciones y principios éticos para el avance y aplicación de la Inteligencia Químico (IA).
Dicen en la disposición que se ha observado un crecimiento significativo en el avance y la implementación de proyectos basados en Inteligencia Químico. En este contexto, la UNESCO emitió la Recomendación sobre la Ética de la Inteligencia Químico, a la cual Argentina se adhirió pegado con otros países.
La Subsecretaría de Tecnología de la Información de Argentina participó en el primer Foro General sobre la Ética de la Inteligencia Químico, con el objetivo de estabilizar la inclusión en el mundo de la IA y promover entornos regulatorios éticos, centrados en las personas, con perspectiva de artículos y de derechos humanos.
En este sentido, se ha publicado una itinerario con recomendaciones para la aplicación de IA en Argentina. Las soluciones basadas en IA permiten niveles más altos de automatización y sistemas descentralizados y predictivos para la toma de decisiones, lo que podría contribuir a mejorar el diseño, implementación y evaluación de políticas.
Sin requisa, es necesario establecer reglas claras que garanticen el conveniencia de los beneficios de cualquier avance tecnológico por todos los sectores de la sociedad. Esto asimismo fortalecerá las capacidades de innovación, avance y producción de soluciones tecnológicas en el ecosistema sabio y tecnológico argentino.
Encima, se destaca en la disposición la importancia de utilizar estas capacidades en el entorno de una táctica más amplia que priorice la soberanía tecnológica y permita tocar los problemas sociales, productivos y medioambientales del país.
Expectativas de la aplicación de las recomendaciones
En el ciclo de vida de la IA, se deben tomar medidas para asegurar la aplicabilidad del maniquí, lo que significa que se debe poder entender cómo funciona y por qué toma ciertas decisiones. Para conseguir esto, es importante utilizar datos transparentes y explicar cómo se han utilizado para entrenar el maniquí.
Además se pueden utilizar técnicas como la visualización de datos y la interpretación de modelos para ayudar a comprender cómo funciona el maniquí. Encima, es valioso documentar todo el proceso de avance del maniquí y hacerlo accesible a todas las partes interesadas.
La disposición indica que es relevante tomar medidas para evitar sesgos en los datos utilizados para entrenar un maniquí de IA. Algunas medidas que se pueden tomar incluyen:
1. Utilizar datos representativos: Es crucial comprobar de que los datos utilizados para entrenar el maniquí sean representativos de la población a la que se aplicará el maniquí.
2. Identificar y eliminar sesgos: Se deben identificar y eliminar los sesgos existentes en los datos antiguamente de utilizarlos para entrenar el maniquí.
3. Compulsar la calidad de los datos: Se deben probar la calidad de los datos y comprobar de que sean precisos, completos y relevantes.
4. Utilizar múltiples fuentes de datos: Es recomendable utilizar múltiples fuentes de datos para disminuir el peligro de sesgos.
5. Realizar pruebas rigurosas: Se deben realizar pruebas rigurosas del maniquí para identificar cualquier sesgo que pueda deber sido introducido durante el proceso de entrenamiento.
6. Monitorear continuamente el maniquí: Es importante monitorear continuamente el maniquí posteriormente del despliegue para detectar cualquier sesgo que pueda surgir con el tiempo.
Se destaca asimismo que la trazabilidad y la auditoría son considerables en el ciclo de vida de la IA porque permiten asegurar la transparencia y la responsabilidad en el uso de los sistemas de IA.
La trazabilidad se refiere a la capacidad de rastrear el origen y el historial de los datos utilizados para entrenar un maniquí, así como las decisiones tomadas por el maniquí. La auditoría, por otro costado, se refiere a la revisión sistemática del proceso de avance del maniquí y su desempeño posterior.
La trazabilidad y la auditoría son valiosas porque permiten identificar posibles sesgos o errores en el maniquí, lo que puede ayudar a mejorar su precisión y confiabilidad. Encima, pueden ayudar a asegurar que se cumplan los requisitos legales y éticos relacionados con el uso de sistemas de IA.
Plano de acogida de IA – Fuente: Disposición 2/2023
De igual guisa, se incluye de guisa gráfica un esquema de los aspectos que están en las recomendaciones, para que los desarrolladores tomen en consideración la guisa en la que la Subsecretaría considera que debe usar a agarradera la implementación de la IA de acuerdo a las recomendaciones sobre la Ética de la Inteligencia Químico que emitió la UNESCO.
Para que una inteligencia químico sea fiable, consideran que debe contar con un equipo humano diverso en perspectivas, conocimientos y experiencias variadas en diferentes áreas, lo que puede ayudar a conseguir una comprensión más profunda de los usuarios y sus contextos y, por lo tanto, tocar los desafíos de la IA desde diferentes puntos de clarividencia. Esto puede conducir a soluciones más completas y creativas, más intuitivas y adaptadas a las deposición reales de las personas.
El eje central del documento es proporcionar principios y recomendaciones para implementar proyectos de inteligencia químico de guisa ética y responsable. El documento aborda diferentes aspectos del ciclo de vida de la IA, desde la planificación hasta la evaluación, y ofrece orientación sobre cómo tocar los desafíos éticos y sociales que surgen en cada etapa.
En este sentido, se pueden enumerar los siguientes principios a los que hace narración la disposición, a aprender: Los principios éticos que deben indicar el avance y la implementación de la inteligencia químico. La importancia de conformar un equipo humano diverso y multidisciplinario antiguamente de comenzar con el ciclo de la IA.
Hace narración asimismo a la penuria de considerar los aspectos éticos en el diseño y modelado de los datos. La importancia de documentar adecuadamente los incidentes que ocurren durante el ciclo de vida de la IA.
Se recomienda utilizar técnicas como el disección premortem para identificar posibles problemas y riesgos antiguamente de que ocurran. Así mismo se recomienda la penuria de evaluar regularmente los sistemas de IA para asegurar su fiabilidad, transparencia y responsabilidad.
Consideran que estos principios son fundamentales para asegurar que la inteligencia químico se desarrolle y se utilice en beneficio del admisiblemente global, respetando los derechos fundamentales, los títulos democráticos y las normas éticas.
En medio del esforzado auge de la inteligencia químico, en la disposición se aclara que: “la inteligencia químico nada más lleva a agarradera una ejecución sin intención propia y de guisa reactiva a una solicitud humana, quien ha decidido programarla, entrenarla e implementarla con un destino de uso específico con el fin de que ejecute distintas acciones”.
Además resalta la disposición que, antiguamente de iniciar el ciclo de vida de la IA, o lo que se conoce como el avance de este tipo de tecnología, resulta pertinente tomar en consideración si es excluyente el uso de la IA para resolver el problema que se ha planteado el equipo desarrollador.
Esclarecimiento: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de clarividencia o la límite editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antiguamente de tomar una valor de inversión.
Te puede interesar:
Las inversiones en criptoactivos no están reguladas. Es posible que no sean apropiados para inversores minoristas y que se pierda el monto total invertido. Los servicios o productos ofrecidos no están dirigidos ni son accesibles a inversores en España.