Singapur ha lanzado un modelo para la guía de gobernanza de la inteligencia artificial (IA) con el fin de ayudar a las empresas a implementar la IA de forma responsable.
Se anunció el modelo en la Reunión Anual del Foro Económico Mundial en Davos la semana pasada.
El Marco de gobernanza de IA modelo para IA agente proporciona orientación a las organizaciones sobre cómo implementar agentes de manera responsable, recomendando medidas técnicas y no técnicas para mitigar los riesgos y enfatizando al mismo tiempo que los humanos son, en última instancia, responsables.
Según la IMDA, iniciativas como el MGF para la IA Agentic apoyan el desarrollo, la implementación y el uso responsables de la IA, para que todos puedan disfrutar de sus beneficios de forma fiable y segura. Esto se ajusta al enfoque práctico y equilibrado de Singapur para la gobernanza de la IA, que establece límites y, al mismo tiempo, ofrece espacio para la innovación.
A diferencia de la IA tradicional y generativa, los agentes de IA afirman ser capaces de razonar y actuar para completar tareas en nombre de los usuarios. Esto permite a las organizaciones automatizar tareas repetitivas, como las relacionadas con la atención al cliente y la productividad empresarial, e impulsar la transformación sectorial al liberar tiempo de los empleados para realizar actividades de mayor valor.
IMDA afirma que el MGF para IA Agentic ofrece una visión general estructurada de los riesgos de la IA Agentic y las mejores prácticas emergentes para su gestión. Está dirigido a organizaciones que buscan implementar IA Agentic, ya sea mediante el desarrollo interno de agentes de IA o el uso de soluciones Agentic de terceros.
Al desarrollar el marco, IMDA incorporó los comentarios de las agencias del sector gubernamental y de las organizaciones del sector privado.
El marco establece bases fundamentales para la seguridad de los agentes de IA. Por ejemplo, ayuda a las organizaciones a definir los límites de los agentes, identificar riesgos e implementar medidas de mitigación, como las barreras de seguridad agénticas.
- Evaluar y limitar los riesgos por adelantado seleccionando casos de uso apropiados de los agentes y poniendo límites a los poderes de los agentes, como su autonomía y el acceso a herramientas y datos.
- Hacer que los humanos sean significativamente responsables de los agentes al definir puntos de control significativos en los que se requiere la aprobación humana
- Implementar controles y procesos técnicos durante todo el ciclo de vida del agente, como pruebas de referencia y control de acceso a servicios incluidos en la lista blanca.
- Facilitar la responsabilidad del usuario final mediante la transparencia y la educación/capacitación.