#AI Risk Repository – Análisis de los riesgos que plantea la IA

Un grupo de investigadores del Instituto Tecnológico de Massachusetts (MIT) ha realizado un análisis de los riesgos que plantea la IA con un objetivo claro “Para gestionar estos riesgos potenciales, primero tenemos que saber cuáles son”.

El Repositorio de riesgos de IA ofrece:

  • Una descripción general accesible del panorama de riesgos de IA.
  • Una fuente de información actualizada periódicamente sobre nuevos riesgos e investigaciones.
  • Un marco de referencia común para investigadores, desarrolladores, empresas, evaluadores, auditores, formuladores de políticas y reguladores.
  • Un recurso para ayudar a desarrollar investigaciones, planes de estudio, auditorías y políticas.
  • Una forma sencilla de encontrar riesgos e investigaciones relevantes.

Consta de tres partes:

  1. La Base de Datos de Riesgos de IA con la información de origen (título del artículo, autores), evidencia de respaldo (citas, números de página) y relacionadas con las taxonomías causales y de dominio. Es abierta y se puede descargar desde Google Sheets o OneDrive
  2. La Taxonomía Causal de Riesgos de IA que clasifica cómo, cuándo y por qué ocurren estos riesgos. Esta taxonomía utiliza la entidad, la intención y el tiempo para clasificar los riesgos en la base de datos de riesgos de IA.
  3. La variable Entidad captura qué entidad, si la hay, se presenta como la causa principal del riesgo. Incluye tres niveles: IA, Humano y Otros.
  4. La variable Intención captura si el riesgo se presenta como un resultado esperado o inesperado de la consecución de un objetivo.
  5. La variable de Tiempo captura la etapa del ciclo de vida de la IA en la que se presenta el riesgo como algo que ocurre.
  6. La Taxonomía de Dominios de Riesgos de IA que clasifica estos riesgos en siete dominios y 23 subdominios.

Las taxonomías causales y de dominio se pueden utilizar por separado para filtrar la base de datos e identificar riesgos específicos y para comprender cómo se relaciona cada factor causal (es decir, entidad, intención y momento) con cada dominio de riesgo.

También incluye un recopilatorio de estudios realizados.

Los participantes en el proyecto escriben que el repositorio “es, hasta donde sabemos, el primer intento de recopilar, analizar y extraer rigurosamente marcos de riesgo de la IA en una base de datos de riesgos accesible al público, exhaustiva, ampliable y categorizada. Esto sienta las bases para un enfoque más coordinado, coherente y completo de la definición, auditoría y gestión de los riesgos que plantean los sistemas de IA”.

Al ser un repositorio abierto, está abierto a recibir nuevos comentarios y sugerir riesgos que echemos de menos.