🏛️

Menciones institucionales de Seguridad en IA

💡
Este desafío es una adaptación de la idea de Caroline Jeanmaire en AI Safety Ideas (AISI).
🛠️
Este desafío no requiere ninguna experiencia técnica concreta, pero puede ser útil ser familiar con algunas técnicas de ciencia de datos (como scraping o análisis de contenidos).
Dado que muchas de las preocupaciones levantadas por el campo de Seguridad en IA son relativamente recientes, es difícil entender si estás se han transmitido o no a distintas instituciones alrededor del mundo. Este desafío consistente en recopilar menciones a Seguridad en la Inteligencia Artificial y sus riesgos asociados (especialmente catastróficos) en documentos oficiales de distintos países u organismos internacionales.
Este desafío puede ser enfrentado de distintas formas. Es posible escoger objetivos definidos (por ejemplo, el sistema de naciones unidas) y realizar búsquedas manuales, o también puede ser útil explorarlo desde una perspectiva de data science (por ejemplo, aplicando scraping y filtrado, y luego usando técnicas de análisis de contenido para encontrar menciones relevantes).
Existe una dificultad al distinguir entre menciones generales de Inteligencia Artificial, aquellas que se enfocan en problemas actuales de sistemas de IA (como sesgos o diversidad durante entrenamiento) y aquellos que tratan de Seguridad en IA como tal (que se enfocan en los riesgos futuros que pueden suponer estos sistemas).
Cómo punto de partida, se puede tomar el AI Act de la Unión Europea, que quizás corresponde al intento institucional más ambicioso de regular el desarrollo de la Inteligencia Artificial hasta el momento, incorporando menciones explícitas a preocupaciones de seguridad en IA.
Se espera que trabajar en esto tenga como impacto:
  1. Directo: Ayudar a personas trabajando en política y gobernanza de inteligencia artificial a entender mejor como distintos problemas de seguridad son tomados en cuentas en distintas partes del mundo.
  1. Indirecto: Ayudar a los participantes a entender el entorno de políticas y gobernanza en IA y entender cómo se suele frasear estas preocupaciones. Esto puede ser útil para personas que quieran trabajar en esta subdisciplina de la Seguridad en IA en el futuro.

Instrucciones

  1. Discute. Analiza distintas formas en las que podrías acercarte a este problema. Si escoges un objetivo específico, investiga cómo y dónde se producen documentos de políticas públicas. Si decides hacerlo a mayor escala, puedes basarte en trabajos previos en análisis de contenidos o investigaciones sobre documentos de políticas públicas.
  1. Escribe. Escribe tu mejor idea. Tu redacción debe incluir un resumen de 500 palabras con:
      • Una descripción breve de tu proyecto.
      • Una descripción de cómo la idea planteada contribuye (o podría contribuir) a entender las menciones sobre Seguridad en Inteligencia Artificial en documentos de políticas públicas.
      • Una descripción de las limitaciones del proyecto, además de los supuestos en los que se basa.
      Además del abstracto o resumen, puedes enviar un PDF con un escrito más extenso, un trabajo de investigación, código, matemáticas, gráficos, etc. sin límite de palabras. Si bien no es para nada necesario, recomendamos escribir en inglés.
  1. Envía tu propuesta. Sube tu proyecto en la plataforma de la Thinkathon.