Thinkaton Inteligencia Artificial
💡

Thinkaton Inteligencia Artificial

⏱️
El resumen:
  • 🙌 Participa el 25 y 26 de febrero resolviendo problemas asociados a la seguridad de la Inteligencia Artificial.
  • 👩‍💻 No es necesario saber programar. Algunos desafíos involucran economía, psicología o filosofía.
  • 🍕 Si participas presencialmente, habrá comida y mentores.
  • 🌎 También puedes participar virtualmente (por Discord).
  • 🏆 Participa por $600.000 pesos en premios.
📝
Las inscripciones están cerradas.
🌐
Esta Thinkaton es una colaboración entre el CAAE, el CAi y Altruismo Eficaz UC.

¿Qué es una Thinkaton?

Una Thinkaton es un evento para resolver un problema de forma colaborativa e intensivamente, usando diversas habilidades y herramientas. El objetivo es diseñar una solución innovadora y viable a uno de los problemas entregados.

🏆 Premios

  • 🥇 Primer lugar: 300.000 pesos
  • 🥈 Segundo lugar: 200.000 pesos
  • 🥉 Un premio aleatorio (como incentivo a participar): 100.000 pesos

Modalidad

El concurso ocurrirá entre el sábado 25 y domingo 26 de febrero, de 09:00 a 20:00. Puedes participar online u presencialmente (ubicación por anunciar) con equipos de 1-4 personas. Puedes escoger tu propio equipo o bien solicitar que se te asigne uno al inscribirte.
🙌
¡Te recomendamos fuertemente participar presencialmente! Tendremos la presencia de mentores y comida 🤝
Al final de los dos días, cada grupo debe entregar un abstract de 500 palabras que responda a uno de los desafíos propuestos (preferentemente, pero no necesariamente, en inglés). Además, si el grupo escoge uno de los problemas que califican, pueden seguir participando en el concurso global de AI Alignment Awards, que les permite competir por hasta $100,000 dólares en premios.

¿Quiénes pueden participar?

Puede participar cualquier persona. El único requisito es que todo equipo debe tener por lo menos a un estudiante UC, y que cada participante debe tener menos de 30 años.
Si bien puede ser útil saber sobre machine learning o matemáticas, las personas con formación no relacionada al área STEM, como filosofía, economía, psicología, ciencia política y antropología, también pueden realizar aportes significativos a varios de los problemas.
Por los recursos entregados, también creemos que es importante leer en inglés.

¿Necesito saber programar?

No es necesario saber programar. Invitamos a cualquier persona a participar independiente de su nivel de conocimiento de sistemas de Inteligencia Artificial (IA). Hay desafíos diseñados para no necesitar ningún nivel de experiencia técnica.

Problemas

Debes escoger uno de los siguientes problemas para abordar.
Problemas que califican a los AI Alignment Awards:
🪆
Goal Misgeneralization Problem
🔌
Shutdown Problem
Problemas que no califican a los AI Alignment Awards:
🏭
Escalabilidad de la cadena de suministros de cómputo
🏛️
Menciones institucionales de Seguridad en IA
💡
Honestidad en modelos de lenguaje
🤝
Investigaciones sociales sobre seguridad en IA
También puedes proponer una idea contenida en AI Safety Ideas (AISI), que lista distintos problemas abiertos propuestos por investigadores en inteligencia artificial.

Jueces

Cada una de las propuestas serán evaluadas por dos jueces con experiencia en el campo de Seguridad en IA:
Pablo Villalobos (de España) Staff Researcher en Epoch LinkedIn
Luca de Leo (de Argentina) Investigador independiente Prize Developer en Nonlinear LinkedIn

Sobre los AI Alignment Awards

AI Alignment Awards es un concurso internacional de investigación en temas relacionados a la seguridad de la inteligencia artificial. Parte de la gracia de esta Thinkaton es que dos de los problemas presentados (Goal Misgeneralization y Shutdown Problem) califican también a participar en este concurso, así que las propuestas enfocadas en esos problemas pueden ser usadas para postular (en inglés) a los Alignment Awards. Todas las propuestas para este concurso deben ser entregadas hasta el 1.º de marzo.
Algunos detalles sobre cómo funciona:
Premios y Jueces:
  • Cada uno de los problemas tendrá premios de hasta $100.000 (dólares).
  • Hay una piscina total de $250.000 USD en premios.
  • Los jueces le darán un puntaje a cada propuesta. Las entregas sobre un cierto umbral recibirán premios entre $1.000 USD y $100.000 USD.
  • Richard Ngo (OpenAI) y Lauro Langosco serán los jueces para las mejores propuestas en el concurso para el problema de goal misgeneralization, mientras que Nate Soares y John Wentworth serán los jueces para el concurso sobre el stopping problem.

Preguntas frecuentes

¿Qué información debo incluir en mi propuesta?
Cada propuesta debe o proponer una nueva solución, definir el problema más concretamente, identificar nuevos ejemplos o implicaciones de los problemas, o construir en soluciones existentes de formas significativas.
La propuesta debe incluir un abstract o resumen de 500 palabras explicando la idea, cómo es relevante al problema escogido y cuáles son sus limitaciones. Opcionalmente, también puedes incluir un paper de apoyo, resultados de experimentación, código, matemática, imágenes o una explicación conceptual sobre tu idea.
¿Cómo se evaluarán los proyectos?
Dado que varios de los problemas son hipotéticos o abstractos en naturaleza, es difícil evaluar algunas clases de propuestas, pero el foco estará puesto en la utilidad que las propuestas pueden tener en avanzar los problemas indicados. Asimismo, para que los premios sean transparentes, se harán públicas todas las propuestas finales, y se darán a conocer los ganadores.
¿Puedo trabajar con otras personas?
Sí, puedes formar equipos de hasta cuatro personas, y el único requisito es que al menos uno sea un estudiante de la UC. Para los equipos ganadores, los premios se dividirán en partes iguales entre los compañeros de equipo.
¿Puedo presentar varias propuestas?
Sí, los proyectos se evaluarán de forma independiente, así que un grupo o persona puede enviar varias propuestas. El premio de participación aleatorio, sin embargo, solo se entrega por equipo (que haya hecho una entrega válida), no por propuesta.
¿Debo prepararme?
No, aunque si intentas cualquiera de los dos problemas que califican a los Alignment Awards, recomendamos leer los recursos recomendados para cada uno de antemano, aunque esto no es estrictamente necesario. La razón de esto es que estos problemas son díficiles de entender sin mucho contexto adicional, y el material puede ser un poco denso.
¿Por qué preocuparse por riesgos de sistemas de IA más avanzados de los que ya existen?
El campo de la Seguridad en IA es un campo fuertemente especulativo, ya que parte del enfoque está puesto en pensar sobre sistemas de inteligencia artificial más avanzados que los que hoy existen. Si bien creemos que los problemas de los modelos actuales son importantes, nos centramos en estos sistemas futuros porque creemos que es probable que estos tengan consecuencias muy importantes, incluso para toda la humanidad. Puedes leer más sobre el contexto aquí.
 
 
 
 
📬
Si tienes preguntas, puedes enviarnos un correo a thinkaton@altruismoeficaz.cl.