
Image by Lorenzo Herrera, from Unsplash
Bailando con la IA: Estudiantes del MIT Experimentan con Inteligencia Interactiva
Las estudiantes del curso de Inteligencia Interactiva del MIT (4.043/4.044) presentaron una serie de proyectos en la 38ª conferencia anual de Sistemas de Procesamiento de Información Neural (NeurIPS) en diciembre de 2024, explorando nuevas formas en las que la IA puede modelar la creatividad, la educación y la interacción humana.
¿Con Prisa? ¡Aquí están los Datos Rápidos!
- Be the Beat genera música a partir de movimientos de baile utilizando IA y PoseNet.
- A Mystery for You enseña a verificar hechos a través de un juego basado en cartuchos y potenciado por IA.
- Memorscope crea recuerdos compartidos generados por IA a partir de interacciones cara a cara.
La conferencia, una de las más reconocidas en investigación de inteligencia artificial y aprendizaje automático, reunió a más de 16,000 asistentes en Vancouver, según se informó en el comunicado de prensa del MIT.
Bajo la supervisión del profesor Marcelo Coelho del Departamento de Arquitectura del MIT, los estudiantes desarrollaron proyectos interactivos impulsados por la IA que examinan el papel en constante evolución de la IA en experiencias cotidianas.
Uno de los proyectos, Be the Beat, desarrollado por Ethan Chang y Zhixing Chen, integra la IA en la danza generando música que se adapta a los movimientos de un bailarín.
Utilizando PoseNet para analizar el movimiento y un modelo de lenguaje para interpretar el estilo y el tempo, el sistema cambia la relación entre la danza y la música, permitiendo que el movimiento dé forma al sonido en lugar de al revés. Los participantes lo describieron como un enfoque alternativo para coreografiar y descubrir nuevos estilos de danza.
View this post on Instagram
Keunwook Kim examina la memoria y la interacción humana a través de la IA en su Memorscope. El dispositivo permite a dos personas mirarse a través de los extremos opuestos de una estructura en forma de tubo, con la IA generando una memoria colectiva basada en su perspectiva compartida.
Incorporando modelos de OpenAI y Midjourney, el sistema produce interpretaciones en evolución de estas interacciones, redefiniendo cómo se registran y experimentan las memorias.
Narratron, de Xiying (Aria) Bao y Yubo Zhao, introduce la inteligencia artificial en la narración tradicional a través de un proyector interactivo. El sistema interpreta las sombras de las manos como personajes y genera una narrativa en tiempo real, combinando elementos visuales y auditivos para involucrar a los usuarios en una forma de teatro de sombras asistida por IA.
Perfect Syntax de Karyn Nakamura explora el papel de la IA en la edición de video y el análisis de movimiento. El proyecto utiliza el aprendizaje automático para manipular y reconstruir fragmentos de video, cuestionando cómo la tecnología interpreta el movimiento y el tiempo.
Al examinar la relación entre los procesos computacionales y la percepción humana, la obra reflexiona sobre las formas en que la IA remodela los medios visuales.
Juntos, estos proyectos examinan el potencial de la IA más allá de la automatización, enfocándose en su papel en la configuración de la expresión artística, el pensamiento crítico y las experiencias compartidas.
Dejar un comentario
Cancelar