A medida que los modelos de IA sigan avanzando, sabemos que necesitaremos abordar preguntas de investigación nuevas y abiertas, cerrar brechas de medición y diseñar nuevas prácticas, patrones y herramientas.
Este momento transformador para la IA exige una perspectiva más amplia sobre los impactos de la tecnología (tanto positivos como negativos) y un diálogo mucho más amplio entre las partes interesadas. Necesitamos mantener conversaciones amplias y profundas y comprometernos a adoptar medidas conjuntas para definir las barreras de seguridad para el futuro.
Tres objetivos clave para una IA responsable:
Garantizar que la IA se construya y utilice de manera responsable y ética: las regulaciones efectivas sobre IA deberían centrarse en las aplicaciones de mayor riesgo, centrarse en los resultados y ser duraderas frente a las tecnologías que avanzan rápidamente y las expectativas sociales cambiantes. Para difundir los beneficios de la IA lo más ampliamente posible, los enfoques regulatorios en todo el mundo deberán ser interoperables y adaptables, al igual que la propia IA.
Garantizar que la IA impulse la competitividad internacional y la seguridad nacional: las sociedades democráticas en general necesitarán líderes tecnológicos múltiples y fuertes para ayudar a avanzar en la IA, con un liderazgo de políticas públicas más amplio en temas que incluyen datos, infraestructura de supercomputación de IA y talento.
Garantizar que la IA sirva a la sociedad de manera amplia, no restringida: la IA debe servir a las personas y al planeta. La IA puede desempeñar un papel fundamental para ayudar a abordar la crisis climática, incluso analizando los resultados ambientales y promoviendo el desarrollo de tecnologías de energía limpia y al mismo tiempo acelerando la transición a la electricidad limpia.