El equipo que se encargaba de estudiar los riesgos de la IA en OpenAI ha sido disuelto
En la actualidad, hablar de inteligencia artificial es hablar, irremediablemente, de OpenAI. La empresa que ha popularizado plataformas como ChatGPT o DALL-E lleva años asegurando que busca la mejor manera de integrar innovación y seguridad en el desarrollo de la IA, pero a juzgar por noticias como la que te contaremos a continuación, esto no parece ser del todo cierto.
La empresa estadounidense presentaba en julio de 2023 en su página web a su equipo Superalignment, que, en palabras textuales, se postulaba con el objetivo de ‘resolver retos técnicos centrales en la alineación de la superinteligencia en cuatro años’. Es decir, traducido al castellano que todos entendemos, que buscaba asegurar que sus sistemas de IA fuesen coherentes con los objetivos del ser humano y con nuestros valores éticos… Continua llegint
