martes, junio 25

OpenAI dice que ha comenzado a entrenar un nuevo modelo emblemático de IA

OpenAI anunció el martes que ha comenzado a entrenar un nuevo modelo emblemático de inteligencia artificial que sucedería a la tecnología GPT-4 que impulsa su popular chatbot en línea, ChatGPT.

La startup de San Francisco, una de las principales empresas de inteligencia artificial del mundo, dijo en una publicación de blog que espera que el nuevo modelo aporte “el siguiente nivel de capacidades” mientras se esfuerza por construir “inteligencia general artificial” o AGI. , una máquina capaz de hacer todo lo que puede hacer el cerebro humano. El nuevo modelo sería una potencia para productos de inteligencia artificial, incluidos chatbots, asistentes digitales similares a Siri de Apple, motores de búsqueda y generadores de imágenes.

OpenAI también dijo que estaba creando un nuevo comité de seguridad para explorar cómo debería gestionar los riesgos planteados por el nuevo modelo y las tecnologías futuras.

“Si bien estamos orgullosos de construir y lanzar modelos que son líderes en la industria en capacidades y seguridad, damos la bienvenida a un debate sólido en este momento importante”, dijo la compañía.

OpenAI vise à faire progresser la technologie de l’IA plus rapidement que ses concurrents, tout en apaisant les critiques qui affirment que la technologie devient de plus en plus dangereuse, contribuant à propager la désinformation, à remplacer des emplois et même à menacer l’ humanidad. Los expertos no están de acuerdo sobre cuándo las empresas de tecnología lograrán la inteligencia artificial general, pero empresas como OpenAI, Google, Meta y Microsoft han estado aumentando constantemente el poder de las tecnologías de IA durante más de una década, mostrando un salto notable cada dos o tres años aproximadamente.

GPT-4 de OpenAI, lanzado en marzo de 2023, permite a los chatbots y otras aplicaciones de software responder preguntas, escribir correos electrónicos, generar ensayos y analizar datos. Una versión actualizada de la tecnología, presentada este mes y que aún no está ampliamente disponible, también puede generar imágenes y responder a preguntas y órdenes con una voz muy conversacional.

Días después de que OpenAI mostrara la versión actualizada, llamada GPT-4o, la actriz Scarlett Johansson dijo que usaba una voz que sonaba “inquietantemente parecida a la mía”. Dijo que rechazó los esfuerzos del director ejecutivo de OpenAI, Sam Altman, de obtener la licencia de su voz para el producto, contrató a un abogado y le pidió a OpenAI que dejara de usar la voz. La compañía dijo que la voz no era la de Johansson.

Tecnologías como GPT-4o adquieren sus habilidades analizando grandes cantidades de datos digitales, incluidos sonidos, fotografías, vídeos, artículos de Wikipedia, libros y noticias. El New York Times demandó a OpenAI y Microsoft en diciembre, alegando infracción de derechos de autor sobre contenido de noticias relacionado con sistemas de inteligencia artificial.

“Entrenar” digitalmente modelos de IA puede llevar meses o incluso años. Una vez finalizada la formación, las empresas de IA suelen dedicar varios meses adicionales a probar la tecnología y perfeccionarla para uso público.

Esto podría significar que el próximo modelo de OpenAI no llegará hasta dentro de nueve meses, o incluso un año, o más.

A medida que OpenAI forme su nuevo modelo, su nuevo comité de seguridad trabajará para perfeccionar las políticas y procesos para proteger la tecnología, dijo la compañía. El comité incluye al Sr. Altman, así como a los miembros de la junta directiva de OpenAI, Bret Taylor, Adam D’Angelo y Nicole Seligman. La compañía dijo que las nuevas políticas podrían implementarse a fines del verano o en el otoño.

A principios de este mes, OpenAI anunció que Ilya Sutskever, cofundador y uno de los líderes de sus esfuerzos de seguridad, dejaría la empresa. Esto generó preocupaciones de que OpenAI no estaba lidiando lo suficiente con los peligros que plantea la IA.

El Dr. Sutskever se había unido a otros tres miembros de la junta en noviembre para destituir al Sr. Altman de OpenAI, diciendo que ya no se podía confiar en el plan de la compañía para crear inteligencia artificial general para el beneficio de la humanidad. Después de una campaña de lobby por parte de los aliados de Altman, fue reintegrado cinco días después y desde entonces ha reafirmado su control sobre la empresa.

El Dr. Sutskever dirigió lo que OpenAI llamó su equipo de Superalineación, que exploró formas de garantizar que los futuros modelos de IA no causaran daño. Al igual que otros en el campo, le preocupaba cada vez más que la IA representara una amenaza para la humanidad.

Jan Leike, que dirigió el equipo de Superalignment con el Dr. Sutskever, renunció a la empresa este mes, dejando en duda el futuro del equipo.

OpenAI ha integrado su investigación de seguridad a largo plazo en sus esfuerzos más amplios para garantizar la seguridad de sus tecnologías. Este trabajo estará dirigido por John Schulman, otro cofundador, que anteriormente dirigió el equipo que creó ChatGPT. El nuevo comité de seguridad supervisará la investigación del Dr. Schulman y brindará asesoramiento sobre cómo la empresa gestionará los riesgos tecnológicos.