ESTADOS UNIDOS, San Francisco, 13 de Mayo de 2024 (GPA). OpenAI presentó desde la sede de la empresa en San Francisco, su último modelo de lenguaje de gran inteligencia artificial llamado GPT-4o, superior al anterior modelo GPT-4 de la empresa norteamericana.
La tecnología y las funciones actualizadas llegarán a ChatGPT en los próximos meses. Lo mejor del anuncio es que, GPT-4o estará disponible para clientes sin suscripción de paga, liberando a todos el acceso a la tecnología más avanzada de OpenAI a través de ChatGPT.
Sin embargo, los usuarios sin suscripción pagada de ChatGPT dispondrán de un número limitado de interacciones con el nuevo modelo GPT-4o antes de que la herramienta vuelva automáticamente a depender del antiguo modelo GPT-3.5; los usuarios de pago tendrán acceso a un mayor número de mensajes con el último modelo.
GPT-4o convierte ChatGPT en un asistente personal digital capaz de entablar conversaciones habladas en tiempo real. También podrá interactuar mediante texto y “visión”, lo que significa que podrá ver capturas de pantalla, fotos, documentos o gráficos subidos por los usuarios y mantener una conversación sobre ellos.
La directora de Tecnología de OpenAI, Mira Murati, revela que esta versión actualizada de ChatGPT tendrá capacidad de almacenar conversaciones en memoria, es decir, podrá aprender de conversaciones anteriores con los usuarios y realizar traducciones en tiempo real.
“Es la primera vez que damos un gran paso adelante en lo que respecta a la facilidad de uso”, aseveró Murati en la demostración de su nuevo modelo de lenguaje. “Esta interacción se vuelve mucho más natural y mucho, mucho más fácil” acotó según consigna CNN.
En la demostración de este lunes, los ejecutivos de OpenAI presentaron una conversación hablada con ChatGPT para obtener instrucciones en tiempo real para resolver un problema de matemáticas, contar un cuento antes de dormir y obtener consejos de codificación.
El nuevo modelo de ChatGPT fue capaz de hablar con una voz natural y humana, así como con una voz robótica, e incluso cantó parte de una respuesta. La herramienta también era capaz de mirar la imagen de un gráfico y discutir sobre él.
También mostraron que el modelo detectaba las emociones de los usuarios; en un caso, escuchó la respiración de un ejecutivo y le animó a calmarse.
“¡No eres una aspiradora!”, le dijo bromeando al empleado la voz femenina de ChatGPT (que suena notablemente similar a la compañera digital con voz de Scarlett Johansson de la película “Her”, de 2013).
Cuando el dolor y la inteligencia artificial se cruzan: estas personas se “comunican” con los muertos
ChatGPT también era capaz de mantener una conversación en varios idiomas traduciendo y respondiendo automáticamente. La herramienta admite ahora más de 50 idiomas, según OpenAI.
“El nuevo modo de voz (y video) es la mejor interfaz computacional que he utilizado”, dijo Sam Altman, CEO de OpenAI, en una entrada de blog tras el anuncio. “Parece la IA de las películas; y todavía me sorprende un poco que sea real. Llegar a tiempos de respuesta y expresividad de nivel humano resulta ser un gran cambio”.
Murati señaló que OpenAI lanzará una aplicación de escritorio ChatGPT con las capacidades de GPT-4o, lo que ofrecerá a los usuarios otra plataforma para interactuar con la tecnología de la empresa. GPT-4o también estará disponible para los desarrolladores que deseen crear sus propios chatbots personalizados desde la tienda GPT de OpenAI, una función que ahora también estará disponible para los usuarios sin suscripción.
Estos cambios se producen en un momento en el que la integración de la IA en productos de consumo más utilizados por Google y Meta, como Instagram y Google Assistant, puede hacer que la tecnología de esas empresas sea más amplia y fácilmente accesible.
Copyright© 2024 GPA/rc
Global Press Agency
www.globalpress-Agency.com
GPA, Global Press Agency. HACEMOS NOTICIAS: Cada Instante. En todo el Mundo.
Comentarios recientes