1000 veces más potente que BERT • Yoast


La comprensión del lenguaje natural ha sido un hueso duro de roer, pero gracias a la continua inversión de Google en IA, ha alcanzado un nivel completamente nuevo. En I / O 2021, Google presentó MUM – Multitask United Model. Según Google, este nuevo modelo de lenguaje es 1000 veces más potente que BERT, lanzado en 2019. MUM llegará a los productos de Google en el futuro.

¿Qué es MUM: Multitask United Model?

MAMÁ es un modelo de lenguaje construido en el mismo sistema transformador que BERT, que causó sensación en 2019. BERT es un poderoso modelo de lenguaje que demostró ser un gran avance en el lanzamiento. MUM, sin embargo, está subiendo la apuesta: según Google, se supone que es 1000 veces más potente que BERT.

Gran parte de ese poder proviene del hecho de que puede realizar múltiples tareas. No tiene que hacer una tarea tras otra, pero puede manejar varias tareas simultáneamente. Esto significa que puede leer texto, comprender el significado, formar un conocimiento profundo sobre el tema, usar video y audio para reforzarlo y enriquecerlo, obtener información de más de 75 idiomas y traducir esos hallazgos en contenido de varias capas que responda preguntas complejas. ¡De repente!

Una idea del poder de Google MUM

En I / O 2021, Prabhakar Raghavan de Google dio una idea de cómo funcionaría. Usó la consulta compleja “He caminado por el monte. Adams y ahora quiero caminar por el monte. Fuji el próximo otoño, ¿qué debería hacer diferente para prepararme? ” para demostrar lo que podía hacer MUM. En una sesión de búsqueda regular, tendría que buscar todos los aspectos diferentes usted mismo. Una vez que tenga todo, debe combinarlo para tener todas las respuestas a las preguntas.

Ahora, MUM combinaría conocimientos de muchas fuentes diferentes sobre muchos aspectos diferentes de la búsqueda, desde medir las montañas hasta sugerir un impermeable porque es la temporada de lluvias en el monte. Fuji para extraer información de fuentes japonesas. Después de todo, hay mucho más escrito sobre este tema específico en ese idioma.

En consultas complejas como esta, todo se reduce a combinar entidades, sentimientos e intención para descubrir qué significa algo. Las máquinas tienen dificultades para comprender el lenguaje humano, y los modelos de lenguaje como BERT y MUM están muy cerca de lograrlo.

MUM va un paso más allá al procesar el lenguaje y agregar videos e imágenes porque es multimodal. Eso hace posible generar un resultado rico que responde a la consulta presentando un contenido completamente nuevo. MUM incluso se incorporará a Google Lens, por lo que puede apuntar su cámara a sus botas de montaña y preguntar si son adecuadas para hacer esa caminata hasta el monte. ¡Fuji!

Por supuesto, el objetivo final de todo esto es ayudarlo a obtener más información con menos consultas de búsqueda, probablemente dentro de los límites de Google. Hemos visto un aumento constante en los resultados enriquecidos y las respuestas rápidas, que también se vuelven más visuales y más prominentes cada día. Muchos otros desarrollos, tanto dentro como fuera de la búsqueda, pintan la imagen de un Google que busca proporcionar la mayoría de las respuestas a sus preguntas.

Google se está moviendo silenciosamente, no, tacha eso, abiertamente a un motor de búsqueda totalmente impulsado por IA. Un motor de búsqueda ni siquiera es la palabra correcta aquí, ya que es más una máquina de presentación de conocimiento. Y no está ocurriendo dentro del vacío de esa famosa barra de búsqueda.

Cada vez más, Google abre la idea de la búsqueda para incluir información de muchas otras fuentes: micrófonos, cámaras, televisores, dispositivos portátiles, parlantes inteligentes, ¿qué tienes (compraron Fitbit, recuerdas?). Para servir a todos estos diferentes objetivos de una manera que tenga sentido en esas máquinas, la búsqueda y la presentación de búsqueda deben cambiar. Un micrófono en su rastreador de ejercicios debe escuchar y comprender su consulta, mientras que el asistente tiene que hacer algo con él y responder con algo útil.

La comprensión del idioma es clave. El desarrollo de modelos de lenguaje superpoderosos, eficientes y flexibles que puedan generar contenido para proporcionar esas respuestas de manera sucinta y natural se volverá esencial.

En I / O 2021, vimos otro ejemplo de esto: LaMDA.

LaMDA: modelo de lenguaje para aplicaciones de diálogo

Otro gran tema de inteligencia artificial en el discurso de apertura de I / O 2021 de Google fue LaMDA o modelo de lenguaje para aplicaciones de diálogo. Esta es una nueva tecnología para comunicarse con una IA, como un chatbot, de manera mucho más natural. Puede conversar de una manera más fluida que las IA anteriores, ya que a menudo siguen un camino simple de A a B. Los chatbots se confunden fácilmente cuando cambias de tema, por ejemplo.

LaMDA se propone solucionar este problema. El modelo puede adquirir una gran cantidad de conocimientos sobre un tema y entablar un diálogo bidireccional completamente formado, incluso cuando se aventura fuera del tema original. Google mostró una demostración de un modelo LaMDA entrenado en conocimiento sobre el planeta Plutón para discutir esto con uno de los investigadores. No es perfecto, pero da una buena idea del tipo de futuro que podemos esperar.

Es probable que surjan preguntas

Todos estos desarrollos plantean preguntas, por supuesto. Por ejemplo, si Google realmente puede leer, escuchar y ver contenido en todos los idiomas y volver a empaquetarlo en un nuevo formato, con contexto y contenido generado por la IA, ¿quién es el propietario de esto? ¿Y quién es responsable de lo que contienen esos resultados automatizados? ¿Es este otro clavo en el ataúd para los productores de contenido?

¿Y el sesgo en la IA? El sesgo y la ética son temas importantes en la IA, y si realmente estamos hablando de pasos hacia un futuro impulsado por la IA, debemos estar seguros de su neutralidad y confiabilidad. Por supuesto, Google menciona específicamente el sesgo de IA en su publicación y todavía está entrenando el modelo. Es bueno saberlo, pero me pregunto hasta dónde llega esto, y ¿quién vigila a los observadores?

Google pone a trabajar a MUM

Google está probando MUM en este momento y continuará haciéndolo hasta que se sienta seguro para agregarlo a los sistemas. No hay un plazo claro sobre cuándo será eso, pero no tomó tanto tiempo en el caso de BERT.

La introducción de MUM podría significar simplemente mejores resultados de búsqueda, pero también podría significar una nuevo tipo del resultado de la búsqueda. Uno improvisado de varias fuentes, reformado para ser algo completamente nuevo. Esto podría afectar su forma de pensar sobre el contenido. Puede que sea menos importante responder a las preguntas de la audiencia y resolver sus problemas, ya que es posible que el sistema ya lo haya hecho. En cambio, es mejor que continúe mejorando su producto y se concentre en crear una preferencia de marca. La gente necesita encontrar tu marca para recordarla más adelante. Piense en formas de destacar y encontrar formas de convertir ese tráfico en clientes de por vida.

Google apuesta claramente por un futuro impulsado por la inteligencia artificial y nos brinda formas aún inimaginables de encontrar y consumir contenido. Es un futuro en el que tenemos que hacer menos trabajo sucio y disfrutar más. Sí, todavía estamos en camino de un futuro como se imaginó en Wall-E, para bien o para mal.

Un análisis más inteligente en Yoast SEO Premium

Yoast SEO Premium tiene una análisis de contenido inteligente que te ayuda a llevar tu contenido al siguiente nivel.



Source link

Laura D´Cuero
0 comentarios

Dejar un comentario

¿Quieres unirte a la conversación?
Siéntete libre de contribuir!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *