2022/05/03 06:00

Actualizado 3/5/2022 8:46 a. m.

En un esfuerzo por impulsar la revolución del Metaverso, Meta (anteriormente Facebook) ha centrado parte de sus esfuerzos (y capital) en desarrollar sistemas de Inteligencia Artificial para construir su comunidad virtual. En los últimos meses, la compañía ha puesto en marcha varias iniciativas que muestran este camino. Más recientemente, el desarrollo de un modelo de lenguaje que imita la forma en que el cerebro humano procesa las palabras. ¿Meta? Anticipar pensamientos y oraciones de una declaración o concepto más allá de la primera palabra.

Descifrando el cerebro humano 

Descifrando el cerebro humano 

Meta AI está trabajando en una investigación a largo plazo para comprender mejor cómo el cerebro humano interpreta el lenguaje. La investigación se llevará a cabo en colaboración con NeuroSpin, el instituto de neuroimagen, e Inria, el Instituto Nacional de Investigación de Francia. En un comunicado, la compañía dijo que quería utilizar los resultados de este estudio para «centrarse en el desarrollo de inteligencia artificial que procesa palabras y textos con la misma eficacia que las personas».

La inteligencia artificial ha logrado avances impresionantes en los últimos años, pero todavía no puede aprender idiomas con la misma eficacia que los humanos ni predecirlos al mismo ritmo que el cerebro. Un ejemplo: los niños aprenden que «naranja» puede referirse a una fruta y un color a partir de algunos ejemplos, pero los sistemas modernos de inteligencia artificial no pueden distinguir un concepto de otro con la misma eficacia.

Además, los modelos de IA no pueden predecir automáticamente más allá de la primera palabra de una oración. Mientras que el cerebro predice palabras e ideas con mayor eficacia, la mayoría de los modelos de lenguaje están entrenados para predecir solo la siguiente palabra. Según Meta, desbloquear esta capacidad de predecir a largo plazo puede ayudar a mejorar los modelos de lenguaje de IA modernos.

A leer  Cursos de lenguages

Según Meta AI, la compañía ha desarrollado un sistema de inteligencia artificial en los últimos dos años para procesar conjuntos de datos de información de ondas cerebrales para determinar cómo el cerebro procesa la información. Durante el estudio, se tomaron imágenes de la actividad cerebral mientras los voluntarios leían o escuchaban una historia utilizando escáneres de resonancia magnética funcional y magnetoencefalografía.

Esto ha llevado a los investigadores a descubrir que el procesamiento del lenguaje en el cerebro humano se asemeja a jerarquías ordenadas, comparables al funcionamiento de los modelos de lenguaje de IA. Los resultados revelaron que ciertas áreas del cerebro, como las cortezas prefrontal y parietal, representaban mejor los patrones del lenguaje con predicciones de palabras lejanas.

Predecir mucho más allá de la siguiente palabra

Predecir mucho más allá de la siguiente palabra

Predecir mucho más allá de la siguiente palabra

Uno de los objetivos de Meta-research es predecir más allá de la siguiente palabra, como ya lo hacen algunas herramientas como Gmail. Un ejemplo: cuando escuchamos la palabra «una vez», no pensamos inmediatamente en «una vez» e imaginamos las miles de posibilidades que pueden seguir la historia. Sin embargo, la mayoría de los modelos de lenguaje actuales solo predecirían «una vez» porque aún no tienen la capacidad de predecir ideas, argumentos y narrativas complejas, como lo hacen las personas.

Los modelos de IA no pueden predecir automáticamente más allá de la primera palabra de una oración.

Meta tiene como objetivo llevar a cabo sus planes con un decodificador extremo para el cerebro humano, lo que implicaría construir una red neuronal capaz de convertir datos de ondas cerebrales sin procesar en palabras o imágenes.

A leer  Qué pasó en la vida de la cantante que interpretó a Xena: la mujer guerrera

Meta parece estar siguiendo los pasos de Meta OpenAI, una empresa que se especializa en desarrollar los modelos de inteligencia artificial de Elon Musk. La empresa desarrolló un software capaz de crear dibujos a partir de una descripción. El primer prototipo Dalle-2 se lanzó en 2021 y creó imágenes nuevas, más realistas y precisas con una resolución cuatro veces mayor.