La carrera por el desarrollo de la inteligencia artificial continúa haciéndose cada vez más competitiva, con Meta, OpenAI, Google y Mistral lanzando nuevas versiones de sus respectivos modelos con solo horas de diferencia.
La primera compañía en anunciar su nuevo lanzamiento fue Meta. Su vicepresidente para asuntos globales, Nick Clegg, confirmó en un evento en Londres que la tercera versión del modelo de IA Llama estará disponible en unas pocas semanas.
Horas más tarde, Google informó la salida al mercado de Gemini Pro 1.5, su modelo de lenguaje más avanzado, que admitirá hasta 50 solicitudes gratuitas por día y será capaz de procesar imágenes, videos y audios.
Algunos minutos después, OpenAI sacó a la luz su versión final de GPT-4 Turbo, el cual, al igual que Gemini Pro 1.5, tendrá la capacidad de analizar imágenes, aunque no aceptará audios ni videos.
Posteriormente, durante la mañana del lunes, la startup francesa Mistral, fundada por exintegrantes del equipo de IA de Meta, lanzó su nuevo modelo Mixtral 8x22B. No obstante, a diferencia de todos los anteriores, Mixtral puede ser accedido a través de un enlace de descarga a un archivo de 281 GB.
Cabe destacar que Mistral ha defendido desde sus inicios su enfoque de código abierto, lo que implica la publicación de sus sistemas de inteligencia artificial de forma gratuita para que cualquier usuario pueda descargarlos y desarrollarlos.
Esta postura ha sido criticada por diversos analistas que la juzgan como peligrosa, ya que impide que los desarrolladores intervengan para evitar que estos sistemas sean utilizados para actos ilegales, o en caso de que se detecten vulnerabilidades o sesgos. Empero, Mistral ha argumentado que el enfoque de código abierto hace que los sistemas obtengan mejores resultados y previene que un pequeño número de empresas monopolicen el manejo de la IA.
Sin embargo, a pesar de todos estos avances, existen expertos como Yann LeCun, uno de los principales científicos informáticos de Meta, que han puesto en duda la eficacia de los actuales modelos de inteligencia artificial.
“Tenemos sistemas que pueden aprobar fácilmente un examen académico, pero no son capaces de limpiar una mesa o llenar un lavavajillas”, explica LeCun. “Estos sistemas manipulan el lenguaje y nos engañan haciéndonos creer que son inteligentes, pero la realidad es que no tienen la capacidad de comprender el mundo”, añade.
En este sentido, el informático de 63 años sugiere empezar a desarrollar inteligencias artificiales impulsadas por objetivos, con capacidades para razonar y planificar acciones en el mundo real en lugar de solo manipular palabras.