Google retira Gemma AI de AI Studio y reitera su propósito exclusivo para desarrolladores en medio de preocupaciones sobre su precisión.
En Resumen Google retiró su modelo Gemma tras informes de alucinaciones al formular preguntas fácticas, y la compañía enfatizó que estaba destinado a fines de desarrollo e investigación.
Empresa de tecnología Google Anunció la retirada de su modelo de IA Gemma tras informes de respuestas inexactas a preguntas fácticas, aclarando que el modelo fue diseñado exclusivamente para uso de investigación y desarrolladores.
Según el comunicado de la empresa, Gemma ya no es accesible a través de AI Studio, aunque sigue estando disponible para desarrolladores mediante la API. La decisión se tomó debido a casos de usuarios sin conocimientos de desarrollo que utilizaban Gemma a través de AI Studio para solicitar información objetiva, función para la que no estaba diseñada.
Google explicó que Gemma nunca tuvo la intención de ser una herramienta orientada al consumidor, y que su eliminación se realizó para evitar mayores malentendidos sobre su propósito.
En su aclaración, Google enfatizó que la familia de modelos Gemma se desarrolló como herramientas de código abierto para apoyar a las comunidades de desarrolladores e investigadores, no para brindar asistencia técnica ni interacción con el consumidor. La compañía señaló que los modelos abiertos como Gemma tienen como objetivo fomentar la experimentación y la innovación, permitiendo a los usuarios explorar el rendimiento del modelo, identificar problemas y proporcionar valiosos comentarios.
Google destacó que Gemma ya ha contribuido a avances científicos, citando el ejemplo del modelo Gemma C2S-Scale 27B, que recientemente desempeñó un papel en la identificación de un nuevo enfoque para el desarrollo de terapias contra el cáncer.
La empresa reconoció desafíos más amplios a los que se enfrenta la industria de la IA, como las alucinaciones —cuando los modelos generan información falsa o engañosa— y la adulación —cuando producen respuestas agradables pero inexactas—.
Estos problemas son particularmente comunes entre los modelos abiertos más pequeños como Gema Google reafirmó su compromiso de reducir las alucinaciones y mejorar continuamente la fiabilidad y el rendimiento de sus sistemas de IA.
Google implementa una estrategia multicapa para frenar las alucinaciones de la IA.
La empresa emplea un enfoque multicapa para minimizar las alucinaciones en sus grandes modelos de lenguaje (LLM), combinando el análisis de datos, un entrenamiento riguroso y un diseño de modelo preciso, indicaciones estructuradas y reglas contextuales, así como mecanismos continuos de supervisión y retroalimentación humana. A pesar de estas medidas, la empresa reconoce que las alucinaciones no se pueden eliminar por completo.
La limitación fundamental radica en el funcionamiento de los modelos de aprendizaje automático (MLA). En lugar de poseer un conocimiento de la verdad, estos modelos funcionan prediciendo secuencias de palabras probables a partir de patrones identificados durante el entrenamiento. Cuando el modelo carece de suficiente información o se enfrenta a datos externos incompletos o poco fiables, puede generar respuestas que suenan creíbles pero que son objetivamente incorrectas.
Además, Google señala que la optimización del rendimiento de los modelos conlleva ciertas contrapartidas. Si bien aumentar la cautela y restringir los resultados puede ayudar a limitar las alucinaciones, a menudo se sacrifica la flexibilidad, la eficiencia y la utilidad en determinadas tareas. En consecuencia, persisten imprecisiones ocasionales, sobre todo en áreas emergentes, especializadas o poco representadas donde la cobertura de datos es limitada.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
Chainlink se asocia con SBI Digital Markets para soluciones de activos digitales
La asociación busca acelerar la adopción institucional mediante la habilitación de operaciones de activos tokenizados a través de múltiples blockchains con interoperabilidad segura.

BitMine adquiere Ether por valor de $70M para su tesorería según datos en cadena
BitMine refuerza su posición como líder en tesorería de Ethereum.

Dogecoin: he aquí por qué otra corrección de precios del 20% puede ser la siguiente
Google presenta el proyecto Suncatcher para explorar satélites de IA alimentados por energía solar para el aprendizaje automático basado en órbita.
En Resumen Google acaba de presentar el Proyecto Suncatcher, un ambicioso proyecto de investigación que explora el uso de satélites solares equipados con sus chips de IA para ejecutar cargas de trabajo de IA en órbita.

