Sin categoría

El Imperio Contraataca

Por qué la «amabilidad» de ChatGPT es un pasivo empresarial y cómo Google está recuperando el trono con Gemini

La fase de luna de miel con la IA Generativa ha terminado. Para el usuario intensivo que trabaja 12 horas al día, la capacidad de charlar es irrelevante; la precisión lo es todo. En la guerra por la fiabilidad empresarial, las alucinaciones son el enemigo, y Google ha desplegado su artillería pesada para erradicarlas.

Hace apenas dos años, la narrativa tecnológica parecía escrita: el gigante dormido, Google, había sido superado por su propia invención. Y yo era uno de los que lo decía, mis pruebas con Bard ahora Gemini eran muy tristes.

Los investigadores que crearon el Transformer (el algoritmo que lo cambio todo, este el paper) en Mountain View se marcharon para fundar la «alianza rebelde» (OpenAI, Anthropic, Cohere) y lanzaron productos que dejaron a Google en ridículo. ChatGPT se convirtió en el estándar, y Microsoft, moviéndose con una agilidad inusual y una arquitectura técnica brillante, integró esa tecnología en el corazón de Office bajo el nombre de Copilot.

Parecía el fin de una era. Pero en la tecnología, como en la guerra, subestimar a quien posee la mayor infraestructura del planeta es un error fatal.

Estamos presenciando el momento en que «El Imperio Contraataca»… termini que están utilizado muchos ingenieros de IA del sector (la idea no es mia).

Con Gemini 3 (y sus variantes Pro/Ultra 1.5), Google no solo ha igualado la contienda, sino que ha expuesto una verdad incómoda sobre sus competidores:

los modelos actuales de OpenAI y Microsoft son, a menudo, inadecuados para el trabajo de negocio y de ingeniería de datos de alto nivel.

El campo de batalla ya no es quién escribe el mejor poema, sino quién comete menos errores fatales.

El Coste Oculto de la Alucinación: Un Sabotaje Corporativo

Durante 2023, las «alucinaciones» de la IA (cuando el modelo inventa información con total confianza) se trataron como anécdotas curiosas. En 2025, para un usuario avanzado que depende de estos modelos para trabajar 12 horas diarias, la alucinación es un riesgo operativo inaceptable.

No hablamos de que la IA se equivoque en la capital de un país. Hablamos de un analista financiero pidiendo una conciliación contable y recibiendo un algoritmo que parece correcto, pero falla en la tercera iteración, invalidando horas de trabajo. Hablamos de un ingeniero pidiendo soporte técnico sobre un hardware específico (por ejemplo modelo de frigorífico industrial de última generación donde en teoría tiene todas las instrucciones y manuales subidos en PDF) y recibiendo instrucciones inventadas que podrían dañar el equipo, a pesar de haberle ordenado explícitamente cinco veces «no inventar».

En el entorno empresarial, una herramienta que requiere supervisión constante porque tiende a fabular no es una herramienta; es un becario caro y peligroso. La fiabilidad no es una característica más, es la característica esencial.

Y si no que se lo pregunte a Deloitte en Australia.

El Problema de ChatGPT: La Tiranía de la Amabilidad

¿Por qué un modelo tan avanzado como GPT-5.1 sigue fallando en tareas de rigor lógico, mucho más que el antiguo GPT-4o?  La respuesta está en su entrenamiento.

OpenAI optimizó sus modelos mediante RLHF (Aprendizaje por Refuerzo con Retroalimentación Humana) priorizando una métrica perversa: la satisfacción del usuario promedio. A la masa le gusta una IA que sea educada, conversacional y servicial. Vamos que nos hace la “pelota”.

El resultado es un modelo «sicofante» (adulador). ChatGPT está sesgado hacia darte una respuesta siempre, incluso cuando no la sabe. Prefiere inventar una solución plausible y pedir disculpas educadamente si le corriges, antes que admitir secamente su ignorancia. Para redactar un email de marketing, esto es aceptable. Para depurar código crítico o analizar datos financieros, este deseo de «complacer» es un lastre técnico. Se ha sacrificado la precisión en el altar de la fluidez conversacional.

Microsoft Copilot: El Desastre de la Burocracia Algorítmica

Si ChatGPT es el becario amable que se equivoca, Microsoft Copilot es ese mismo becario intentando trabajar con tres jefes intermedios vigilando cada palabra que escribe.

Copilot (la integración en Office/Windows) sufre de un problema de orquestación. El mensaje del usuario no llega limpio al modelo GPT-4. Antes, pasa por capas de filtros de seguridad corporativa, búsquedas internas en SharePoint (RAG mal calibrado) e instrucciones de sistema contradictorias.

El resultado para el power user es una experiencia frustrante, lenta y diluida. El modelo se vuelve vago, se niega a realizar tareas complejas por exceso de precaución y pierde el hilo en tareas largas porque su «atención» se dispersa entre tantas capas de middleware. Microsoft ha convertido un motor de Fórmula 1 en un autobús urbano: seguro, lento y exasperante para quien sabe conducir. Ya no hablemos de su modulo Graph que a veces lee los Excel y otras veces no. Y eso ocurre muy amenudo.

El Contraataque de Google: Fuerza Bruta, Datos Reales y Frialdad Técnica

Google entendió tarde que estaba perdiendo, pero su respuesta ha sido despertar toda su maquinaria. Al fusionar Google Brain y DeepMind bajo un mando único y darles acceso ilimitado a sus TPUs (chips propios), han creado en Gemini 3 una bestia de naturaleza distinta.

Gemini 3 está ganando al usuario profesional por tres razones de pura ingeniería:

  1. El fin de la amnesia (Ventanas de Contexto Masivas y Caché): Mientras ChatGPT se «cuelga» o empieza a olvidar instrucciones en conversaciones largas, Gemini opera con ventanas de contexto de 1 o 2 millones de tokens (eso son muchas páginas, 10 a 12 libros de novela promedio (de 300 páginas cada uno)
  2.  Para un profesional que trabaja todo el día, esto significa que puede cargar manuales técnicos enteros, bases de código completas o historiales contables de años, y el modelo mantiene la coherencia desde la primera hasta la última hora. No resume; recuerda.
  3. «Grounding» (Anclaje a la realidad): Google tiene algo que OpenAI no: el índice de búsqueda de Google. Cuando se le hace una pregunta técnica (el ejemplo el último manual de mantenimiento de un frigorifico industrial, o la normativa la actualización de la normativa de VERIFACTU), Gemini tiene una capacidad nativa muy superior para consultar documentación real en tiempo real y «anclar» su respuesta a esos datos, en lugar de confiar en su memoria difusa.
  4. La virtud de la sequedad: Quizás lo más importante para el usuario intensivo es el cambio de tono. Google parece estar entrenando a sus modelos de gama alta para ser menos «asistentes personales» y más «ingenieros senior». Gemini es a menudo más seco, más directo y menos propenso a disculparse.

LO MÁS IMPORTANTE:

No busca darte la razón; busca darte el dato o el código correcto.

Y eso es los que todos los profesionales de empresa queremos a todos los niveles.

Y para quien tiene prisa y necesita precisión, esa sequedad es la máxima forma de respeto profesional.

Conclusión: La bifurcación del mercado

La guerra de la IA está lejos de terminar, pero el mercado se está bifurcando. OpenAI y Microsoft parecen encaminados a dominar el mercado de consumo masivo, creando asistentes amables que nos ayuden a redactar y crear.

Pero el Imperio ha contraatacado reclamando el territorio de la ingeniería, la ciencia y el análisis de datos pesado. Para el profesional que necesita una herramienta fiable durante 12 horas al día, la capacidad de conversar es secundaria. Google ha vuelto a lo que mejor sabe hacer: organizar la información del mundo con una fuerza computacional aplastante, recordándonos que, en la IA empresarial, la precisión siempre vencerá a la simpatía.

¿Hay Solución?

Tanto a título particular como desde Innovision nuestros clientes son empresas. Muchas de ellas con Microsoft Copilot. Nos hemos visto en la obligación de desarrollar un conjunto de técnicas para evitar las limitaciones de estos modelos. Y creerme que no ha sido fácil, sobre todo muy frustrante con Microsoft y sus continuos errores.

No conseguimos el 100% de fiabilidad obviamente, pero a base de utilizar un protocolo de trabajo, y una serie de instrucciones repetitivas, somos capaces de evitar errores y de detectarlos cuando ocurren sin que el usuario tenga que verificarlo absolutamente todo.

Si os interesa conocer el método de trabajo tanto para conversaciones como para Agentes personalizados no dudéis en contactarme… [email protected]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *