Más allá del bombo publicitario: nuestro experimento para crear una IA en la que podamos confiar

Content Series: 
La tesis de la IA
August 12, 2025
3 m
Experimente para crear una IA confiable para la legislación tributaria: Superamos las «alucinaciones» mediante el uso de fuentes seleccionadas y verificables a través de NotebookLM y Gemini, lo que resulta en una «IA sólida» que proporciona respuestas precisas y citadas para los servicios profesionales.

Highlights/Summary

La génesis: una crisis de confianza

Seamos honestos. El término «IA» está saturado. Es una palabra de moda que se usa en todo, desde tostadoras hasta plataformas de negociación, a menudo con poco contenido que la respalde. Para nuestro equipo, no se trataba solo de ruido de marketing, sino de una crisis de confianza. Estábamos creando sistemas complejos, pero la naturaleza de «caja negra» de muchos modelos lingüísticos extensos (LLM) nos dejaba intranquilos. ¿Cómo podríamos implementar con confianza una herramienta cuyo razonamiento era opaco? ¿Cómo podíamos confiar en sus resultados si no podíamos verificar sus fuentes?

No era un debate académico. Necesitábamos una herramienta para la gestión interna del conocimiento, una herramienta que pudiera examinar miles de páginas de nuestra propia documentación, trabajos de investigación e informes de proyectos. Había mucho en juego; una mala interpretación o un hecho «alucinado» podían provocar importantes reveses de ingeniería. Los LLM estándar eran poderosos, pero su propensión a inventar información los convertía en un fracaso para una base de conocimientos de misión crítica. Necesitábamos una IA con la que pudiéramos discutir, una que «mostrara su trabajo».

El experimento: basar un LLM en nuestra realidad

Nuestra hipótesis era simple: La confianza en la IA es directamente proporcional a su verificabilidad.

Decidimos construir un sistema en torno a este principio. El objetivo no era crear un nuevo modelo fundamental, sino diseñar una nueva forma de interactuar con uno existente. Elegimos usar el NotebookLM de Google, no solo por su potencia, sino también por su filosofía de diseño fundamental: la base.

Nuestra metodología:

  1. Base de conocimientos seleccionada: No dirigimos la IA a todo Internet. Publicamos meticulosamente un corpus de documentos específico: nuestras especificaciones técnicas internas, las autopsias de los proyectos y una biblioteca de artículos de investigación confiables revisados por pares relevantes para nuestro campo. Este era nuestro «material fuente». A la IA no se le permitió aprender ni citar nada fuera de este jardín amurallado.
  2. La fuente de la verdad como mandato: Todas las consultas procesadas por el sistema tenían que ser respondidas directamente de los documentos cargados. Y lo que es más importante, cada afirmación, resumen o dato generado por la IA tenía que ir acompañado de citas. No se trataba solo de enlaces; eran citas y referencias directas a la página y al párrafo específicos del material original.
  3. «Red Teaming» para la confianza: Reunimos un equipo dedicado cuyo único propósito era romper la confianza del sistema. Hicieron preguntas ambiguas, cargaron documentos contradictorios y buscaron activamente casos de alucinaciones o malas interpretaciones. Cada fallo se registraba, analizaba y utilizaba para perfeccionar los mecanismos de activación y puesta a tierra del sistema.

Los resultados: lo que aprendimos sobre la confianza

El resultado fue un sistema que parecía menos un oráculo mágico y más un asistente de investigación sobrehumano increíblemente diligente.

  • El fin de la alucinación: Al limitar estrictamente el mundo de la IA a nuestro material original, prácticamente eliminamos los hechos alucinados. Cuando la IA no pudo encontrar una respuesta en los documentos, lo dijo. Esta era una característica crucial: la admisión de ignorancia es infinitamente más confiable que una falsedad segura.
  • Velocidad de verificación: El mandato de «mostrar su trabajo» supuso un punto de inflexión. Un ingeniero novato podía hacer una pregunta compleja sobre un sistema antiguo y obtener una respuesta resumida con cinco citas. Luego, podían hacer clic en cada cita, leer el contexto original y verificar la interpretación de la IA en cuestión de segundos. Esto generó confianza y aceleró drásticamente el proceso de investigación.
  • Matiz y contradicción: Una de las ventajas más sorprendentes fue la forma en que el sistema gestionaba los matices. Cuando subimos dos documentos con información contradictoria, la IA no se limitó a elegir uno. A menudo presentaba ambos puntos de vista, citando cada uno de ellos. Por ejemplo: «La fuente A indica que la latencia del sistema es inferior a 50 ms, mientras que la fuente B, de una fecha posterior, señala que la latencia posterior a la actualización puede alcanzar los 80 ms». Esto nos permitió ver la evolución de nuestros propios conocimientos.

Externalidades y beneficios inesperados

Nuestro experimento arrojó información que fue más allá de nuestro objetivo inicial de crear una base de conocimientos confiable.

Una nueva forma de incorporación

Descubrimos que nuestra IA era una herramienta de incorporación excepcional. Los nuevos empleados podían «conversar» con todo el historial de nuestros proyectos. En lugar de hacerle una pregunta básica a un ingeniero experimentado, podrían hacerle una pregunta a la IA y obtener una respuesta verificada y basada en fuentes. Esto liberó al personal sénior y permitió a los nuevos miembros del equipo ser autosuficientes más rápidamente.

Derribando las barreras lingüísticas

Las capacidades multilingües del sistema arrojaron un beneficio inesperado significativo. Los miembros del equipo que no son hablantes nativos de inglés descubrieron que podían consultar la base de conocimientos en su propio idioma. La IA, tras procesar el material original en inglés, pudo proporcionar respuestas resumidas y fiables en español, japonés o francés, con citas que remitan a los documentos originales en inglés. Esto creó de manera efectiva un puente verificable que superaba las brechas lingüísticas, haciendo que nuestros conocimientos básicos fueran accesibles y confiables para todos, independientemente de su lengua materna.

Conclusión: la confianza no es una característica, es una arquitectura

Nuestro viaje nos enseñó que la confianza en la IA no es algo que se pueda agregar al final. No se trata de un modelo que suene más «seguro». Es una elección arquitectónica. Al basar nuestra IA en una fuente veraz verificable y exigirle que citara su trabajo, no solo creamos una herramienta mejor, sino que construimos una nueva relación con la IA. Una basada no en una fe ciega, sino en una colaboración verificable, transparente y, en última instancia, confiable.

Transcription

About atQuo

atQuo is a creative partner that operates at the intersection of design, technology, and marketing strategy. Our **Insights and Talks** exist to demystify this intersection, sharing the expert knowledge required to make smarter decisions about the tools and tactics that drive growth. This same expertise fuels our services, where we execute on that strategy to build powerful digital experiences that help brands scale with clarity and confidence.

About the 

La tesis de la IA

Creemos que la mejor manera de entender la IA es construir con ella. La tesis sobre la IA es nuestra colección de experimentos del mundo real, en los que nuestro equipo prueba una nueva hipótesis y comparte el proceso, los resultados y las lecciones prácticas aprendidas a lo largo del camino.

No items found.

Más allá del bombo publicitario: nuestro experimento para crear una IA en la que podamos confiar

Darcy R.
•  
August 12, 2025
3 m
 read
About this content series:

La tesis de la IA

Creemos que la mejor manera de entender la IA es construir con ella. La tesis sobre la IA es nuestra colección de experimentos del mundo real, en los que nuestro equipo prueba una nueva hipótesis y comparte el proceso, los resultados y las lecciones prácticas aprendidas a lo largo del camino.
You are reading:
Más allá del bombo publicitario: nuestro experimento para crear una IA en la que podamos confiar

La génesis: una crisis de confianza

Seamos honestos. El término «IA» está saturado. Es una palabra de moda que se usa en todo, desde tostadoras hasta plataformas de negociación, a menudo con poco contenido que la respalde. Para nuestro equipo, no se trataba solo de ruido de marketing, sino de una crisis de confianza. Estábamos creando sistemas complejos, pero la naturaleza de «caja negra» de muchos modelos lingüísticos extensos (LLM) nos dejaba intranquilos. ¿Cómo podríamos implementar con confianza una herramienta cuyo razonamiento era opaco? ¿Cómo podíamos confiar en sus resultados si no podíamos verificar sus fuentes?

No era un debate académico. Necesitábamos una herramienta para la gestión interna del conocimiento, una herramienta que pudiera examinar miles de páginas de nuestra propia documentación, trabajos de investigación e informes de proyectos. Había mucho en juego; una mala interpretación o un hecho «alucinado» podían provocar importantes reveses de ingeniería. Los LLM estándar eran poderosos, pero su propensión a inventar información los convertía en un fracaso para una base de conocimientos de misión crítica. Necesitábamos una IA con la que pudiéramos discutir, una que «mostrara su trabajo».

El experimento: basar un LLM en nuestra realidad

Nuestra hipótesis era simple: La confianza en la IA es directamente proporcional a su verificabilidad.

Decidimos construir un sistema en torno a este principio. El objetivo no era crear un nuevo modelo fundamental, sino diseñar una nueva forma de interactuar con uno existente. Elegimos usar el NotebookLM de Google, no solo por su potencia, sino también por su filosofía de diseño fundamental: la base.

Nuestra metodología:

  1. Base de conocimientos seleccionada: No dirigimos la IA a todo Internet. Publicamos meticulosamente un corpus de documentos específico: nuestras especificaciones técnicas internas, las autopsias de los proyectos y una biblioteca de artículos de investigación confiables revisados por pares relevantes para nuestro campo. Este era nuestro «material fuente». A la IA no se le permitió aprender ni citar nada fuera de este jardín amurallado.
  2. La fuente de la verdad como mandato: Todas las consultas procesadas por el sistema tenían que ser respondidas directamente de los documentos cargados. Y lo que es más importante, cada afirmación, resumen o dato generado por la IA tenía que ir acompañado de citas. No se trataba solo de enlaces; eran citas y referencias directas a la página y al párrafo específicos del material original.
  3. «Red Teaming» para la confianza: Reunimos un equipo dedicado cuyo único propósito era romper la confianza del sistema. Hicieron preguntas ambiguas, cargaron documentos contradictorios y buscaron activamente casos de alucinaciones o malas interpretaciones. Cada fallo se registraba, analizaba y utilizaba para perfeccionar los mecanismos de activación y puesta a tierra del sistema.

Los resultados: lo que aprendimos sobre la confianza

El resultado fue un sistema que parecía menos un oráculo mágico y más un asistente de investigación sobrehumano increíblemente diligente.

  • El fin de la alucinación: Al limitar estrictamente el mundo de la IA a nuestro material original, prácticamente eliminamos los hechos alucinados. Cuando la IA no pudo encontrar una respuesta en los documentos, lo dijo. Esta era una característica crucial: la admisión de ignorancia es infinitamente más confiable que una falsedad segura.
  • Velocidad de verificación: El mandato de «mostrar su trabajo» supuso un punto de inflexión. Un ingeniero novato podía hacer una pregunta compleja sobre un sistema antiguo y obtener una respuesta resumida con cinco citas. Luego, podían hacer clic en cada cita, leer el contexto original y verificar la interpretación de la IA en cuestión de segundos. Esto generó confianza y aceleró drásticamente el proceso de investigación.
  • Matiz y contradicción: Una de las ventajas más sorprendentes fue la forma en que el sistema gestionaba los matices. Cuando subimos dos documentos con información contradictoria, la IA no se limitó a elegir uno. A menudo presentaba ambos puntos de vista, citando cada uno de ellos. Por ejemplo: «La fuente A indica que la latencia del sistema es inferior a 50 ms, mientras que la fuente B, de una fecha posterior, señala que la latencia posterior a la actualización puede alcanzar los 80 ms». Esto nos permitió ver la evolución de nuestros propios conocimientos.

Externalidades y beneficios inesperados

Nuestro experimento arrojó información que fue más allá de nuestro objetivo inicial de crear una base de conocimientos confiable.

Una nueva forma de incorporación

Descubrimos que nuestra IA era una herramienta de incorporación excepcional. Los nuevos empleados podían «conversar» con todo el historial de nuestros proyectos. En lugar de hacerle una pregunta básica a un ingeniero experimentado, podrían hacerle una pregunta a la IA y obtener una respuesta verificada y basada en fuentes. Esto liberó al personal sénior y permitió a los nuevos miembros del equipo ser autosuficientes más rápidamente.

Derribando las barreras lingüísticas

Las capacidades multilingües del sistema arrojaron un beneficio inesperado significativo. Los miembros del equipo que no son hablantes nativos de inglés descubrieron que podían consultar la base de conocimientos en su propio idioma. La IA, tras procesar el material original en inglés, pudo proporcionar respuestas resumidas y fiables en español, japonés o francés, con citas que remitan a los documentos originales en inglés. Esto creó de manera efectiva un puente verificable que superaba las brechas lingüísticas, haciendo que nuestros conocimientos básicos fueran accesibles y confiables para todos, independientemente de su lengua materna.

Conclusión: la confianza no es una característica, es una arquitectura

Nuestro viaje nos enseñó que la confianza en la IA no es algo que se pueda agregar al final. No se trata de un modelo que suene más «seguro». Es una elección arquitectónica. Al basar nuestra IA en una fuente veraz verificable y exigirle que citara su trabajo, no solo creamos una herramienta mejor, sino que construimos una nueva relación con la IA. Una basada no en una fe ciega, sino en una colaboración verificable, transparente y, en última instancia, confiable.

A word about this series

La tesis de la IA

Creemos que la mejor manera de entender la IA es construir con ella. La tesis sobre la IA es nuestra colección de experimentos del mundo real, en los que nuestro equipo prueba una nueva hipótesis y comparte el proceso, los resultados y las lecciones prácticas aprendidas a lo largo del camino.

Sigue leyendo...

Busca un nuevo...
Tu viaje comienza aquí.
Hablemos
5/5 BASADA EN 10 COMENTARIOS
Verificados por Clutch
.TOP EMPRESA DE DISEÑO WEB
Ciudad de Nueva York 2024
.LOS MEJORES DESARROLLADORES DE COMERCIO ELECTRÓNICO
Ciudad de Nueva York 2024
.PROVEEDOR DE ÉXITO LABORAL AL 100%
UpWork 2017-2024
.PROVEEDOR PLUS MEJOR VALORADO
UpWork 2019-2024
Calificación 5.0/5
Reseñas de Google Business
.LA MEJOR EMPRESA DE COMERCIO
Nueva York 2025
.CLUTCH CHAMPION
Otoño de 2024
.GLOBAL DESTACADO
Otoño de 2024
Más creación.
Menos administración.
Nueva York.
AtQuo, registrada como Quo Agency, Inc. en Nueva York, y como Quo Agency SAS en Ecuador, es una compañía multifacética que combina la experiencia de una agencia creativa con la eficiencia de una empresa de servicios profesionales impulsada por la tecnología. La empresa está estructurada para ayudar a las marcas a ampliar su producción creativa a través de un conjunto de tres productos distintos: Relia, Kit y Agency. Nuestro modelo está diseñado para eliminar la pérdida de tiempo en cada etapa de su crecimiento. Empieza rápido y lanza un proyecto definido en cuestión de minutos con un kit de precio fijo, que te permite saltarte todo el proceso de propuesta y negociación. A medida que tus necesidades se hagan más frecuentes, gana impulso con una suscripción flexible a Relia, que te permitirá disponer de un equipo creativo bajo demanda para todas las tareas del día a día sin el repetitivo ciclo de contratación. Por último, para tus iniciativas más críticas, puedes activar inmediatamente a nuestra agencia asociada estratégica, sin tener que pasar meses buscando una firma reconocida y de primer nivel.