El problema que resuelve: datos conversacionales no estructurados a escala
Los equipos de análisis de contact centers, soporte técnico y atención al cliente conviven con el mismo problema desde hace años: enormes volúmenes de conversaciones — llamadas, transcripciones, tickets — que contienen información valiosa pero que resultan prácticamente inaccesibles para el análisis sistemático. Revisar manualmente miles de conversaciones para identificar patrones, tendencias de calidad o problemas recurrentes no escala. Las herramientas tradicionales de análisis requieren datos estructurados y no permiten la exploración libre en lenguaje natural.
El Conversation Knowledge Mining Solution Accelerator de Microsoft aborda este problema con una arquitectura que combina Foundry IQ, Semantic Kernel, Azure Content Understanding, Azure OpenAI y Microsoft Fabric para convertir datos conversacionales no estructurados en una base de conocimiento consultable en tiempo real con lenguaje natural.
Arquitectura del pipeline
El pipeline del accelerator tiene cuatro capas que procesan los datos en secuencia.
Ingesta y transcripción: Las conversaciones en formato audio o texto entran al sistema a través de Azure Content Understanding, que realiza la transcripción de audio a texto cuando es necesario, extrae entidades y relaciones clave como problemas mencionados, sentimiento, resolución o escalada, y genera una representación estructurada de cada conversación. Esta capa es fundamentalmente diferente a un simple OCR o STT: Content Understanding comprende el contexto semántico de la conversación e identifica las entidades que son relevantes para el dominio específico.
Procesamiento a escala con Microsoft Fabric: Los datos estructurados de la capa anterior se procesan en pipelines event-driven sobre Microsoft Fabric. Aquí se generan los embeddings vectoriales de cada fragmento de conversación usando Azure OpenAI, se construyen los índices de Azure AI Search que alimentarán a Foundry IQ, y se calculan las métricas agregadas que alimentarán el dashboard de visualización.
Knowledge layer con Foundry IQ: Una vez indexadas las conversaciones, Foundry IQ actúa como la capa de recuperación ag\u00e9ntica. Las consultas de los analistas en lenguaje natural — “¿cuáles son las principales causas de escalada en los últimos 30 días?” — se descomponen automáticamente por el query planner en consultas específicas que buscan conversaciones relevantes, patrones recurrentes y datos de métricas. El reasoning effort se configura a low para la mayoría de consultas del dashboard y a medium para análisis comparativos complejos.
Interfaz conversacional y visualización: La capa de presentación es una aplicación web que combina un dashboard interactivo de insights con una interfaz de chat. El chat usa Semantic Kernel para orquestar la interacción entre el usuario y Foundry IQ, manteniendo el historial de conversación y permitiendo preguntas de seguimiento que refinan el análisis. El dashboard genera visualizaciones dinámicas de los datos de forma reactiva a las consultas.
Componentes de infraestructura
El accelerator usa Azure Container Apps como plataforma de microservicios, con cada componente del backend desplegado como un contenedor independiente. Esta elección facilita el escalado independiente de los componentes más demandados — típicamente el servicio de transcripción y el servicio de chat — sin escalar toda la infraestructura. Azure Cosmos DB almacena el historial de conversaciones de los analistas y los metadatos de análisis, optimizado para las lecturas rápidas que requiere el chat. Azure SQL Database almacena los insights estructurados, métricas agregadas y resultados de topic modeling. Azure Key Vault gestiona las credenciales de todos los servicios, y Managed Identity elimina las claves hardcoded en el código.
El aspecto más significativo de la infraestructura desde una perspectiva de arquitectura es el uso de Microsoft Fabric para el procesamiento de datos a escala. Fabric proporciona el compute necesario para generar embeddings de miles o millones de conversaciones sin saturar los límites de throughput de Azure OpenAI, distribuyendo el trabajo en batches con gestión automática de reintentos y control de tokens por minuto.
Patrones arquitectónicos aplicables a otros dominios
Aunque el accelerator está diseñado específicamente para datos conversacionales de contact center, tres de sus patrones son directamente aplicables a otros dominios donde Foundry IQ actúa como knowledge layer.
El primero es la separación entre indexación offline y consulta en tiempo real. El pipeline de Fabric procesa y vectoriza los datos sin afectar la latencia de las consultas. Foundry IQ sirve siempre desde índices ya construidos, no en tiempo real. Esta separación es fundamental para mantener latencias de respuesta aceptables cuando el corpus es grande.
El segundo es el uso de topic modeling como pre-processing antes de indexar. El accelerator genera resúmenes de tópicos y frases clave para cada conversación antes de construir los chunks para el índice vectorial. Esto mejora significativamente la calidad de los embeddings porque el texto que se vectoriza ya está enriquecido con las entidades y relaciones más relevantes, no es el texto crudo de la transcripción.
El tercero es la arquitectura de Semantic Kernel como orquestador de la conversación sobre Foundry IQ como knowledge layer. Semantic Kernel mantiene el contexto de la conversación del analista, genera los prompts para Foundry IQ basándose en el historial, y sintetiza las respuestas. Foundry IQ nunca recibe la conversación completa; recibe consultas específicas construidas por Semantic Kernel. Esta separación de responsabilidades hace el sistema más eficiente y el comportamiento más predecible.
Relevancia para el sistema de agentes de Azurebrains
El sistema de cinco agentes del blog — Discoverer, Analyzer, Reuser, Writer e Improver — usa Foundry IQ con el mismo principio central que este accelerator: una knowledge layer centralizada que todos los componentes consultan a través de una API consistente. Las diferencias son de dominio y escala: el blog trabaja con cientos de artículos técnicos y consultas puntuales de los agentes, mientras que el accelerator trabaja con millones de conversaciones y consultas continuas de analistas humanos.
El patrón de topic modeling como pre-processing es directamente relevante para el pipeline de indexación del corpus del blog. En lugar de indexar el texto crudo de los artículos, enriquecer los chunks con las entidades técnicas principales — servicios de Azure mencionados, conceptos explicados, versiones de API referenciadas — antes de generar los embeddings puede mejorar significativamente la calidad de la recuperación del Analyzer y el Reuser.
El código completo y las plantillas de despliegue del accelerator están disponibles en github.com/microsoft/Conversation-Knowledge-Mining-Solution-Accelerator bajo licencia MIT. El repositorio incluye guías de despliegue rápido con azd up, tests end-to-end y documentación técnica detallada de la arquitectura.