Un embedding es un vector numérico denso (arreglo de números) que representa el significado semántico de una pieza de texto. Los modelos de embeddings convierten palabras, oraciones o documentos en vectores de tamaño fijo en un espacio de alta dimensión, donde los textos semánticamente similares quedan cerca unos de otros.
Los modelos de embeddings (como OpenAI text-embedding-3, Cohere embed o modelos open-source) convierten texto en vectores de 256 a 3072 dimensiones. Por ejemplo, "¿Cómo cancelo?" y "Quiero terminar mi suscripción" producirían vectores cercanos en el espacio de embeddings porque tienen un significado similar.
Los embeddings habilitan la búsqueda semántica: en lugar de coincidir palabras clave, comparas la similitud matemática (similitud coseno) entre el embedding de la consulta y los embeddings de documentos. Los vectores más cercanos representan el contenido más relevante semánticamente.
En la práctica, embedding debe evaluarse por lo que cambia en el flujo de soporte. Pregunta si mejora la precisión de las respuestas, reduce el trabajo repetido de los agentes, aclara las decisiones de transferencia o facilita los informes. Si la respuesta es solo "suena moderno", el concepto aún no es operativo.
Un ejemplo concreto es indexación de artículos de base de conocimiento: Cuando publicas un artículo de ayuda sobre "Gestión de permisos de equipo", Chatsy genera embeddings para cada sección. Más tarde, un cliente que pregunta "¿cómo doy acceso de administrador a mi compañero?" coincide con esos embeddings aunque no haya solapamiento de palabras clave, porque el significado semántico es el mismo.
La conclusión más sencilla es: Los embeddings convierten texto en vectores numéricos donde el contenido semánticamente similar se agrupa
Una palabra clave es una cadena exacta de texto. Un embedding es una representación numérica de significado. Las palabras clave coinciden literalmente ("pricing" solo encuentra "pricing"). Los embeddings coinciden semánticamente ("pricing" también encuentra "cost", "fees", "how much", etc.).
Los embeddings se almacenan en bases de datos vectoriales o bases de datos con soporte vectorial. Chatsy usa pgvector (una extensión de PostgreSQL) para almacenar embeddings junto con datos estructurados en la misma base de datos, simplificando la arquitectura.
Sí. Cuando editas un artículo de la base de conocimiento, los embeddings de las secciones modificadas deben regenerarse para reflejar el contenido actualizado. Plataformas como Chatsy lo gestionan automáticamente: actualizar un artículo activa la regeneración de embeddings en segundos.
Una guía de producto de 5,000 palabras se divide en 20 fragmentos superpuestos de 300 palabras cada uno, y cada fragmento se convierte en embedding por separado. Cuando un cliente pregunta por una función específica, solo se recuperan los 1-2 fragmentos relevantes, no el documento completo.
Para la mayoría de casos de soporte al cliente, OpenAI text-embedding-3-small ofrece el mejor equilibrio entre calidad y coste. Para mayor precisión en contenido complejo, se recomienda text-embedding-3-large. Cohere embed y modelos open-source como BGE son alternativas sólidas.