AI DevelopmentMachine LearningGoogle Vertex AI

Gemini Embedding 2: El Nuevo Sistema de Embeddings Multimodal de Google

11 de marzo de 2026
10 min de lectura
Gemini Embedding 2 - Google Multimodal AI Embeddings
Compartir:

El 10 de marzo de 2026, Google lanzó en preview público Gemini Embedding 2, un modelo que no solo genera embeddings de texto, sino que unifica texto, imágenes, audio, video y PDFs en un único espacio vectorial. Para quienes construimos sistemas de búsqueda semántica o pipelines RAG, esto cambia bastante las reglas del juego.

En este artículo te explico desde cero qué es un embedding, por qué importa y qué hace especial a este nuevo modelo.

1. ¿Qué es un Embedding?

Un embedding es una representación numérica de un dato (texto, imagen, audio, etc.) en forma de vector de alta dimensión. La idea central es que elementos con significado similar producen vectores cercanos en ese espacio.

Ejemplo concreto

Si pasas las frases "perro" y "can" por un modelo de embeddings, obtendrás dos vectores muy cercanos entre sí. En cambio, "perro" y "automóvil" producirán vectores distantes.

embed("perro") → [0.82, -0.14, 0.33, ...] // cercano a

embed("can") → [0.80, -0.12, 0.31, ...] // ✓ similar

embed("auto") → [-0.21, 0.67, -0.45, ...] // ✗ lejano

Esta propiedad hace que los embeddings sean la base de tecnologías como la búsqueda semántica (encontrar documentos por significado, no por palabras exactas), los sistemas RAG (Retrieval-Augmented Generation) y los motores de recomendación.

🔍

Búsqueda Semántica

Encuentra resultados relevantes aunque el usuario no use las palabras exactas del documento.

🤖

Sistemas RAG

Los LLMs recuperan contexto relevante desde bases de datos vectoriales antes de generar respuestas.

📊

Clasificación

Agrupar documentos, detectar duplicados, detectar spam o clasificar contenido automáticamente.

2. ¿Qué es Gemini Embedding 2?

Gemini Embedding 2 (gemini-embedding-2-preview) es el modelo de embeddings más reciente de Google, disponible en Vertex AI desde el 10 de marzo de 2026. Su diferenciador clave frente a modelos anteriores como text-embedding-004 es que es multimodal desde su diseño: puede generar embeddings de texto, imágenes, audio, video y PDFs, mapeando todos estos tipos en un único espacio vectorial compartido.

Especificaciones Técnicas

Capacidades de entrada

  • Texto: hasta 8,192 tokens
  • Imágenes: hasta 6 imágenes (PNG, JPEG)
  • Video: hasta 80-120 segundos (MP4, MPEG)
  • Audio: hasta 80 segundos (MP3, WAV)
  • PDF: 1 archivo, hasta 6 páginas (con OCR)

Salida

  • Dimensiones: 3,072 por defecto
  • Reducible via MRL (Multi-Resolution Learning)
  • Región: us-central1
  • Formato: vector de floats
  • Precio: Standard PayGo

3. Ventajas Clave Frente a Modelos Anteriores

Los modelos de embeddings anteriores de Google (como text-embedding-004 o multimodalembedding@001) tenían limitaciones importantes: eran unimodales o multimodales pero con menor capacidad de contexto y sin instrucciones de tarea. Gemini Embedding 2 supera estos puntos en varios frentes.

Espacio Vectorial Unificado Multimodal

La ventaja más importante. Antes necesitabas modelos separados para texto e imágenes y luego algún mecanismo de fusión. Con Gemini Embedding 2, una búsqueda de texto puede retornar imágenes relevantes (y viceversa), porque todos los tipos de contenido viven en el mismo espacio vectorial.

Ejemplo de uso:

Query: "diagrama de arquitectura de microservicios" (texto)

→ Retorna imágenes de diagramas, PDFs técnicos y videos de conferencias relevantes, todo en la misma búsqueda.

Task Instructions: Embeddings Optimizados por Contexto

Puedes indicarle al modelo el tipo de tarea para la que se usará el embedding. Esto ajusta la representación vectorial para optimizar la precisión en ese contexto específico.

// Ejemplos de task instructions
{
  "task_type": "RETRIEVAL_DOCUMENT",    // para indexar documentos
  "task_type": "RETRIEVAL_QUERY",       // para queries de búsqueda
  "task_type": "CODE_RETRIEVAL_QUERY",  // para búsqueda de código
  "task_type": "SEMANTIC_SIMILARITY",  // para comparar similitud
  "task_type": "CLASSIFICATION",       // para clasificación
  "task_type": "CLUSTERING"            // para agrupación
}

Esta característica mejora significativamente la precisión en benchmarks de recuperación frente a embeddings genéricos sin instrucción de tarea.

Dimensiones Ajustables con MRL

3,072 dimensiones por defecto son muchas — mayor precisión semántica pero mayor costo de almacenamiento y latencia de búsqueda. Gracias a Multi-Resolution Learning (MRL), puedes reducir las dimensiones sin re-entrenar el modelo, ajustando el balance entre precisión y rendimiento.

3,072
Máxima precisión
Mayor costo
1,024
Balance óptimo
Recomendado
256
Alta velocidad
Menor precisión

OCR Nativo en PDFs y Extracción de Audio en Video

No necesitas preprocesar PDFs con herramientas externas. El modelo aplica OCR automáticamente para extraer texto de documentos escaneados. Para videos, extrae y procesa el audio de forma automática interleándolo con los frames visuales, capturando la semántica de ambos canales simultáneamente.

4. Cómo Usarlo: Ejemplo Práctico con Python

El modelo se accede a través de Vertex AI. Aquí un ejemplo básico de cómo generar embeddings de texto y de imagen en el mismo espacio vectorial:

Embedding de texto con task instruction

import vertexai
from vertexai.preview.vision_models import MultiModalEmbeddingModel

vertexai.init(project="my-project", location="us-central1")

model = MultiModalEmbeddingModel.from_pretrained("gemini-embedding-2-preview")

# Embedding de texto con task instruction
text_embeddings = model.get_embeddings(
    contextual_text="How do microservices communicate in a distributed system?",
    task_type="RETRIEVAL_QUERY",
    output_dimensionality=1024  # reducir con MRL
)

print(f"Dimensiones: {len(text_embeddings.text_embedding)}")
# Output: Dimensiones: 1024

Embedding multimodal (texto + imagen en el mismo espacio)

from vertexai.preview.vision_models import Image

# Embedding de imagen
image = Image.load_from_file("architecture-diagram.png")

image_embeddings = model.get_embeddings(
    image=image,
    output_dimensionality=1024
)

# Embedding de texto (misma query)
text_embeddings = model.get_embeddings(
    contextual_text="microservices architecture diagram",
    task_type="RETRIEVAL_QUERY",
    output_dimensionality=1024
)

# Ahora puedes comparar texto con imagen directamente
import numpy as np

def cosine_similarity(a, b):
    return np.dot(a, b) / (np.linalg.norm(a) * np.linalg.norm(b))

similarity = cosine_similarity(
    text_embeddings.text_embedding,
    image_embeddings.image_embedding
)
print(f"Similitud texto-imagen: {similarity:.4f}")
# Si es alta → la imagen es relevante para la query de texto

Embedding de PDF con OCR automático

from vertexai.preview.vision_models import Video, VideoSegmentConfig

# Embedding de un PDF escaneado (OCR automático)
pdf_embeddings = model.get_embeddings(
    video=None,
    image=None,
    contextual_text=None,
    pdf="gs://my-bucket/technical-report.pdf",  # Google Cloud Storage
    output_dimensionality=1024
)

# El modelo hace OCR internamente — no necesitas preprocesar
print(f"Embedding generado: {len(pdf_embeddings.text_embedding)} dims")

5. Casos de Uso Más Relevantes

RAG Multimodal

Construir pipelines RAG donde el contexto recuperado puede ser texto, imágenes de documentos, diapositivas o videos de capacitación — todo indexado y buscable con un solo modelo.

Ideal para: bases de conocimiento empresarial, soporte técnico, documentación de producto.

Búsqueda de Código

Con CODE_RETRIEVAL_QUERY, puedes construir buscadores de código semánticos que entiendan intención, no solo keywords.

Ideal para: IDEs con búsqueda semántica, herramientas de code review asistido por IA.

E-commerce Visual

Búsqueda de productos por imagen: el usuario sube una foto y el sistema recupera los productos visualmente similares del catálogo, sin necesidad de etiquetas.

Ideal para: marketplaces, catálogos de moda, plataformas de decoración.

Análisis de Contenido Multimedia

Moderar contenido, detectar duplicados o clasificar videos y audios a escala, usando vectores en lugar de procesamiento frame a frame.

Ideal para: plataformas de contenido, medios, sistemas de vigilancia.

6. Limitaciones a Tener en Cuenta

Puntos a considerar antes de adoptar

  • Preview público: aún no tiene SLA de producción. No usar en sistemas críticos sin evaluar estabilidad.
  • Solo us-central1: si tu infraestructura está en otra región, tendrás latencia adicional o restricciones de compliance de datos.
  • Sin batch prediction: no soporta procesamiento por lotes. Para indexar millones de documentos necesitarás orquestar llamadas paralelas.
  • PDFs limitados a 6 páginas: para documentos largos deberás dividirlos en chunks antes de enviarlos.
  • Conocimiento hasta noviembre 2025: como cualquier modelo entrenado, puede no capturar bien terminología muy reciente.

¿Querés integrar embeddings multimodales en tu producto?

Construyo sistemas RAG, búsqueda semántica y pipelines de IA para producción. Si tenés un proyecto donde necesitás procesar documentos, imágenes o video con búsqueda inteligente, hablemos.

Conclusión

Gemini Embedding 2 no es una actualización incremental — es un cambio de paradigma en cómo pensamos los embeddings. La capacidad de unificar texto, imágenes, audio, video y PDFs en un mismo espacio vectorial abre casos de uso que antes requerían múltiples modelos especializados y complejas capas de fusión.

Para los que construimos sistemas RAG o búsqueda semántica, las task instructions y las dimensiones ajustables con MRL son features que en la práctica mejoran tanto la precisión como el costo operativo. Vale la pena evaluarlo ya.

Próximos pasos

  • Crear un proyecto en Google Cloud y habilitar Vertex AI
  • Testear el modelo con tus propios datos usando el ejemplo de Python de esta guía
  • Comparar precisión de retrieval con tu modelo actual usando un set de evaluación
  • Evaluar si las 1,024 dimensiones via MRL son suficientes para tu caso de uso
  • Monitorear la evolución del modelo — está en preview y Google suele mejorar estos modelos rápidamente
Diego Rodriguez

Diego Rodriguez

Senior Full Stack Developer & AI Systems Engineer

Diego construye sistemas de IA en producción: pipelines RAG, búsqueda semántica, agentes multi-step y APIs de alta escala. Con más de 9 años de experiencia en desarrollo full-stack y sistemas financieros, ayuda a equipos a llevar proyectos de IA del prototipo a producción.

Conoce mas sobre Diego