LinkedIn renueva su algoritmo del feed con modelos de lenguaje para mostrar contenido más allá de la red de contactos

LinkedIn ha desplegado un nuevo sistema de ranking del feed basado en modelos de lenguaje de gran tamaño y GPUs con el objetivo de mejorar qué publicaciones muestra a sus usuarios, especialmente aquellas que no proceden directamente de su red de contactos. El cambio sustituye una arquitectura anterior mucho más fragmentada que, según la propia compañía, generaba complejidad técnica y limitaba el nivel de personalización que podía ofrecer a sus 1.300 millones de miembros.

Hasta ahora, el sistema de recomendación de contenido de LinkedIn se apoyaba en múltiples fuentes especializadas. Entre ellas estaban un índice cronológico de actividad de la red, publicaciones en tendencia según la geografía, sistemas de filtrado colaborativo y varios mecanismos de recuperación basados en embeddings. Cada una de esas piezas funcionaba con su propia infraestructura, su propia lógica de optimización y sus propios requisitos de mantenimiento.

Ese enfoque permitía sumar señales distintas, pero también complicaba mucho la ingeniería del sistema. Cuando una plataforma depende de varios motores para decidir qué enseñar en el feed, no solo aumenta el coste operativo. También resulta más difícil unificar criterios, reaccionar rápido a cambios y conseguir que la personalización sea coherente. LinkedIn ha optado ahora por reemplazar ese mosaico de sistemas por un único modelo de recuperación apoyado en embeddings generados por LLMs.

La explicación la dio Hristo Danchev, TPM Tech Lead de LinkedIn, en una publicación del blog de ingeniería de la compañía fechada el 12 de marzo. La ambición del proyecto, según detalló, era clara: construir un sistema capaz de entender no solo coincidencias de palabras clave, sino también intereses profesionales más profundos y matizados, aquellos que hacen que un contenido resulte realmente relevante para un usuario.

Ese matiz es importante. En una red como LinkedIn, la relevancia no siempre depende de si una publicación habla exactamente del mismo término que aparece en un perfil. Un usuario puede estar interesado en liderazgo de producto, pero también en gestión de equipos, inteligencia artificial aplicada al negocio o cambios en contratación tecnológica. La idea del nuevo sistema es captar mejor ese contexto profesional, incluso cuando no hay una coincidencia literal entre texto y perfil.

Uno de los problemas que la nueva arquitectura busca resolver es el llamado cold start, es decir, la dificultad para recomendar contenido útil a usuarios nuevos que todavía apenas han interactuado con la plataforma. En los sistemas tradicionales, eso suele obligar a esperar a que se acumulen clics, lecturas, reacciones o comentarios. Con el nuevo enfoque, los embeddings generados por LLMs permiten inferir intereses probables a partir de los datos del perfil, sin depender desde el primer día del historial de comportamiento.

LinkedIn también destaca un hallazgo técnico concreto en el tratamiento de variables numéricas. Al principio, los ingenieros introducían directamente en los prompts métricas como los contadores brutos de engagement. El resultado fue pobre: la correlación entre la popularidad de un contenido y la similitud de embeddings era prácticamente nula. Para corregirlo, la compañía transformó esos valores en rangos percentiles encapsulados en tokens especiales.

Ese cambio tuvo un efecto notable en el sistema. Según explica LinkedIn, la correlación entre las señales de popularidad y la similitud de embeddings se multiplicó por 30, mientras que la métrica Recall@10 mejoró un 15%. Es un ejemplo interesante de cómo, en modelos de este tipo, no basta con volcar más datos: también importa mucho cómo se representan esos datos para que el sistema los interprete correctamente.

En la parte de ranking, LinkedIn ha desarrollado además un modelo llamado Generative Recommender, diseñado para tratar el historial del feed de cada miembro como una secuencia ordenada y no como un conjunto de eventos aislados. La diferencia no es menor. Un sistema clásico puede ver tres clics como tres acciones separadas. Un modelo secuencial, en cambio, intenta entender la trayectoria: qué vino antes, qué interés apareció después y cómo evoluciona el comportamiento del usuario a lo largo del tiempo.

Según la compañía, este modelo procesa más de 1.000 interacciones históricas para detectar patrones temporales. Ese enfoque encaja especialmente bien con LinkedIn, donde los intereses profesionales cambian con el tiempo. Un usuario puede pasar de consumir contenido sobre búsqueda de empleo a leer publicaciones sobre liderazgo o expansión internacional a medida que cambia su etapa profesional. El sistema busca capturar esa evolución, no solo una fotografía fija del pasado.

Durante el entrenamiento, LinkedIn introdujo además dos hard negatives por usuario, definidos como publicaciones que se mostraron pero no generaron interacción. Esa decisión mejoró Recall@10 en un 3,6%. La compañía también filtró los datos de entrenamiento para incluir únicamente contenido con interacción positiva, una medida que redujo en un 37% la huella de memoria por secuencia y permitió iteraciones de entrenamiento 2,6 veces más rápidas.

Todo este rediseño ha obligado también a cambiar la infraestructura. Los modelos históricos de ranking de LinkedIn funcionaban sobre CPUs, pero el nuevo sistema basado en transformers ha requerido pasar a GPUs. Para ello, la empresa ha desplegado una variante personalizada de Flash Attention, llamada GRMIS, que según sus datos ofrece una mejora de velocidad de 2x frente a la implementación estándar de PyTorch.

Además, LinkedIn ha construido un sistema de procesamiento por lotes con contexto compartido. En lugar de recalcular una y otra vez la representación histórica de cada usuario para cada candidato, la calcula una sola vez y después evalúa todos los contenidos en paralelo. Esa optimización es importante en una plataforma de esta escala, donde cada mejora de eficiencia tiene impacto directo en coste, latencia y capacidad de respuesta.

La actualización del feed se apoya, además, en tres pipelines nearline que gestionan de forma continua la generación de prompts, la inferencia de embeddings y la actualización de índices. Gracias a ello, el contenido puede refrescarse en cuestión de minutos después de cambios en la actividad del usuario o en su perfil profesional.

Con este rediseño, LinkedIn intenta dar un salto en personalización, escalabilidad y rapidez de actualización del feed. El objetivo final es claro: mostrar publicaciones más relevantes, incluso cuando no proceden del círculo inmediato del usuario, y hacerlo con un sistema más unificado, más mantenible y mejor preparado para entender cómo evolucionan los intereses profesionales dentro de la plataforma.

No hay comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *