1 前言

大模型(LLM)在推荐系统,特别是召回和排序模块落地面临着以下困难:

  1. 推理耗时问题,难以满足推荐系统快速响应的要求;
  2. 基于ID和用户行为推荐体系是LLM难以学习的,通常面临着词表巨大(亿级别),动态词表,冷启动等问题,因为每天都有许多item上下线。

因此,LLM通常在工业推荐系统大部分还是离线应用,产出一些embedding或者文本,例如小红书的NoteLLM。当然也不绝对,Meta 的Actions Speak Louder than Words: Trillion-Parameter Sequential Transducers for Generative Recommendations第一次在大规模工业系统打败传统推荐系统的召回和排序模块,无疑是LLM4Reco的一个巨大成功。

针对以上问题,本文调研了一些业界在LLM4Reco的做法,并总结分类为3种范式:

  1. LLM Embeddings + RS;
  2. LLM Tokens + RS;
  3. LLM as Rs。

Untitled

参考综述:A Survey on Large Language Models for Recommendation

文献整理仓库:

https://github.com/WLiK/LLM4Rec-Awesome-Papers/tree/main

https://github.com/jihoo-kim/Awesome-Generative-RecSys

2 LLM Embeddings + RS

这种范式主要是用LLM产出的embeding增强推荐系统,下面介绍几篇业界做法:

LLM Embeddings + RS

3 LLM Tokens + RS

这种范式利用LLM 产出token增强推荐系统,相关文献如下:

LLM Tokens + RS