HiCORE:通过混合注意力机制和对比学习在序列推荐中提升消费者意图预测能力
《Expert Systems with Applications》:HiCORE: Enhancing Consumer Intent Prediction via Hybrid Attention and Contrastive Learning in Sequential Recommendation
【字体:
大
中
小
】
时间:2025年12月19日
来源:Expert Systems with Applications 7.5
编辑推荐:
HiCORE模型通过分层混合注意力机制、旋转位置编码和对比自监督学习,有效捕捉用户行为中的全局偏好与局部即时意图,实验表明其在多个数据集上显著优于基线模型,提升推荐准确率并支持精准营销策略。
本文提出了一种基于Transformer的序列推荐模型HiCORE,旨在通过整合分层混合注意力机制、旋转位置编码(RoPE)和对比自监督学习目标,提升消费者意图预测的准确性。研究结合商业应用需求,从技术层面和业务价值两个维度展开创新,为推荐系统在消费行为分析中的应用提供了新的技术路径。
### 核心创新与机制设计
1. **分层混合注意力机制**
模型通过交替使用全局双向注意力(奇数层)和局部单向注意力(偶数层),实现多尺度依赖建模。全局注意力捕捉用户长期偏好和宏观趋势,适用于市场细分和战略规划;局部注意力聚焦近期行为变化,支持实时营销决策。这种交替设计避免了并行融合结构(如Adaptive Mixture)的参数冗余,在保持计算效率的同时,通过结构化分离实现互补优化。
2. **旋转位置编码(RoPE)**
替代传统正弦波位置编码,RoPE通过旋转查询和键向量编码相对位置信息。实验表明,在长序列(如Tmall数据集)中,RoPE能有效捕捉超过100步的依赖关系,而传统方法在序列长度超过50步时出现显著性能衰减。该机制特别适用于电商场景中用户行为周期性规律的分析,例如识别美妆产品的复购周期或家电产品的季节性需求波动。
3. **对比自监督学习框架**
通过合成正负样本对(同一用户不同增强版本),构建对比学习任务。在Yelp数据集(平均序列长度5.2)中,仅使用掩码预测(MIP)的模型HR@1为0.0118,而引入对比学习后提升至0.0135,验证了其在稀疏数据中的鲁棒性。该设计能有效解决噪声问题,使模型在用户互动频率较低的场景(如Yelp本地服务数据)仍能保持稳定表现。
### 实验验证与效果分析
1. **基准数据集表现**
在Amazon Beauty(短序列,平均1.67次交互)中,HiCORE的MRR(平均 reciprocal rank)达到0.2659,较次优模型RepeatNet提升7.65%。在Tmall(长序列,平均56.2次交互)中,HR@10指标达0.1236,较基线模型提升19.07%,尤其在预测第5次交互商品时,准确率提升达21.87%。Yelp数据集验证了模型在短稀疏序列(平均5.2次交互)中的泛化能力,HR@10达到0.0709,优于传统矩阵分解模型ENMF(0.0260)。
2. **消融实验结果**
- 移除分层注意力(HA)后,所有数据集的HR@5指标平均下降11.2%,NDCG@10下降8.4%,表明分层结构对多尺度建模至关重要。
- 移除RoPE后,长序列数据集(Tmall)的HR@10下降12.3%,验证了相对位置编码对长期依赖建模的作用。
- 对比学习模块(SSL)的移除导致所有数据集的HR@5下降幅度超过15%,尤其在Yelp数据集(HR@5从0.0383降至0.0150)中体现明显,说明该模块能有效提升噪声抑制能力。
3. **计算效率优化**
相较于并行融合结构(如Parallel-Sum),HiCORE的推理速度提升34%。以Yelp数据集为例,在HR@5指标相同的情况下,计算延迟从20.7ms降至11.8ms,这为实时推荐系统部署提供了重要支撑。
### 业务价值与应用场景
1. **消费者行为分析**
模型可识别用户兴趣漂移轨迹。例如在Tmall数据中,用户对"美妆工具"(初始购买)到"护肤品"(后续推荐)的转化路径,通过分层注意力机制可捕捉到30%以上的关联性变化。
2. **动态营销策略优化**
通过局部注意力捕捉的实时兴趣变化(如购买前3次交互商品),结合全局注意力的长期偏好,企业可制定"短-长"双轨营销策略。例如:
- 短期:针对新用户前5次交互行为推送个性化商品(如Amazon Beauty中,第2次购买护手霜的用户,后续推荐精华液的成功率提升27%)
- 长期:基于全局兴趣模型(如美妆品类偏好)进行季度性促销活动,转化率比随机推送高19.8%
3. **库存管理与供应链协同**
通过分析用户购买时序中的位置敏感特征(RoPE编码),可识别商品生命周期曲线。例如某家电品牌在夏季的"购买间隔-销量"曲线与HiCORE的注意力权重分布高度吻合,帮助供应商提前2个月调整库存量。
### 方法论贡献
1. **注意力机制革新**
首次在推荐系统中实现交替式注意力架构,通过物理层分离(而非参数级融合)避免计算叠加。例如在LightGCN模型中,并行处理多模态特征导致参数量增加47%,而HiCORE通过层间交替设计保持参数规模稳定。
2. **位置编码理论突破**
RoPE编码将位置信息从绝对时序转换为相对距离度量,使模型对用户历史长度的适应性显著提升。在测试集延长50%历史记录时,传统模型准确率下降23%,而HiCORE仅下降4.7%。
3. **自监督学习范式优化**
通过三重增强策略(掩码、裁剪、重排)生成正样本对,在Amazon Beauty数据集上,正样本多样性提升至89%,有效缓解小样本学习难题。
### 实践应用建议
1. **短序列场景(<5次交互)**
采用局部窗口注意力(w=3-5),重点分析最近2-3次交互商品,结合掩码增强策略(M+C+R)。
2. **中长序列场景(5-50次交互)**
配置全局-局部交替层数(建议每10层交替一次),使用RoPE-N位置编码,增强跨期关联建模。
3. **超长序列场景(>50次交互)**
采用动态窗口调整机制,在全局注意力层使用窗口w=7-9,配合RoPE的相对位置编码,可有效抑制长程干扰。
### 未来研究方向
1. **多模态行为融合**
现有模型主要处理交互时序,未来可整合评论文本、图片上传、地理位置等多模态数据。实验表明,在Yelp数据集中加入商品图片特征,可使HR@1提升3.2%。
2. **动态分层机制**
开发自适应层间注意力切换算法,根据用户行为时序密度自动选择关注层级。例如在购买周期密集阶段(如新品发布季)自动增强局部注意力权重。
3. **意图漂移建模**
引入LSTM-Transformer混合架构,在层间加入意图漂移检测模块,当连续5次推荐点击率下降超过15%时触发模型重构。
4. **伦理与隐私保护**
开发联邦学习框架,在保护用户隐私前提下实现跨平台意图建模。实验显示,采用差分隐私的RoPE编码,模型性能下降幅度可控制在8%以内。
### 总结
HiCORE模型通过结构创新(分层注意力)、位置编码优化(RoPE)和自监督增强(SSL)三重突破,解决了推荐系统在长序列依赖建模、噪声抑制和实时性之间的平衡难题。其实践价值体现在:
- 商业决策:提升用户生命周期价值(CLV)预测准确率达18.7%
- 营销效率:A/B测试显示推荐列表点击率提升21.4%
- 系统可扩展性:支持万级用户/亿级商品规模的分布式部署
该研究为推荐系统与消费行为分析的深度融合提供了方法论框架,后续工作可结合眼动追踪、神经经济学等跨学科数据源,构建更完整的消费者决策模型。
生物通微信公众号
生物通新浪微博
今日动态 |
人才市场 |
新技术专栏 |
中国科学人 |
云展台 |
BioHot |
云讲堂直播 |
会展中心 |
特价专栏 |
技术快讯 |
免费试用
版权所有 生物通
Copyright© eBiotrade.com, All Rights Reserved
联系信箱:
粤ICP备09063491号