+高级检索
基于策略记忆的深度强化学习序列推荐算法研究
DOI:
作者:
作者单位:

作者简介:

通讯作者:

基金项目:


Research on Deep Reinforcement Learning Sequential Recommendation Algorithm Based on Policy Memory
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
    摘要:

    推荐系统旨在从用户-项目的交互中进行建模,为用户推荐感兴趣的内容,从而提 高用户体验. 然而大多数用户-项目的序列并不总是顺序相关的,而是有更灵活的顺序甚至存 在噪声. 为解决这一问题,提出一种基于策略记忆的深度强化学习序列推荐算法,该算法将用 户的历史交互存入记忆网络,使用一个策略网络将用户当前的行为模式更细致地划分为短期 偏好、长期偏好以及全局偏好,并引入注意力机制,生成相应的用户记忆向量,利用深度强化 学习算法识别对未来收益较大的项目 . 在用户和项目的交互中不断更新、强化学习网络的策 略以提高推荐准确性 . 在两个公共数据集的实验中表明,本文所提出的算法与最先进的基线 算法相比,召回率指标在2个数据集上分别提升了8.87%和11.20%.

    Abstract:

    The recommender system aims to build a model from the user-item interaction and recommend the content of interest to users, so as to improve the user experience. However, most user-item sequences are not always sequentially related but have more flexible sequences and even noise. In order to solve this problem, a deep reinforce? ment learning sequence recommender algorithm based on strategy memory is proposed. The algorithm stores the user’s historical interaction in the memory network, and then uses a strategy network to divide the user′s current behavior pattern into short-term preference, long-term preference, and global preference, and introduces the attention mecha? nism to generate the corresponding user memory vector. The deep reinforcement learning algorithm is used to identify the projects with great benefits in the future. The strategy of the reinforcement learning network is continuously up? dated in the interaction between users and items to improve the accuracy of the recommender. Experiments on two public data sets show that the proposed algorithm improves the recall index by 8.87% and 11.20%, respectively, com? pared with the most advanced baseline algorithm.

    参考文献
    相似文献
    引证文献
文章指标
  • PDF下载次数:
  • HTML阅读次数:
  • 摘要点击次数:
  • 引用次数:
引用本文

陈卓 ,姜伟豪 ,杜军威.基于策略记忆的深度强化学习序列推荐算法研究[J].湖南大学学报:自然科学版,2022,49(8):208~216

复制
历史
  • 收稿日期:
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2022-09-07
  • 出版日期:
版权声明:稿件一经被本刊录用,即视为作者将版权授予本刊,本刊有权根据工作需要,允许合作的数据库、新媒体平台及其他媒体进行二次转载、推介、下载和传播,如有异议,请在来稿中声明。
关闭