一种超图和自监督的协同训练算法

发布日期:2024年2月29日
一种超图和自监督的协同训练算法 一种超图和自监督的协同训练算法

本内容试读结束

下载后可阅读完整内容,立即下载

为了针对会话推荐中节点数量与图规模不断扩增而产生的节点稀疏问题,提出一种超图与自监督协同训练算法——DHCN-COTREC (Dual-Channel Convolutional for Hypergraphs and Collaborative Train-ing Recommendation)。首先,构建两个不同的图编码器,将数据进行编码用于自监督学习,产生正负样本信息;其次,引入协同训练算法,并加入发散约束进行对比学习,从而最大化两个编码器之间的互信息;最后,根据序列中最后一个项目与正样本之间的余弦距离,向用户推荐TOP-K个项目。本文在Tmall与Diginetica真实数据集上进行实验,结果表明,DHCN-COTREC算法的准确度和平均倒数排名比目前最优的DHCN算法分别提高了26%和1.92%。证实了DHCN-COTREC算法的有效性。

会话推荐是一种分析和挖掘用户当前语境和输入文本,并生成相应建议或回答的算法。随着在线客服、智能语音助手、聊天机器人等实时对话应用的兴起,会话推荐算法成为帮助用户快速解决问题或获取信息的重要工具 [1]。目前,会话推荐算法已广泛应用于电子商务、社交网络、音乐、电影等领域 [2], 大大提高了用户满意度并对平台的收益产生了积极影响。

会话推荐算法主要有循环神经网络(RNN)和图神经网络(GNN)两种建模方式。先前的会话推荐算法只考虑用户的最后一次点击或选择, 忽略了过去的点击信息。

基于RNN 的算法SR-RNN [3]首次将递归神经网络(Recurrent Neural Networks, RNN)应用于推荐系统,RNN 将会话数据作为单向序列进行建模。但当一个会话中,用户行为数量十分有限时,RNN 就很难捕获用户的行为表示。因为使用RNN 建模时,如果前面时序的动作项较少, 最后一个输出结果的准确性就比较低。

基于GNN 的算法SR-GNN [4]将历史会话序列构造为有向图, 捕捉项目之间的转化, 生成准确的项目嵌入向量, 无需严格按照时间顺序对项目进行排序。

但是GNN忽略了会话数据中项目之间的复杂相关性。

在真实场景下, 项目之间的转化通常是由之前各项的点击行为联合触发,而且项目与项目之间存在高度关联,简单的图结构无法描述这种复杂的集合关系。

超图是一种比普通图更广义的图形表示方法,传统图中的边只能连接两个节点,而超图中的边可以连接任意数量的节点。这使得超图能够表达更高阶的数据结构,并且更加灵活地处理数据的相关性。超图通常由顶点集和超边集构成, 其中超边集可以连接任意数量的顶点。

这样可以建立高阶数据的相关性, 同时超边是集合形式的,强调了所涉及元素的一致性而不是相对顺序,因此使用超图可以更好地捕捉会话中各项目之间的复杂交互。

最早将图卷积应用于超图的是HGNN [5], 提出了超图神经网络框架。

使用超图卷积操作解决了复杂数据表示学习中的高阶数据结构和数据相关性问题。同时在引文网络分类和视觉对象识别任务上进行了实验,与其他传统方法相比,HGNN 在多模态数据处理方面表现更好。但该模型存在一些局限性。例如, 该模型在处理大规模数据时可能会遇到困难,因为它需要计算超图中所有节点之间的关系。此外,该模型还需要对超图进行预处理,以便将其转换为标准图形式。HyperGCN [6]提出了基于超图的半监督学习方法,使用频谱图卷积和基于超图嵌入的思想,更好地使用超图对复杂关系进行建模。该论文中使用真实世界的超图数据集、DBLP 数据集和组合优化数据集进行实验,证明HyperGCN 的有效性和优越性, 特别是在一些有大量噪声超边的超图数据上。

Jiang 等人 [7]提出了一种动态超图神经网络, 该网络由动态



相关标签