请输入关键字
高瓴人工智能学院师生论文被国际学术会议WWW 2024录用
来源:高瓴人工智能学院
时间:2024.02.07

1月23日, 国际学术会议WWW 2024论文接收结果公布。高瓴人工智能学院师生有16篇论文被录用。WWW 2024(The Web Conference)是中国计算机学会(CCF) 推荐的A类国际学术会议。本年度会议将于2024年5月在新加坡举行。

论文介绍

论文题目:Generating Multi-turn Clarification for Web Information Seeking

作者:赵梓良,窦志成

通讯作者:窦志成

论文概述:提出多轮澄清问题已应用于各种对话式搜索系统中,以帮助向用户推荐人物、商品和图像。然而,它的重要性在Web搜索中仍然没有被强调。在本文中,我们首次尝试将多轮澄清生成扩展到Web搜索,以澄清用户模糊或多方面的意图。与其他对话式搜索场景相比,Web搜索查询更加复杂,因此应该生成澄清面板而不是现有研究中普遍应用的选择选择澄清面板。为此,我们首先定义了多轮Web搜索澄清的整个过程,包括澄清候选生成、最佳澄清选择和文档检索。由于缺乏多轮开放域澄清数据,我们首先设计一种简单而有效的基于规则的方法来适应上述三个组成部分。之后,我们利用大语言模型(LLM)的上下文学习和零样本教学能力,通过提示LLM进行少量的演示和声明来实现澄清生成和选择,进一步提高澄清效果。为了评估我们提出的方法,我们首先应用Qulac数据集来衡量我们的方法是否可以提高检索文档的能力。我们使用MIMICS数据集进一步评估生成的方面项的质量。实验结果表明,与现有的单轮Web搜索澄清方法相比,我们提出的框架更适合开放域Web搜索系统中提出多轮澄清问题以澄清用户模糊或多方面的意图。

论文题目:Metacognitive Retrieval-Augmented Large Language Models

作者:周雨佳,刘政,金佳杰,聂建云,窦志成

通讯作者:刘政,窦志成

论文概述:在自然语言处理领域,检索增强型语言模型是解决幻觉问题的的关键技术。传统方法主要基于单次检索,最新的研究趋势已经转向利用多次检索来处理复杂的多跳推理任务。然而,即便这些方法取得了一定进步,现有的策略仍受限于预设的推理步骤,这可能会导致在生成回应时出现不准确。本文介绍了一种创新方法——元认知检索增强生成框架(MetaRAG)。该框架将检索增强生成过程与认知心理学中人类元认知过程相结合。元认知使得人们能够自我反思,并且批判性地评估自身的认知过程。通过融入这一理念,MetaRAG赋予了模型监控、评估及规划响应策略的能力,从而加强了其内省推理能力。通过一个包含三个步骤的元认知调节流程,模型不仅能评估其答案的适当性,还能识别潜在不足的原因,并制定出改进方案。在多跳问答数据集上的实证评估表明,MetaRAG在性能上显著超越了现有方法。

论文题目:Cognitive Personalized Search Integrating Large Language Models with an Efficient Memory Mechanism

作者:周雨佳,朱倩男,金佳杰,窦志成

通讯作者:窦志成

论文概述:传统的搜索引擎通常向所有用户展示相同的搜索结果,这种做法忽视了个人的搜索偏好。为了解决这一问题,研究者们开发出了个性化搜索技术,该技术能够根据用户的查询日志分析出个人偏好,并据此调整搜索结果的排序。虽然基于深度学习的个性化搜索方法展现出巨大潜力,但它们高度依赖大量的训练数据,因此面临数据稀缺的挑战。本文提出了一种新型的认知个性化搜索(CoPS)模型,该模型将强大的大型语言模型与人类认知的认知记忆机制相结合。CoPS利用大型语言模型来构建用户画像,从而提升了用户的搜索体验。这一认知记忆机制包括:用于迅速感知反应的感知记忆,用于处理复杂认知任务的工作记忆,以及用于储存海量历史互动数据的长期记忆。CoPS通过三个步骤高效处理新的查询请求:首先识别用户的重复查找行为,然后构建包含相关历史信息的用户画像,最后根据个性化的查询意图对搜索结果进行排序。实验结果显示,CoPS模型在零样本测试场景中表现优于基线模型。

论文题目:Mining Exploratory Queries for Conversational Search

作者:刘文涵,赵梓良,朱余韬,窦志成

通讯作者:窦志成

论文概述:在对话式搜索中,查询澄清技术通过向用户提问一个澄清式问题并提供可选择的澄清候选项来更好地澄清用户的查询子意图。然而,用户除了这种澄清需求,还可能有一些探索性需求。例如一个搜索“卡地亚女士手表”的用户可能还想通过搜索“劳力士女士手表”或者“卡地亚女士项链”来探索一些跟当前查询平行的探索式查询。这种探索性的信息需求在用户搜索行为中很常见,但却难以被查询澄清技术满足。本文聚焦于挖掘并向用户推荐这种探索式的查询来更好地满足用户在对话式搜索中的探索性信息需求。为此,我们首先设计了一个基于规则的模型来根据查询搜索结果中的结构化信息生成探索式查询。其次,我们提出使用弱监督数据并结合多任务学习训练生成模型,从而对基于规则的模型进行泛化。最后,我们利用大模型的情境学习能力并结合提示工程技术来生成探索式查询。我们基于人工标注构建了我们这个任务的评测集并进行了一系列的实验。实验结果证明了我们提出的模型的有效性,同时也证明了使用搜索结果中的结构化信息生成探索式查询的可行性。

论文题目: Spectral Heterogeneous Graph Convolutions via Positive Noncommutative Polynomials

作者:何明国,魏哲巍,Shikun Feng, Zhengjie Huang, Weibin Li, Yu Sun, Dianhai Yu

通讯作者:魏哲巍

论文概述:异构图神经网络(HGNNs)在各种异构图学习任务中获得了显著的成功。然而,大多数现有的HGNNs依赖于空域的方法来聚合信息,往往手动选择元路径或使用一些启发式模块,缺乏理论保证。此外,这些方法无法在频谱域内学习任意有效的异构图过滤器,这限制了它们的表达能力。为了解决这些问题,我们提出了一种通过正的非交换多项式实现的频谱异构图卷积。基于该图卷积,我们提出了PSHGCN,一种新颖的异构图卷积网络。PSHGCN提供了一种简单而有效的方法来学习有效的异构图滤波器。此外,我们在图优化框架中表明了PSHGCN的合理性。我们进行了广泛的实验研究,证明了 PSHGCN可以学习多样的异构图滤波器,并在真实数据上超越了现有方法。

论文题目:Exploring Neural Scaling Law and Data Pruning Methods For Node Classification on Large-scale Graphs

作者:Zhen Wang,Yaliang Li,Bolin Ding,魏哲巍

通讯作者:魏哲巍

论文概述:这篇论文揭示了在直推式节点分类设置下,图神经网络(GNNs)存在幂律缩放,其中指数大小意味着不令人满意的样本效率。受到现有研究中报告的具有相似聚合特征的节点性能相关性的启发,本文提出利用直推式设置来修剪具有与测试节点不同的聚合特征的节点。大型图上的实证结果证实了这种修剪策略的有效性,并且本文放宽了先前理论分析中的一个假设。

论文题目:FairSync: Ensuring Amortized Group Exposure in Distributed Recommendation Retrieval

作者:徐晨,徐君,丁一鸣,张骁,祁琦

通讯作者:徐君

论文概述:为了追求公平和平衡的发展,推荐系统(RS)通常优先考虑群体公平,确保特定群体在一定时期内保持最低曝光水平。例如,RS平台通常需要确保新提供者或特定类别的物品根据它们的需求获得足够的曝光。现代工业RS通常采用两阶段流程:第一阶段(retrieval阶段)从分布在各种服务器上的数百万个物品中检索候选项,第二阶段(rank阶段)专注于从第一阶段选择的物品中呈现小而准确的选择。现有的确保分摊群体曝光的工作通常集中在第二阶段,然而,第一阶段对于任务也是至关重要的。没有高质量的候选项集,第二阶段的ranker无法确保群体的所需曝光。为确保分布检索过程中的群体曝光,我们引入了一个名为FairSync的模型,将问题转化为受约束的分布式优化问题。具体来说,FairSync通过将问题移至对偶空间来解决问题,在这个空间中,中央节点将历史公平数据聚合成一个向量并将其分发到所有服务器。为了在效率和准确性之间权衡,我们使用梯度下降技术周期性更新对偶向量的参数。我们的实证实验证明,我们的方法在满足公平要求的同时,在各种条件下甚至在极端情况下都能实现更好的检索准确性。

论文题目:AgentCF: Collaborative Learning with Autonomous Language Agents for Recommender Systems

作者:张君杰,侯宇蓬,谢若冰,孙文奇,Julian McAuley,赵鑫,林乐宇,文继荣

通讯作者:赵鑫

论文概述:大语言模型强大的决策能力展现了作为人类代理的潜力。然而现有工作关注于模拟人类对话,而人类非语言行为的模拟,例如推荐系统中的物品点击,尽管可以隐式的展现用户偏好以及增强用户建模,尚没有被深入探索。我们认为主要原因在于语言建模和行为建模的差异以及大语言模型对用户-物品关系缺乏理解。为了解决这个问题,我们提出了AgentCF,通过基于智能体的协同过滤来模拟推荐系统中的用户-物品交互行为。我们将用户和物品都模拟为智能体,并利用协同学习的方式同时对二者进行优化。具体来说,在每个时间步,我们首先提示用户和物品智能体进行自主交互。然后,基于智能体交互决策和真实世界交互记录的差异,我们提示智能体协同地反思和调节错误的模拟偏好信息,从而学习和建模用户和物品之间的关系。在后续交互过程中,这些智能体进一步将习得的偏好传播给其余的智能体,隐式的建模了协同过滤。基于这个框架,我们模拟了多样化的用户-物品交互形式,结果表明这些智能体可以展示类人的行为。

论文题目:Understanding Human Preferences: Towards More Personalized Video to Text Generation

作者:吴宜函,宋睿华,陈旭,蒋昊, 曹朝,Jin Yu

通讯作者:宋睿华,陈旭

论文概述:视频到文本生成模型已经取得了显著的成功,但它们大多关注在如何理解视频内容,忽略了如何捕捉人类个性化的偏好。对于构建一个的有吸引力的多模态聊天机器人,这是非常需要的。在本工作中,我们定义了个性化视频评论生成的任务,并设计了一个端到端的个性化框架来解决该任务。具体而言,我们认为视频评论生成的个性化可以体现在两个方面,(1)对于同一段视频,不同的用户可能会对不同的片段进行评论;(2)对于同一段视频,不同的人也可能会以不同的评论风格表达不同的观点。因此我们设计了两个模块——视频帧选择模块和个性化生成模块。视频帧选择模块负责预测用户可能在视频中感兴趣的位置,个性化文本生成模块根据上述预测的片段和用户的偏好生成评论。在我们的框架中,这两个组件以端到端方式进行优化以相互增强,同时我们设计了基于置信度感知的计划采样和迭代生成策略,以解决在推理阶段缺乏真实片段的问题。由于缺乏个性化的视频到文本数据集,我们收集并发布了一个新的数据集来研究这个问题,同时我们进行了大量的实验来证明我们模型的有效性。

论文题目:Bridging the Space Gap: Unifying Geometry Knowledge Graph Embedding with Optimal Transport

作者:刘雨涵,曹泽麟,高星,张佶,严睿

通讯作者:严睿

论文概述:知识图谱的表示是一个关键技术,它的目的是将知识图谱中的元素转化为连续空间中的向量形式,从而为结构化数据提供强大的表示能力。目前,使用双曲空间或欧几里得空间来表达知识图谱已成为研究领域的常用方法。然而,知识图谱通常包含多种几何数据结构,例如链状和层次状结构,这些复杂的结构特性往往超出了单一空间表示法的有效范围。为此,我们创新性地提出了一种名为UniGE的表示方法,旨在应对知识图谱中不同几何结构的数据表示挑战。UniGE是首个结合双曲空间和欧几里得空间表示法的方法,采用了最优传输理论和Wasserstein重心的思想,引入了一种创新的表示对齐和融合策略。我们还提供了全面的理论分析,确立了更加稳健的误差边界,从而证明了我们方法的优势。在三个主要的基准数据集上进行的实验表明,UniGE在有效性方面表现出色,且与理论分析得出的结论相一致。

论文题目:Unify Graph Learning with Text: Unleashing LLM Potentials for Session Search

作者:吴宋浩,涂权,刘洪,徐家,刘忠义,张冠男,陈秀颖,严睿

通讯作者:陈秀颖,严睿

论文概述:面对日益复杂的信息需求,用户往往通过一系列交互式查询和操作来实现最终的检索任务,这一过程被称为会话搜索(session search)。当前策略通常考虑优化序列建模方法以实现更好的语义理解,但忽视了交互中的图结构对理解用户意图的帮助。一些方法专注于捕捉结构化行为数据,但它们使用泛化的文档表示,忽略了词级别细粒度的语义交互。在本文中,我们提出了基于符号图(Symbolic Graph)的会话搜索模型,旨在利用大语言模型的优势,实现文本语义和图结构的结合。具体来说,我们首先提出了自定义符号图的文法,使用符号语法规则将图结构数据转换为文本。这使得集成会话搜索历史、交互过程和任务描述为语言模型的输入成为可能。鉴于自定义的符号语言理解同大语言模型预训练任务的差距,为此我们引入了一系列自监督符号学习任务,包括链接预测、节点内容生成和基于文本生成方法的图对比学习,使大语言模型能够从粗粒度到细粒度捕捉拓扑信息。在AOL和Tiangong-ST两个基准数据集上的实验结果证实了我们方法的优越性。我们的范式还提供了一种新颖有效的方法论,弥合了传统搜索方法与现代大语言模型之间的差距。

论文题目:Harnessing Multi-Role Capabilities of Large Language Models for Open-Domain Question Answering

作者:孙宏达,刘宇轩,吴成伟,闫海钰,邰骋,高欣,商烁,严睿

通讯作者:严睿

论文概述:开放域问答(ODQA)是网络挖掘领域的一个关键研究热点。现有的 ODQA 方法遵循两种主要范式来收集证据:1)retrieve-then-read范式从外部语料库中检索相关文档; 2) generate-then-read范式采用大型语言模型 (LLM) 来生成相关文档。尽管两种范式都有各自的优点,但单一范式无法兼顾多方面的证据需求。为此,我们提出了一个通用框架LLMQA,将ODQA过程制定为三个基本步骤:查询扩展、文档选择和答案生成,作为一种结合基于检索和生成的证据优势的新颖范式。现有研究已证实LLM展现其出色的角色扮演能力来完成各种类型的任务。因此,与之前利用专门的模型来完成ODQA的各个模块不同,我们指导LLM在我们的统一框架中分别扮演生成器、重排序器和评估器的多重角色,并将它们集成起来相互协作,共同提高ODQA任务的性能。此外,我们引入了一种新的提示优化算法来改善角色扮演提示,引导LLM产生更高质量的证据和更准确的答案。 我们在三个广泛使用的benchmarks:NQ、WebQ 和 TriviaQA上进行了实验。结果表明,LLMQA在答案准确性和证据质量方面都可以达到最佳性能,展示了其推进 ODQA 研究和应用的潜力。

论文题目:A Quasi-Wasserstein Loss for Learning Graph Neural Networks

作者:程敏杰,许洪腾

通讯作者:许洪腾

论文概述:在图神经网络(GNNs)进行节点级预测任务时,大多数现有的损失函数是独立应用各个节点的,尽管由于图结构的存在,节点嵌入和它们的标签并非独立同分布。为了消除这种不一致性,我们提出了“Quasi-Wasserstein”损失(QW loss),利用图上定义的最优传输,设计了一种新的GNNs的学习和预测范式。 在训练阶段,通过最小化节点标签与它们的预测值之间的Quasi-Wasserstein距离学习基于边上的标签的最优传输。利用基于Bregman散度的正则化器,我们得到两个求解器学习GNN和标签传输。 在预测节点标签时,我们的模型将GNN的输出与由标签传输得到的残差量结合,得到一种新的transductive预测范式。实验证明,所提出的QW loss有助于改善在节点级分类和回归任务中的性能。

论文题目:Causally Debiased Time-aware Recommendation

作者:王磊,马辰,吴贤,邱昭鹏,郑冶枫,陈旭

通讯作者:陈旭

论文概述:时间感知的推荐算法得到了人们的大量关注,被广泛用于动态建模用户的喜好,但是用户的交互受到用户偏好的影响,在时间分布上是不均匀的,进而会导致数据和推荐模型产生偏差,模型性能下降。因此,我们提出了一种因果去偏时间感知推荐框架,从时间和物品两个维度同时进行去偏。考虑到用户行为的复杂性,我们用敏感性分析建模未测量混淆因子,进一步提高去偏的效果。我们在三个现实世界的数据集上进行了大量实验,以展示我们模型的有效性。

论文题目:On Truthful Item Acquiring Mechanisms for Reward Maximization

作者:单良,张硕,王子贺,张捷

通讯作者:王子贺、张捷

论文概述:本文研究了收集者仅根据物主申报的物品质量和独立评估师的评分来决定是否收取物品的问题。其中物主希望最大限度的提高收集者收取物品的概率,并且只有物主知道物品的实际质量。评估师公正地履行职责,但她的评估可能会受到随机噪音的影响,因此可能无法准确反映物品的实际质量。该问题的主要挑战在于设计一种机制能够使物主透露出真实准确的信息,从而优化收集者的预期回报。本文针对单一物品与多物品情况设计了一系列机制,并且还通过实验验证了这些机制的有效性与鲁棒性。本文研究的内容在会议文章录用决策、应用商店审核流程、二手房产市场、古董收藏品市场等多个方向都有能够应用的广泛空间。

论文题目:List-aware Reranking-Truncation Joint Model for Search and Retrieval-augmented Generation

作者:徐士成、庞亮、徐君、沈华伟、程学旗

通讯作者:庞亮

论文概述:信息检索(IR)的结果通常以候选文档的排名列表的形式呈现,例如面向人类的网络搜索和面向大型语言模型(LLM)的检索增强范式。 列表感知检索旨在捕获列表级上下文特征以返回更好的列表,主要包括重排序和截断。 重排序会对列表中的文档进行精细地重新评分。 截断动态确定排名列表的截止点,以实现整体相关性和避免不相关文档的错误信息之间的权衡。 之前的研究将它们视为两个独立的任务并分离建模。 然而,分离建模并不是最佳的。 首先,两个任务之间很难共享信息。 具体来说,重排序可以为截断提供细粒度的相关性信息,而截断可以为重排序提供效用需求。 其次,这通常会遇到错误累积问题,其中重排序阶段的微小错误可能会在很大程度上影响截断阶段的结果。 为了解决这些问题,我们提出了一种可以同时执行这两个任务的重排序-截断联合模型(GenRT)。 GenRT 利用基于编码器-解码器架构的生成范式来同时执行重排序和截断两个任务。 我们还设计了用于联合优化的损失函数,使模型能够平衡高效地学习这两项任务。 在公开的learning-to-rank基准和开放域问答任务上的实验表明,我们的方法在面向网络搜索和检索增强的大语言模型的重排和截断任务上均实现了最佳性能。

编辑:彭椿庭
责任编辑:董涵琪