嘘~ 正在从服务器偷取页面 . . .

Interactive


⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验

2025-10-23 更新

Sherlock Your Queries: Learning to Ask the Right Questions for Dialogue-Based Retrieval

Authors:Dong Yun, Marco Schouten, Dim Papadopoulos

User queries in information retrieval are often ambiguous, making it challenging for systems to identify a user’s target from a single query. While recent dialogue-based interactive retrieval systems can clarify user intent, they are inefficient as they often lack an explicit strategy to ask the most informative questions. To address this limitation, we propose SherlockLLM, a dialogue-driven retrieval framework that learns an optimal questioning strategy via Reinforcement Learning (RL) and avoids the need for large-scale annotated dialogue data. In our framework, an agent is trained to generate a sequence of binary questions to efficiently narrow down the search space. To validate our approach, we introduce a benchmark with both structured and unstructured tasks. Experimental results show that SherlockLLM is a robust and efficient solution. On the structured tasks, its performance matches strong baselines and approaches the theoretical optimal defined by binary search. On the challenging unstructured task, our agent significantly outperforms these baselines, showcasing its ability to learn a highly effective information-seeking dialogue policy.

用户在信息检索中的查询往往是模糊的,这使得系统很难从单个查询中识别用户的意图。虽然最近基于对话的交互式检索系统可以澄清用户意图,但它们缺乏明确的策略来提出最具信息性的问题,因此效率不高。为了解决这一局限性,我们提出了SherlockLLM,这是一个对话驱动的检索框架,它通过强化学习(RL)学习最佳提问策略,无需大规模注释对话数据。在我们的框架中,代理经过训练,能够生成一系列二进制问题,以有效地缩小搜索范围。为了验证我们的方法,我们引入了包含结构化和非结构化任务的基准测试。实验结果表明,SherlockLLM是一种稳健高效的解决方案。在结构化任务上,其性能与强大的基线相匹配,接近由二进制搜索定义的理论最优。而在具有挑战性的非结构化任务上,我们的代理显著优于这些基线,展示了其学习高效的信息搜索对话策略的能力。

论文及项目相关链接

PDF

Summary
用户查询在信息检索中常具有模糊性,使得系统难以从单一查询中识别用户目标。针对此问题,我们提出名为SherlockLLM的对话驱动检索框架,该框架通过强化学习(RL)学习最佳提问策略,无需大规模注释对话数据。训练代理生成一系列二进制问题以有效缩小搜索范围。实验结果显示,SherlockLLM是稳健且高效的解决方案。在结构化任务上,其性能匹配强基线并接近二进制搜索的理论最优值。在具有挑战性的非结构化任务上,我们的代理显著优于这些基线,展示了其学习高效信息搜索对话策略的能力。

Key Takeaways

  1. 用户查询在信息检索中的模糊性使得系统难以识别用户目标。
  2. SherlockLLM是一个对话驱动检索框架,通过强化学习学习最佳提问策略。
  3. SherlockLLM无需大规模注释对话数据。
  4. 该框架通过生成一系列二进制问题以有效缩小搜索范围。
  5. 在结构化任务上,SherlockLLM性能匹配强基线并接近理论最优值。
  6. 在非结构化任务上,SherlockLLM显著优于其他方法。

Cool Papers

点此查看论文截图

Decoding Listeners Identity: Person Identification from EEG Signals Using a Lightweight Spiking Transformer

Authors:Zheyuan Lin, Siqi Cai, Haizhou Li

EEG-based person identification enables applications in security, personalized brain-computer interfaces (BCIs), and cognitive monitoring. However, existing techniques often rely on deep learning architectures at high computational cost, limiting their scope of applications. In this study, we propose a novel EEG person identification approach using spiking neural networks (SNNs) with a lightweight spiking transformer for efficiency and effectiveness. The proposed SNN model is capable of handling the temporal complexities inherent in EEG signals. On the EEG-Music Emotion Recognition Challenge dataset, the proposed model achieves 100% classification accuracy with less than 10% energy consumption of traditional deep neural networks. This study offers a promising direction for energy-efficient and high-performance BCIs. The source code is available at https://github.com/PatrickZLin/Decode-ListenerIdentity.

基于脑电图(EEG)的人员识别技术为安全、个性化脑机接口(BCI)和认知监控等领域的应用提供了可能。然而,现有技术通常依赖于高计算成本的深度学习架构,限制了其应用范围。在这项研究中,我们提出了一种使用脉冲神经网络(SNN)的新型EEG人员识别方法,并配备了一个轻量级的脉冲变压器以提高效率和效果。所提出的SNN模型能够处理EEG信号固有的时间复杂性。在EEG音乐情绪识别挑战赛数据集上,该模型实现了高达百分之百的分类准确率,同时其能源消耗仅为传统深度神经网络的不到十分之一。本研究为能源高效和高性能的BCI提供了一个有前途的研究方向。源代码可在https://github.com/PatrickZLin/Decode-ListenerIdentity找到。

论文及项目相关链接

PDF

Summary

基于脑电图(EEG)的人员身份识别技术为安全、个性化脑机接口(BCI)和认知监控等领域的应用提供了可能。然而,现有技术通常依赖于高计算成本的深度学习架构,限制了其应用范围。本研究提出了一种基于脉冲神经网络(SNN)的EEG人员识别新方法,使用轻量级脉冲变压器以提高效率和效果。该SNN模型能够处理EEG信号固有的时间复杂性。在EEG音乐情绪识别挑战赛数据集上,该模型取得了100%的分类精度,能耗低于传统深度神经网络的10%。本研究为能源高效和高性能BCI提供了有前景的研究方向。

Key Takeaways

  1. EEG人员识别技术应用于安全、个性化BCI和认知监控等领域。
  2. 现有EEG识别技术主要依赖高计算成本的深度学习架构。
  3. 本研究提出基于脉冲神经网络(SNN)的EEG人员识别新方法。
  4. SNN模型能处理EEG信号的时间复杂性。
  5. 在EEG音乐情绪识别挑战赛数据集上,新模型达到100%分类精度。
  6. 新模型的能耗低于传统深度神经网络的10%。

Cool Papers

点此查看论文截图

CoDial: Interpretable Task-Oriented Dialogue Systems Through Dialogue Flow Alignment

Authors:Radin Shayanfar, Chu Fei Luo, Rohan Bhambhoria, Samuel Dahan, Xiaodan Zhu

Building Task-Oriented Dialogue (TOD) systems that generalize across different tasks remains a challenging problem. Data-driven approaches often struggle to transfer effectively to unseen tasks. While recent schema-based TOD frameworks improve generalization by decoupling task logic from language understanding, their reliance on neural or generative models often obscures how task schemas influence behaviour and hence impair interpretability. In this work, we introduce a novel framework, CoDial (Code for Dialogue), which converts a TOD task schema, represented as a novel structured heterogeneous graph, to programmatic LLM guardrailing code, such as NVIDIA’s Colang, enabling interpretable and efficient alignment of dialogue policies during inference. We introduce two paradigms, $\text{CoDial}{\text{free}}$ and $\text{CoDial}{\text{structured}}$ for generating LLM guardrails, and propose a feedback mechanism that integrates human feedback to iteratively improve the generated code. Empirically, CoDial achieves state-of-the-art (SOTA) performance on the widely used STAR dataset and is on par with SOTA on the MultiWOZ dataset, while also providing interpretability. We additionally demonstrate CoDial’s iterative improvement via manual and LLM-aided feedback, making it a practical tool for expert-guided alignment of LLMs in high-stakes domains.

构建能够跨不同任务进行泛化的任务型对话(TOD)系统仍然是一个具有挑战性的问题。数据驱动的方法通常难以有效地转移到未见过的任务。虽然最近的基于模式的TOD框架通过解耦任务逻辑与语言理解来改进泛化性能,但它们对神经网络或生成模型的依赖往往会掩盖模式如何影响行为,从而损害了解释性。在这项工作中,我们引入了一个新型框架CoDial(对话代码),它将TOD任务模式转换为程序化LLM防护代码,例如NVIDIA的Colang,从而在推理过程中实现可解释和高效的对话策略对齐。我们介绍了两种生成LLM防护栏的模式,即$\text{CoDial}{\text{free}}$和$\text{CoDial}{\text{structured}}$,并提出了一种反馈机制,该机制可以整合人类反馈来迭代改进生成的代码。经验上,CoDial在广泛使用的STAR数据集上达到了最新技术水平,并在MultiWOZ数据集上表现相当,同时还提供了可解释性。此外,我们还通过手动和LLM辅助反馈展示了CoDial的迭代改进,使其成为专家指导LLM对齐的高风险领域的实用工具。

论文及项目相关链接

PDF

Summary:本研究引入了一种名为CoDial的新型框架,它将任务导向对话(TOD)任务模式转换为程序化LLM引导代码,提高了泛化能力和可解释性。通过构建结构化异质图表示任务模式,并在对话策略生成期间实现程序化的守护栏路,CoDial实现了在推理过程中的可解释性和高效对齐。此外,CoDial还引入了两种生成LLM引导栏路的模式,并通过反馈机制整合人类反馈来迭代改进生成的代码。在STAR数据集上,CoDial实现了最先进的性能,并在MultiWOZ数据集上表现良好。同时,CoDial还展示了通过手动和LLM辅助反馈进行迭代改进的能力,使其成为专家指导下的高风险的LLM对齐实用工具。

Key Takeaways

  1. CoDial框架将任务导向对话(TOD)任务模式转换为程序化LLM引导代码,提高泛化能力和可解释性。
  2. CoDial利用结构化异质图来表示任务模式。
  3. CoDial框架实现推理过程中的对话策略的可解释性和高效对齐。
  4. CoDial引入两种生成LLM引导栏路的模式:$\text{CoDial}{\text{free}}$和$\text{CoDial}{\text{structured}}$。
  5. 通过反馈机制整合人类反馈来迭代改进生成的代码是CoDial的一大特点。
  6. 在STAR数据集上,CoDial表现出最先进的性能水平。

Cool Papers

点此查看论文截图


文章作者: Kedreamix
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Kedreamix !
 本篇
Interactive Interactive
Interactive 方向最新论文已更新,请持续关注 Update in 2025-10-23 Sherlock Your Queries Learning to Ask the Right Questions for Dialogue-Based Retrieval
2025-10-23
下一篇 
TTS TTS
TTS 方向最新论文已更新,请持续关注 Update in 2025-10-23 ParaStyleTTS Toward Efficient and Robust Paralinguistic Style Control for Expressive Text-to-Speech Generation
2025-10-23
  目录