嘘~ 正在从服务器偷取页面 . . .

无监督/半监督/对比学习


⚠️ 以下所有内容总结都来自于 大语言模型的能力,如有错误,仅供参考,谨慎使用
🔴 请注意:千万不要用于严肃的学术场景,只能用于论文阅读前的初筛!
💗 如果您觉得我们的项目对您有帮助 ChatPaperFree ,还请您给我们一些鼓励!⭐️ HuggingFace免费体验

2025-10-22 更新

CARE: Contrastive Alignment for ADL Recognition from Event-Triggered Sensor Streams

Authors:Junhao Zhao, Zishuai Liu, Ruili Fang, Jin Lu, Linghan Zhang, Fei Dou

The recognition of Activities of Daily Living (ADLs) from event-triggered ambient sensors is an essential task in Ambient Assisted Living, yet existing methods remain constrained by representation-level limitations. Sequence-based approaches preserve temporal order of sensor activations but are sensitive to noise and lack spatial awareness, while image-based approaches capture global patterns and implicit spatial correlations but compress fine-grained temporal dynamics and distort sensor layouts. Naive fusion (e.g., feature concatenation) fail to enforce alignment between sequence- and image-based representation views, underutilizing their complementary strengths. We propose Contrastive Alignment for ADL Recognition from Event-Triggered Sensor Streams (CARE), an end-to-end framework that jointly optimizes representation learning via Sequence-Image Contrastive Alignment (SICA) and classification via cross-entropy, ensuring both cross-representation alignment and task-specific discriminability. CARE integrates (i) time-aware, noise-resilient sequence encoding with (ii) spatially-informed and frequency-sensitive image representations, and employs (iii) a joint contrastive-classification objective for end-to-end learning of aligned and discriminative embeddings. Evaluated on three CASAS datasets, CARE achieves state-of-the-art performance (89.8% on Milan, 88.9% on Cairo, and 73.3% on Kyoto7) and demonstrates robustness to sensor malfunctions and layout variability, highlighting its potential for reliable ADL recognition in smart homes.

从事件触发的环境传感器识别日常活动(ADLs)是环境辅助生活的一项重要任务,但现有方法仍受到表示层面上的限制。基于序列的方法保持了传感器激活的时间顺序,但对噪声敏感,缺乏空间意识。而基于图像的方法捕捉全局模式和隐含的空间相关性,但会压缩精细的时间动态并扭曲传感器布局。简单的融合方法(例如特征拼接)未能加强序列和图像表示视图之间的对齐,未能充分利用它们的互补优势。我们提出了对比对齐方法(CARE),用于从事件触发的传感器流中识别ADL。CARE是一个端到端的框架,通过序列图像对比对齐(SICA)和交叉熵分类联合优化表示学习,确保跨表示对齐和任务特定的鉴别能力。CARE集成了(i)时间感知、噪声弹性的序列编码和(ii)空间感知和频率敏感的图像表示,并采用了(iii)联合对比分类目标,以学习对齐和鉴别性的嵌入的端到端学习。在三个CASAS数据集上进行的评估表明,CARE达到了最先进的性能(米兰89.8%,开罗88.9%,京都7达到73.3%),并展示了对传感器故障和布局变化的稳健性,突出了其在智能家居中进行可靠ADL识别的潜力。

论文及项目相关链接

PDF

Summary
基于事件触发的环境传感器进行日常活动识别是智能辅助生活中的重要任务。现有方法存在表示层面的局限性。序列方法保留传感器激活的临时顺序但易受噪声干扰且缺乏空间感知能力,图像方法捕捉全局模式和隐含的空间相关性但压缩了精细的时间动态并扭曲了传感器布局。本文提出对比对齐方法(CARE),通过序列图像对比对齐和交叉熵分类联合优化表示学习和分类,确保跨表示对齐和任务特定鉴别力。CARE集成时间感知、噪声抗扰序列编码与空间感知和频率敏感图像表示,并采用联合对比分类目标进行端到端学习对齐和鉴别嵌入。在三个CASAS数据集上的评估表明,CARE达到了最新性能水平,在米兰数据集上实现准确率高达89.8%,开罗数据集上为88.9%,京都数据集上为73.3%,展示了其对传感器故障和布局变化的稳健性,凸显其在智能家居中可靠识别ADL的潜力。

Key Takeaways

  1. 日常活动识别在智能辅助生活中至关重要,现有方法存在表示层面的局限性。
  2. 序列方法和图像方法各有优缺点,序列方法注重时间顺序但易受到噪声干扰,而图像方法捕捉全局模式但可能压缩时间动态。
  3. 单纯融合方法(如特征拼接)无法强制序列和图像表示之间的对齐,未能充分利用其互补优势。
  4. 提出了对比对齐框架CARE,通过序列图像对比对齐和交叉熵分类联合优化表示学习和分类。
  5. CARE集成了时间感知和噪声抗扰的序列编码,以及空间感知和频率敏感的图像表示。
  6. 采用联合对比分类目标进行端到端学习,实现对齐和鉴别嵌入。

Cool Papers

点此查看论文截图

Instance-Aware Pseudo-Labeling and Class-Focused Contrastive Learning for Weakly Supervised Domain Adaptive Segmentation of Electron Microscopy

Authors:Shan Xiong, Jiabao Chen, Ye Wang, Jialin Peng

Annotation-efficient segmentation of the numerous mitochondria instances from various electron microscopy (EM) images is highly valuable for biological and neuroscience research. Although unsupervised domain adaptation (UDA) methods can help mitigate domain shifts and reduce the high costs of annotating each domain, they typically have relatively low performance in practical applications. Thus, we investigate weakly supervised domain adaptation (WDA) that utilizes additional sparse point labels on the target domain, which require minimal annotation effort and minimal expert knowledge. To take full use of the incomplete and imprecise point annotations, we introduce a multitask learning framework that jointly conducts segmentation and center detection with a novel cross-teaching mechanism and class-focused cross-domain contrastive learning. While leveraging unlabeled image regions is essential, we introduce segmentation self-training with a novel instance-aware pseudo-label (IPL) selection strategy. Unlike existing methods that typically rely on pixel-wise pseudo-label filtering, the IPL semantically selects reliable and diverse pseudo-labels with the help of the detection task. Comprehensive validations and comparisons on challenging datasets demonstrate that our method outperforms existing UDA and WDA methods, significantly narrowing the performance gap with the supervised upper bound. Furthermore, under the UDA setting, our method also achieves substantial improvements over other UDA techniques.

对大量线粒体实例进行标注效率高的分割,对于电子显微镜(EM)图像在生物学和神经科学研究领域具有重要意义。尽管无监督域自适应(UDA)方法有助于缓解域偏移并降低每个域的标注成本,但它们在实际应用中的性能通常较低。因此,我们研究了弱监督域自适应(WDA),该方法利用目标域的额外稀疏点标签,只需最少的标注工作和专家知识。为了充分利用不完整和不精确的点标注,我们引入了一个多任务学习框架,该框架联合进行分割和中心检测,具有一种新型交叉教学机制和面向类别的跨域对比学习。在利用无标签图像区域方面,我们引入了分割自训练,并采用了新型实例感知伪标签(IPL)选择策略。与现有方法通常依赖于像素级伪标签过滤不同,IPL借助检测任务语义地选择可靠且多样的伪标签。在具有挑战性的数据集上进行的全面验证和比较表明,我们的方法优于现有的UDA和WDA方法,显著缩小了与监督上限的性能差距。此外,在无监督设置下,我们的方法还实现了对其他UDA技术的实质性改进。

论文及项目相关链接

PDF

Summary
本文探讨了利用弱监督域适应(WDA)技术解决电子显微镜(EM)图像中多个线粒体实例标注成本高昂的问题。通过引入多任务学习框架和新颖的交叉教学机制与面向类别的跨域对比学习,充分利用不完整的精确点标注。同时,引入分割自训练与实例感知伪标签(IPL)选择策略。实验验证,该方法在挑战性数据集上优于现有的UDA和WDA方法,显著缩小了与监督上限的性能差距。

Key Takeaways

  1. 弱监督域适应(WDA)技术用于解决电子显微镜(EM)图像中多个线粒体实例标注成本高昂的问题。
  2. 多任务学习框架通过联合进行分割和中心检测任务,充分利用不完整的精确点标注。
  3. 引入新颖的交叉教学机制和面向类别的跨域对比学习,提高模型性能。
  4. 首次提出实例感知伪标签(IPL)选择策略,用于分割自训练。
  5. IPL选择策略不同于现有方法依赖于像素级的伪标签过滤,它通过检测任务帮助选择可靠且多样的伪标签。
  6. 在挑战性数据集上的实验验证表明,该方法优于现有的UDA和WDA方法,显著缩小了与监督学习的性能差距。

Cool Papers

点此查看论文截图


文章作者: Kedreamix
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 Kedreamix !
 上一篇
Speech Speech
Speech 方向最新论文已更新,请持续关注 Update in 2025-10-22 DELULU Discriminative Embedding Learning Using Latent Units for Speaker-Aware Self-Supervised Speech Foundational Model
2025-10-22
下一篇 
人脸相关 人脸相关
人脸相关 方向最新论文已更新,请持续关注 Update in 2025-10-22 Beyond Real Faces Synthetic Datasets Can Achieve Reliable Recognition Performance without Privacy Compromise
2025-10-22
  目录