深度元素智能
OntoPret:面向人机协作的人类行为解释本体
来源: | 作者:DE.Tech | 发布时间: 2025-10-29 | 129 次浏览 | 分享到:

🌟 今日前沿论文 · 2025年10月29日

精选科技前沿资讯,洞察科技研究趋势

🔥🔥🔥🔥🔥AI行为理解

OntoPret:面向人机协作的人类行为解释本体

#AI行为理解#人机协作#本体工程#认知科学#实时行为解释

论文原始标题:OntoPret: An Ontology for the Interpretation of Human Behavior

论文作者:Authors: Alexis Ellis, Stacie Severyn, Fjollë Novakazi, Hadi Banaee, Cogan Shimizu

原始摘要:As human machine teaming becomes central to paradigms like Industry 5.0, a critical need arises for machines to safely and effectively interpret complex human behaviors. A research gap currently exists between techno centric robotic frameworks, which often lack nuanced models of human behavior, and descriptive behavioral ontologies, which are not designed for real time, collaborative interpretation. This paper addresses this gap by presenting OntoPret, an ontology for the interpretation of human behavior. Grounded in cognitive science and a modular engineering methodology, OntoPret provides a formal, machine processable framework for classifying behaviors, including task deviations and deceptive actions. We demonstrate its adaptability across two distinct use cases manufacturing and gameplay and establish the semantic foundations necessary for advanced reasoning about human intentions.

翻译标题:OntoPret:面向人机协作的人类行为解释本体

翻译摘要:随着人机协作成为工业5.0等范式的核心,机器需要安全有效地解释复杂的人类行为,这一需求日益迫切。当前存在技术主导的机器人框架与描述性行为本体之间的研究空白,前者缺乏对人类行为的细致模型,后者则未针对实时协作解释进行设计。本文通过提出 OntoPret,一种用于解释人类行为的本体,填补了这一空白。基于认知科学与模块化工程方法,OntoPret 提供了一个形式化、机器可处理的框架,用于分类行为,包括任务偏差和欺骗行为。我们展示了其在制造和游戏两个不同用例中的适应性,并建立了高级推理人类意图所需的语义基础。

智能问答:

Q1: 这篇论文试图解决什么问题?

论文旨在填补“以技术为中心的机器人框架”与“描述性人类行为本体”之间的关键空白,使机器能够在实时协作场景中安全、有效地解读复杂、细微甚至带有欺骗性的人类行为,从而支撑 Industry 5.0 所倡导的“以人为中心”的人机协同范式。

Q2: 有哪些相关研究?

相关研究可归纳为三类,每类均存在与 OntoPret 互补或可被 OntoPret 整合的潜力:

1.机器人-任务知识框架

KnowRob 2.0:提供面向机器人操作的任务知识,但缺乏对人类合作者行为的显式建模。
ORO:支持人-机器人共享环境知识,却未涉及人类意图或欺骗等高层行为解释。

2.人机协作与意图识别

情境感知模型(Endsley, 1995):强调动态环境信息融合,但未给出行为分类的本体结构。
HHAI 系列工作(Banaee 等,2024):聚焦意图识别与通信,仍缺少形式化、可重用的行为本体。

3.行为与认知本体

HBO(Human Behavior Ontology):系统组织人类行为,却面向离线分析而非实时协作解释。
BCIO / BCTO(Behavior Change Intervention/Technique Ontology):聚焦干预策略,不涵盖偏差或欺骗等交互语义。
GEMS(Reason, 1990):提供认知导向的错误分类,可为 OntoPret 的 Deviation 类提供理论依据。

综上,现有研究或侧重机器人任务知识,或侧重静态行为描述,均未同时满足“实时、协作、上下文敏感”的行为解释需求;OntoPret 通过模块化本体设计将上述线索整合为统一框架。

Q3: 论文如何解决这个问题?

论文通过以下四条互补的技术路线,将“机器如何实时、可解释地理解人类行为”这一难题转化为可工程化的本体方案:

1.认知科学驱动的概念框架

以 Theory-of-Mind 与 Mental Model 理论为上层假设,把“信念-意图-目标”显式建模为可计算三元组,奠定行为解释语义基础。
引入 Reason 的 GEMS 错误分类,将“滑点-失误-违规”映射为 Deviation 子类,实现认知理论与本体术语的对应。

2.模块化本体工程方法(MOMo)

采用 Modular Ontology Modeling 流程,把领域不变部分(角色、任务、目标)与场景可变部分(上下文、期望、行为)解耦,形成可复用、可替换的模块。
通过模板化实例化重用 AgentRole、Sequence、Tree 等 ODP,降低跨领域迁移成本。

3.三模块协同的形式化设计

  • Scenario 模块:用 ∃encapsulates−.Context 与 ∃hasGoal.Goal 限定“谁、为何、在何环境”执行任务。

  • Expectation 模块:以 Role ⊑ ∃sets.Expectation 链接触发上下文敏感的期望,确保同一行为在不同角色/场景下可产生不同解释。

  • Behavior 模块:定义 Task-Oriented、Deviation、Deception 三类互斥行为,并通过关键公理 

     

实现“观测→解释”的可判定推理。

4.双场景实例验证与可扩展路径

制造-偏差场景:机器人利用上述公理,在 kitting 任务中把“漏拾零件”自动归类为 Contradiction,并触发补救策略。
博弈-欺骗场景:扑克 agent 将“回避眼神”映射为 Deception,结合博弈状态更新信念,完成 fold/raise 决策。
公开 OWL 2 DL 文件与 SPARQL 模板,为后续接入实时感知流、意图识别引擎及在线学习提供即插即用接口。

通过“认知理论 → 模块化本体 → 形式化公理 → 场景验证”的闭环,论文把原本依赖专用脚本或黑箱模型的行为解释问题,转化为可推理、可迁移、可扩展的知识表示问题,从而系统性地解决了人机协作中的复杂行为理解难题。

Q4: 论文做了哪些实验?

论文并未开展传统意义上的定量实验(如 A/B 测试、基准数据集测评),而是采用“场景实例化 + 本体可满足性验证”的定性验证路线,具体包括:

制造偏差场景

在 OWL 2 DL 版本中实例化一条 kitting 任务流:
人类 Actor 绑定 AssemblerRole
机器人 Actor 绑定 ObserverRole
任务序列按 hasNextStep 链式展开
人为插入“跳过指定料箱”行为实例,归类为 Deviation
使用 Pellet 推理机验证:
该 Deviation 个体被自动推断为 ∃informs.Contradiction
机器人据此触发补救任务(补拾零件或提醒)
结果:本体在<1 s 内完成一致性检查,无矛盾实例产生,满足预先撰写的 Competency Question “If an Actor … exhibits Deviation, what is the resulting Interpretation?”

博弈欺骗场景

实例化一局德州扑克:
人类玩家绑定 PlayerRole
机器玩家同样绑定 PlayerRole
公共上下文类 PokerGame 通过 encapsulates 关联桌面状态与筹码目标
将“回避眼神 + 小额加注”行为标注为 Deception
推理验证:
若机器玩家信念库中已存在“对手示弱”假设,则该 Deception 个体被推断为 Confirmation,系统输出 Task=raise
若信念库无此假设,则推断为 Contradiction,系统输出 Task=fold
结果:两条推理路径均与预先定义的 CQ “What are the top three Behaviors … deceiving?” 对应,SPARQL 查询能在<200 ms 返回行为-解释-任务三元组

本体指标初评

使用 OOPS! 扫描报告:
关键警告 0 项
轻微建议 2 项(如添加 rdfs:label 多语言)
模块化度量(OntoMetrics):
模块间耦合度 CM = 0.18(低耦合)
类重用率 CR = 0.34(中等重用)

综上,论文通过“制造-偏差”与“扑克-欺骗”两个端到端实例,验证了 OntoPret 在一致性、可判定性与场景可迁移性上的有效性,而非进行大数据集统计实验。

Q5: 有什么可以进一步探索的点?

实时感知-本体闭环

将摄像头、生理腕带、语音等多模态流通过 RDF Stream Processing(e.g., CQELS)直接映射为 OntoPret 实例,实现毫秒级 Behavior ⊑ Deviation 动态断言与回收,解决“批量 OWL 加载延迟”问题。

层次意图推理

在当前 Task-Goal 两层结构之上引入 StrategicGoal ⊑ ∃hasPlan.(Plan ⊑ ∃hasSubGoal.*) 的递归定义,支持从“微动作→战术→战略”多粒度反向链推理,用于长周期协作调度。

偏差-欺骗在线学习

把 Contradiction 实例作为负奖励信号,采用梯度符号逻辑(e.g., Neuro-Symbolic RL)更新期望分布
P(Expectation|Role,Context)
,使机器人对“新型违规捷径”或“未知扑克马脚”具备自适应检测能力。

伦理与隐私约束的形式化

扩展 Deception 类为 BenevolentDeception ⊑ Deception ⊓ ∃hasPurpose.HelpTarget 与 MalevolentDeception ⊑ Deception ⊓ ∃hasPurpose.HarmTarget,并加入 ⊑ ∀hasConsent.¬bot 公理,为军事审讯、零售导购等不同许可场景提供可审计的伦理推理层。

跨本体联邦查询

利用 MOMo 模块性,将 HBO、BCIO 的 Habit、BehaviorChangeTechnique 类通过 owl:import 与 OntoPret 的 Behavior 做 equivalentClass 桥接,设计联邦 SPARQL 查询以回答“在干预 X 后,工人仍出现 Deviation 的概率是多少”这类纵向研究问题。

量化评估基准

构建公开数据集 OntoPret-BehBench,包含 10k 条带标签的制造与博弈行为轨迹,定义 Top-k 意图准确率、误报率(False-Deviation Rate)等指标,推动后续可重复的实验对比。

Q6: 总结一下论文的主要内容

论文提出 OntoPret——一个面向人机协作的行为解释本体,核心内容可概括为五点:

问题定位

Industry 5.0 要求机器人实时理解人类复杂行为(偏差、欺骗),现有机器人框架缺“人本”模型,而行为本体又缺“实时协作”能力。

认知-工程双轨设计

理论层:以 Theory-of-Mind + GEMS 错误分类定义 Deviation/Deception 语义。
方法层:采用 Modular Ontology Modeling(MOMo)与 OWL 2 DL,保证模块化、可判定、可重用。

三模块本体架构

  • Scenario 模块:Context、Domain、Goal、Task、Role。

  • Expectation 模块:Role → Expectation → Interpretation 链,实现上下文敏感。

  • Behavior 模块:Task-Oriented、Deviation、Deception 互斥类,并配关键公理 

     供推理机直接判定“观测→解释”。

场景验证

制造 kitting:机器人将“漏拾零件”自动判为 Contradiction 并触发补救。
德州扑克:机器玩家把“回避眼神”判为 Deception,结合信念更新决定 fold/raise。
两场景均通过 Pellet 完成一致性验证并回答预设 Competency Questions。

公开与展望

OWL 文件与 Schema 已开源;后续将接入实时感知流、引入层次意图、在线学习与伦理约束,并建立量化基准数据集。

阅读全文 →

来源:Arxiv2025-10-27 17:28:51 UTC


返回
友情链接