CN116205294A - 一种用于机器人社交的知识库自更新方法、装置及机器人 - Google Patents
一种用于机器人社交的知识库自更新方法、装置及机器人 Download PDFInfo
- Publication number
- CN116205294A CN116205294A CN202211666366.3A CN202211666366A CN116205294A CN 116205294 A CN116205294 A CN 116205294A CN 202211666366 A CN202211666366 A CN 202211666366A CN 116205294 A CN116205294 A CN 116205294A
- Authority
- CN
- China
- Prior art keywords
- social
- knowledge base
- current
- robot
- updating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000011273 social behavior Effects 0.000 claims abstract description 80
- 230000006399 behavior Effects 0.000 claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 13
- 238000013507 mapping Methods 0.000 claims abstract description 12
- 238000007635 classification algorithm Methods 0.000 claims abstract description 7
- 230000003997 social interaction Effects 0.000 claims description 32
- 230000001815 facial effect Effects 0.000 claims description 8
- 238000004458 analytical method Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 6
- 238000009411 base construction Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000006855 networking Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
- G06N5/025—Extracting rules from data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种用于机器人社交的知识库自更新方法,包括:构建包含多种社交信息的基础知识库;通过预设常识规则表推理不同社交对象之间的社交关系与每个社交对象的社交属性,并补全基础知识库;通过机器人要执行的社交行为与当前社交对象的社交属性,从补全的基础知识库中,查询当前社交对象的社交态度;根据预设映射规则表将社交态度解析为社交行为参数,根据社交行为参数与预设对应关系,获取实际移动速度与实际社交距离;执行社交行为,利用表情识别算法与文本分类算法识别并获取社交行为发生后,当前社交对象的表情反馈与语音反馈;根据表情反馈与语音反馈,按照预设行为参数更新表更新基础知识库中当前社交对象的社交态度。
Description
技术领域
本发明涉及智能机器人技术领域,尤其是指一种用于机器人社交的知识库自更新方法、装置及机器人。
背景技术
随着人工智能技术的发展,服务机器人因其在实现自然流畅的人机交互方面的优势而被应用于各种场景。目前的大多数服务机器人并不具备结构化的社交知识,它们在与人类互动时不会考虑复杂和全面的信息,例如环境、当前任务和对象的状态。面对截然不同的情况,他们的行为和态度可能是一样的;也就是说,尽管机器人处于不同的环境中,执行着不同的任务,或者面对不同的对象,它们总是会使用相同的固定模式与人类交互。这种社交策略不仅显得僵化,有时甚至会冒犯用户。
目前来说,现有的社交知识表达方法中的社交知识往往是零散的,而且是仅限在特定情景下实现的某些社交规范。同时,现有技术缺乏自主学习能力,阻碍了机器人的个性化社交知识获取,使其难以满足不同社交背景下服务机器人的社交互动需求。为了实现机器人社交知识的结构化表达,目前主要有两类方法:基于人工规则的方法和基于演示学习的方法,但这两种方法都存在一定的局限性;基于人工规则的方法通过人工定义的推理规则构建知识模块,仿真模块生成不同人物的动作,并将图像数据传输给感知模块;感知模块执行人体检测和跟踪以及人脸识别,将感知数据传输给知识模块;知识模块通过感知数据推理出社交互动状态;基于人工规则的方法严格遵循“判断-决策-执行”的行为模式,社交行为会显得死板僵硬;而基于演示学习的方法则需要大量的演示数据集来训练模型,成本高昂。
发明内容
为此,本发明所要解决的技术问题在于克服现有技术中机器人社交知识结构化表达实现复杂、无法实现自更新的问题。
为解决上述技术问题,本发明提供了一种用于机器人社交的知识库自更新方法,包括:
构建包含社交对象、基础属性、社交属性、社交关系、社交行为与社交态度的基础知识库;
通过预设常识规则表来推理不同社交对象之间的社交关系与每个社交对象的社交属性,并补全基础知识库;
通过机器人要执行的社交行为与当前社交对象的社交属性,从补全的基础知识库中,查询当前社交对象的社交态度;
根据预设映射规则表将当前社交对象的社交态度解析为社交行为参数,根据社交行为参数与预设对应关系,获取实际移动速度与实际社交距离;
根据所述实际移动速度与实际社交距离执行社交行为,利用表情识别算法与文本分类算法识别并获取社交行为发生后,当前社交对象的表情反馈与语音反馈;
根据所述表情反馈与语音反馈,按照预设行为参数更新表更新基础知识库中当前社交对象的社交态度。
在本发明的一个实施例中,所述基础知识库基于Neo4j图形数据库构建。
在本发明的一个实施例中,所述基础知识库的构建包括:
为所有的社交对象建立人物节点;
为每个人物节点填充包括姓名、性别、场景与身份的基础属性;
根据基础属性与预设常识规则表填充社交关系与社交属性,所述社交属性包括多种社交行为以及与多种社交行为所对应的多种社交态度;
所述社交态度包括对当前社交对象执行社交行为时的社交行为参数。
在本发明的一个实施例中,所述通过机器人要执行的社交行为与当前社交对象的社交属性从更新后的基础知识库中查询当前社交对象的社交态度包括:
通过机器人深度相机数据获取当前社交对象的面部数据;
利用MTCNN与FaceNet构建的人脸识别网络,解析所述面部数据,获取当前社交对象的基础属性;
根据当前社交对象的基础属性与机器人要执行的社交行为查询补全的基础知识库,获取当前社交对象的社交态度。
在本发明的一个实施例中,所述通过机器人要执行的社交行为与当前社交对象的社交属性从补全的基础知识库中查询当前社交对象的社交态度,还包括:
若补全的基础知识库中无法查询到当前社交对象,则为所述当前社交对象在补全的基础知识库中建立人物节点。
在本发明的一个实施例中,所述根据社交行为参数与预设对应关系获取实际移动速度与实际社交距离包括:
所述社交行为参数包括移动速度参数与社交距离参数;
根据移动速度参数计算机器人实际移动速度:
其中,vs表示移动速度参数值,sdwa表示局部路径规划算法中动态窗口法所发布的速度控制信号,smax表示机器人所能达到的最大移动速度;
根据社交距离参数计算机器人与当前社交对象的实际社交距离:
其中,vd表示社交距离参数值,dsafe表示机器人允许的最小社交距离。
在本发明的一个实施例中,所述表情反馈的获取包括:
通过机器人深度相机数据获取当前社交对象的面部数据;
利用MTNCC与卷积神经网络构建的表情识别网络解析面部数据,得到当前社交对象的表情反馈。
在本发明的一个实施例中,所述语音反馈的获取包括:
通过语音识别算法将当前社交对象发出的语音指令转换为语音文本数据;
利用BERT模型与全连接网络构建的文本分类网络识别所述语音文本信息,得到当前社交对象的语音反馈。
本发明还提供了一种用于机器人社交的知识库自更新装置,包括:
知识库构建模块,用于构建包含社交对象、基础属性、社交属性、社交关系、社交行为以及社交态度的基础知识库;
知识库更新模块,通过预设常识规则表来推理不同社交对象之间的社交关系与每个社交对象的社交属性,并补全基础知识库;
社交态度查询模块,通过机器人要执行的社交行为与当前社交对象的社交属性从补全的基础知识库中查询当前社交对象的社交态度;
社交态度解析模块,根据预设映射规则表将当前社交对象的社交态度解析为社交行为参数,根据社交行为参数与预设对应关系获取实际移动速度与实际社交距离;
反馈解析模块,根据所述实际移动速度与实际社交距离执行社交行为,利用表情识别算法与文本分类算法获取社交行为发生后,当前社交对象的表情反馈与语音反馈;
社交态度更新模块,根据所述表情反馈与语音反馈,按照预设行为参数更新表更新基础知识库中当前社交对象的社交态度。
本发明还提供了一种服务机器人,包括:
深度相机,用于采集当前社交对象的面部数据;
声音传感器,用于采集当前社交对象发出的语音指令;
如权利要求9所述的用于机器人社交的知识库自更新装置,与所述深度相机、声音传感器通讯连接,用于根据所述面部数据识别当前社交对象,并获取当前社交对象的社交态度,计算出实际移动速度与实际社交距离;根据所述面部数据获取表情反馈,根据所述语音指令获取语音反馈,并根据表情反馈与语音反馈,按照预设参数更新表更新基础知识库中当前社交对象的社交态度;
驱动装置,与所述用于机器人社交的知识库自更新装置通讯连接,用于根据所述实际移动速度与实际社交距离,驱动服务机器人执行社交行为。
本发明的上述技术方案相比现有技术具有以下优点:
本发明所述的机器人社交知识库自更新方法以社交对象为节点,构建图形化的社交知识库,通过预设常识规则表进行知识推理,补全社交知识库;通过当前社交对象的表情反馈与语音反馈,按照预设行为参数更新表更新对当前社交对象执行社交行为时的行为参数,实现了基于当前社交对象的社交知识库自更新,使机器人的社交行为参数更符合当前社交对象的社交喜好;通过设定不同的预设规则,满足不同场景下对机器人的社交互动需求。
附图说明
为了使本发明的内容更容易被清楚的理解,下面根据本发明的具体实施例并结合附图,对本发明作进一步详细的说明,其中
图1是本发明所提供的用于机器人社交的知识库自更新方法的步骤流程图;
图2是本发明所提供的用于机器人社交的基础知识库示意图;
图3是本发明所提供的用于机器人社交的知识库自更新方法的实际移动速度计算公式函数图像;
图4是本发明所提供的用于机器人社交的知识库自更新方法的实际社交距离计算公式函数图像;
图5是本发明所提供的用于机器人社交的知识库自更新方法的表情反馈识别示意图;
图6是本发明所提供的用于机器人社交的知识库自更新方法的语音反馈识别示意图;
图7是本发明所提供的用于机器人社交的知识库自更新方法的社交行为参数更新示意图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
参照图1所示,本发明所提供的用于机器人社交的知识库自更新方法,包括:
S1:构建包含社交对象、社交行为、社交关系、社交态度以及社交属性的基础知识库;
S11:参照图2所示,基于Neo4j图形数据库,构建包含社交对象、社交行为、社交关系、社交态度以及社交属性的基础知识库;
S12:在基础知识库中,为不同场景下所有社交对象建立人物节点;
S13:为每个人物节点填充基础属性;基本属性包括人物的姓名、性别、年龄、身份等基础信息,在不同场景下,基础属性的取值也会不同;
S14:根据社交规则,为每个人物节点填充社交属性;所述社交属性指机器人对当前社交对象执行社交行为时应当采取的社交态度,根据预设规则映射表获取与所述社交态度对应的移动速度参数与社交距离参数;
S15:通过创建人物节点之间的边的关系,表达不同社交对象之间的社交关系;
S2:通过常识规则来推理所述社交对象之间的社交关系与每个社交对象的社交属性,并补全基础知识库;
S21:根据预设常识规则表推理社交对象之间潜在的社交关系;
S22:根据社交对象的身份属性推理出其社交属性;
S3:通过机器人社交行为与当前社交对象的社交属性从补全的基础知识库中查询当前社交对象的社交态度;
S31:通过机器人的深度相机数据获取当前社交对象的人脸数据;
S32:利用MTCNN+FaceNet构建人脸识别网络;
S33:利用所述人脸识别网络识别所述人脸数据,获取当前社交对象的姓名;
S34:根据当前社交对象的姓名与机器人社交行为查询基础知识库获取社交态度;
S4:根据预设映射规则表将当前社交对象的社交态度解析为社交行为参数,将基础知识库中的社交态度更新为所述社交行为参数,根据所述社交行为参数执行社交行为;
S41:根据预设映射规则表将当前社交对象的社交态度解析为社交行为参数;所述社交行为参数包括移动速度参数与社交距离参数;
S42:参照图3所示,根据移动速度参数计算机器人实际移动速度:
其中,vs表示移动速度参数值,sdwa表示局部路径规划算法中动态窗口法所发布的速度控制信号,smax表示机器人所能达到的最大移动速度;
S43:参照图4所示,根据社交距离参数计算机器人与当前社交对象的实际社交距离:
其中,vd表示社交距离参数值,dsafe表示机器人允许的最小社交距离;
S44:根据当前社交对象的位置与所述实际社交距离生成导航行为目标点;
S45:根据所述实际移动速度控制机器人到达所述导航行为目标点,执行社交行为;
S5:利用表情识别算法与文本分类算法识别社交行为发生后,当前社交对象的表情反馈与语音反馈;
S51:参照图5所示,通过机器人深度相机数据获取当前社交对象的人脸数据;使用MTCNN+卷积神经网络构建表情识别网络;利用所述表情识别网络识别所述人脸数据,得到当前社交对象的表情反馈;
S52:参照图6所示,通过语音识别算法将当前社交对象发出的语音转换为文本信息;使用BERT模型+全连接网络构建文本分类网络;利用所述文本分类网络识别所述文本信息,得到当前社交对象的语音反馈;
S6:根据所述表情反馈与语音反馈,按照预设行为参数更新表更新基础知识库中当前社交对象的社交态度;
S61:参照图7所示,根据所述表情反馈与所述语音反馈,对照预设行为参数更新表,更新当前社交对象的社交行为参数;
S62:利用更新后的社交行为参数替代基础知识库中的当前社交对象的社交态度,得到符合当前社交对象的社交态度。
具体地,在基础知识库中,为不同场景下所有社交对象建立人物节点,添加节点基础属性与社交属性,构建社交关系。本实施例设计的场景包括学校场景、医院场景和家庭场景;学校场景下,基础属性中身份属性的取值有4个,分别为学生、家长、老师、校长;医院场景下,基础属性中身份属性的取值有4个,分别为患者、医生、护士、家属;家庭场景下,基础属性中身份属性的取值有3个,分别为父亲、母亲、孩子;人物节点身份属性的取值将会影响他的次要属性,比如具有学生身份的节点会具有班级属性,具有医生身份的节点会有科室属性。
在本发明实施例中,预设常识规则表如表1所示,为部分常识规则,机器人根据常识规则推导不同社交对象之间的社交关系。
表1预设常识规则表示例
参照表2所示,为预设映射规则表,机器人根据获取的当前社交对象的社交态度,解析出社交行为参数,即移动速度参数与社交距离参数,以便计算面对当前社交对象执行当前社交行为时的实际移动速度与实际社交距离。
表2预设映射规则表示例
参照表3所示,为预设行为参数更新表,机器人根据识别的当前社交对象的表情反馈与语音反馈,按照预设行为参数更新表更新当前的移动速度参数与社交距离参数,进一步改变机器人执行社交行为时的实际移动速度与实际社交距离。
表3预设行为参数更新表示例
用户反馈 | 移动速度参数更新 | 社交距离参数更新 |
表情反馈 | ||
生气 | -1.0 | +1.8 |
厌恶 | -0.5 | +1.5 |
害怕 | -0.5 | +1.0 |
开心 | +0.5 | -1.0 |
伤心 | +0.0 | +0.0 |
惊喜 | +1.0 | -1.5 |
中性 | +0.5 | +0.5 |
语言反馈 | ||
走快 | +1.0 | +0.0 |
走慢 | -1.0 | +0.0 |
离远 | +0.0 | +1.0 |
离近 | +0.0 | -1.0 |
本发明所提供的机器人社交知识库自更新方法通过图形化的数据库构建社交知识库,以社交对象为节点构建图形化的社交知识库,通过预设常识规则表进行知识推理,补全社交知识库;通过当前社交对象的表情反馈与语音反馈,按照预设行为参数更新表更新对当前社交对象执行社交行为时的行为参数,实现了基于当前社交对象的社交知识库自更新,使机器人的社交行为参数更符合当前社交对象的社交喜好;通过设定不同的预设规则,满足不同场景下对机器人的社交互动需求。
本发明实施例还提供了一种用于机器人社交的知识库自更新方法的装置,包括:知识库构建模块,用于构建包含社交对象、基础属性、社交属性、社交关系、社交行为以及社交态度的基础知识库;知识库更新模块,通过预设常识规则表来推理不同社交对象之间的社交关系与每个社交对象的社交属性,并补全基础知识库;社交态度查询模块,通过机器人要执行的社交行为与当前社交对象的社交属性从补全的基础知识库中查询当前社交对象的社交态度;社交态度解析模块,根据预设映射规则表将当前社交对象的社交态度解析为社交行为参数,根据社交行为参数与预设对应关系获取实际移动速度与实际社交距离;反馈解析模块,根据所述实际移动速度与实际社交距离执行社交行为,利用表情识别算法与文本分类算法获取社交行为发生后,当前社交对象的表情反馈与语音反馈;社交态度更新模块,根据所述表情反馈与语音反馈,按照预设行为参数更新表更新基础知识库中当前社交对象的社交态度,得到符合当前社交对象的社交态度。
本发明实施例还提供了一种服务机器人,包括:深度相机,用于采集当前社交对象的面部数据;声音传感器,用于采集当前社交对象发出的语音指令;如上述所述的用于机器人社交的知识库自更新装置,与所述深度相机、声音传感器通讯连接,用于根据所述面部数据识别当前社交对象,并获取当前社交对象的社交态度,计算出实际移动速度与实际社交距离;根据所述面部数据获取表情反馈,根据所述语音指令获取语音反馈,并根据表情反馈与语音反馈,按照预设参数更新表更新基础知识库中当前社交对象的社交态度;驱动装置,与所述用于机器人社交的知识库自更新装置通讯连接,用于根据所述实际移动速度与实际社交距离,驱动服务机器人执行社交行为。本发明实施例提供的一种服务机器人,还包括显示屏,用于提供多种社交行为选择按钮,以便当前社交对象选择社交行为,以便用于机器人社交的知识库自更新装置根据社交行为与当前社交对象获取社交态度。当服务机器人应用于不同场景时,为其设置不同的、适用于该种场景的预设常识规则表、预设映射规则表与预设行为参数规则表,以便满足在不同场景下的服务机器人社交互动需求。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,上述实施例仅仅是为清楚地说明所作的举例,并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (10)
1.一种用于机器人社交的知识库自更新方法,其特征在于,包括:
构建包含社交对象、基础属性、社交属性、社交关系、社交行为与社交态度的基础知识库;
通过预设常识规则表来推理不同社交对象之间的社交关系与每个社交对象的社交属性,并补全基础知识库;
通过机器人要执行的社交行为与当前社交对象的社交属性,从补全的基础知识库中,查询当前社交对象的社交态度;
根据预设映射规则表将当前社交对象的社交态度解析为社交行为参数,根据社交行为参数与预设对应关系,获取实际移动速度与实际社交距离;
根据所述实际移动速度与实际社交距离执行社交行为,利用表情识别算法与文本分类算法识别并获取社交行为发生后,当前社交对象的表情反馈与语音反馈;
根据所述表情反馈与语音反馈,按照预设行为参数更新表更新基础知识库中当前社交对象的社交态度。
2.根据权利要求1所述的用于机器人社交的知识库自更新方法,其特征在于,所述基础知识库基于Neo4j图形数据库构建。
3.根据权利要求2所述的用于机器人社交的知识库自更新方法,其特征在于,所述基础知识库的构建包括:
为所有的社交对象建立人物节点;
为每个人物节点填充包括姓名、性别、场景与身份的基础属性;
根据基础属性与预设常识规则表填充社交关系与社交属性,所述社交属性包括多种社交行为以及与多种社交行为所对应的多种社交态度;
所述社交态度包括对当前社交对象执行社交行为时的社交行为参数。
4.根据权利要求1所述的用于机器人社交的知识库自更新方法,其特征在于,所述通过机器人要执行的社交行为与当前社交对象的社交属性从更新后的基础知识库中查询当前社交对象的社交态度包括:
通过机器人深度相机数据获取当前社交对象的面部数据;
利用MTCNN与FaceNet构建的人脸识别网络,解析所述面部数据,获取当前社交对象的基础属性;
根据当前社交对象的基础属性与机器人要执行的社交行为查询补全的基础知识库,获取当前社交对象的社交态度。
5.根据权利要求4所述的用于机器人社交的知识库自更新方法,其特征在于,所述通过机器人要执行的社交行为与当前社交对象的社交属性从补全的基础知识库中查询当前社交对象的社交态度,还包括:
若补全的基础知识库中无法查询到当前社交对象,则为所述当前社交对象在补全的基础知识库中建立人物节点。
7.根据权利要求1所述的用于机器人社交的知识库自更新方法,其特征在于,所述表情反馈的获取包括:
通过机器人深度相机数据获取当前社交对象的面部数据;
利用MTNCC与卷积神经网络构建的表情识别网络解析面部数据,得到当前社交对象的表情反馈。
8.根据权利要求1所述的用于机器人社交的知识库自更新方法,其特征在于,所述语音反馈的获取包括:
通过语音识别算法将当前社交对象发出的语音转换为语音文本数据;
利用BERT模型与全连接网络构建的文本分类网络识别所述语音文本信息,得到当前社交对象的语音反馈。
9.一种用于机器人社交的知识库自更新装置,其特征在于,包括:
知识库构建模块,用于构建包含社交对象、基础属性、社交属性、社交关系、社交行为以及社交态度的基础知识库;
知识库更新模块,通过预设常识规则表来推理不同社交对象之间的社交关系与每个社交对象的社交属性,并补全基础知识库;
社交态度查询模块,通过机器人要执行的社交行为与当前社交对象的社交属性从补全的基础知识库中查询当前社交对象的社交态度;
社交态度解析模块,根据预设映射规则表将当前社交对象的社交态度解析为社交行为参数,根据社交行为参数与预设对应关系获取实际移动速度与实际社交距离;
反馈解析模块,根据所述实际移动速度与实际社交距离执行社交行为,利用表情识别算法与文本分类算法获取社交行为发生后,当前社交对象的表情反馈与语音反馈;
社交态度更新模块,根据所述表情反馈与语音反馈,按照预设行为参数更新表更新基础知识库中当前社交对象的社交态度。
10.一种服务机器人,其特征在于,包括:
深度相机,用于采集当前社交对象的面部数据;
声音传感器,用于采集当前社交对象发出的语音指令;
如权利要求9所述的用于机器人社交的知识库自更新装置,与所述深度相机、声音传感器通讯连接,用于根据所述面部数据识别当前社交对象,并获取当前社交对象的社交态度,计算出实际移动速度与实际社交距离;根据所述面部数据获取表情反馈,根据所述语音指令获取语音反馈,并根据表情反馈与语音反馈,按照预设参数更新表更新基础知识库中当前社交对象的社交态度;
驱动装置,与所述用于机器人社交的知识库自更新装置通讯连接,用于根据所述实际移动速度与实际社交距离,驱动服务机器人执行社交行为。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211666366.3A CN116205294A (zh) | 2022-12-23 | 2022-12-23 | 一种用于机器人社交的知识库自更新方法、装置及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211666366.3A CN116205294A (zh) | 2022-12-23 | 2022-12-23 | 一种用于机器人社交的知识库自更新方法、装置及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116205294A true CN116205294A (zh) | 2023-06-02 |
Family
ID=86513829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211666366.3A Pending CN116205294A (zh) | 2022-12-23 | 2022-12-23 | 一种用于机器人社交的知识库自更新方法、装置及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116205294A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117086871A (zh) * | 2023-08-30 | 2023-11-21 | 合肥中科深谷科技发展有限公司 | 一种开放式机器人交互控制系统 |
-
2022
- 2022-12-23 CN CN202211666366.3A patent/CN116205294A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117086871A (zh) * | 2023-08-30 | 2023-11-21 | 合肥中科深谷科技发展有限公司 | 一种开放式机器人交互控制系统 |
CN117086871B (zh) * | 2023-08-30 | 2024-02-06 | 合肥中科深谷科技发展有限公司 | 一种开放式机器人交互控制系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xi et al. | The rise and potential of large language model based agents: A survey | |
Hoey et al. | Affect control processes: Intelligent affective interaction using a partially observable Markov decision process | |
CN111098301B (zh) | 一种基于场景知识图谱任务型机器人的控制方法 | |
CN107544960B (zh) | 一种基于变量绑定和关系激活的自动问答方法 | |
CN108510049B (zh) | 基于情感-时空信息的机器人服务自主认知方法及机器人 | |
RU2670781C9 (ru) | Система и способ для хранения и обработки данных | |
CN111414506B (zh) | 基于人工智能情绪处理方法、装置、电子设备及存储介质 | |
CN116205294A (zh) | 一种用于机器人社交的知识库自更新方法、装置及机器人 | |
MacLellan et al. | A framework for natural cognitive system training interactions | |
Kritzler et al. | Digital companion for industry | |
Katiyar et al. | Recent trends towards cognitive science: from robots to humanoids | |
Jing et al. | A parallel education based intelligent tutoring systems framework | |
Najjar et al. | Constructivist ambient intelligent agent for smart environments | |
Collins Jackson et al. | Modelling an embodied conversational agent for remote and isolated caregivers on leadership styles | |
US20210357791A1 (en) | System and method for storing and processing data | |
Dodd | The design of procedural, semantic, and episodic memory systems for a cognitive robot | |
Wachsmuth | ’I, Max’-Communicating with an artificial agent | |
Collins Jackson et al. | A computational interaction model for a virtual medical assistant using situational leadership | |
Azmi | Artificial Intelligence & Adaptive Learning: The Power of Being So Personalized in Education | |
Ramík et al. | A soft-computing basis for robots’ cognitive autonomous learning | |
Takamuku et al. | Lexicon acquisition based on object-oriented behavior learning | |
Mobahi et al. | Concept oriented imitation towards verbal human-robot interaction | |
CN118261192A (zh) | 一种通用智能体及其控制方法 | |
Hoey et al. | Affect control processes: Probabilistic and decision theoretic affective control in human–computer interaction | |
CN116543082B (zh) | 数字人的生成方法、装置和数字人的生成系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |