CN107103269A - 一种表情反馈方法及智能机器人 - Google Patents
一种表情反馈方法及智能机器人 Download PDFInfo
- Publication number
- CN107103269A CN107103269A CN201610099484.9A CN201610099484A CN107103269A CN 107103269 A CN107103269 A CN 107103269A CN 201610099484 A CN201610099484 A CN 201610099484A CN 107103269 A CN107103269 A CN 107103269A
- Authority
- CN
- China
- Prior art keywords
- information
- face
- intelligent robot
- identification model
- characteristic point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 12
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 230000036651 mood Effects 0.000 claims description 8
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种表情反馈方法及智能机器人,属于智能设备;方法包括:步骤S1,智能机器人采用图像采集装置采集图像信息;步骤S2,智能机器人检测图像信息中是否存在表示人脸的人脸信息:若是,则获取关联于人脸信息的位置信息和大小信息,随后转向步骤S3;若否,则返回步骤S1;步骤S3,根据位置信息和大小信息,预测得到人脸信息中的多个特征点信息并输出;步骤S4,采用一预先训练形成的第一识别模型,根据特征点信息判断人脸信息是否表示笑脸,随后退出:若是,则智能机器人输出预设的表情反馈信息;若否,则退出。上述技术方案的有益效果是:丰富智能机器人和使用者之间的信息交互内容,从而提升使用者的使用体验。
Description
技术领域
本发明涉及智能设备技术领域,尤其涉及一种表情反馈方法及智能机器人。
背景技术
随着智能设备的制造和研发技术的飞速发展,有一种比较特殊的智能设备——智能机器人开始走进人们的生活。所谓智能机器人,其实是一种功能多样化的智能设备,相当于在一个智能设备中集成了不同种类的智能设备的不同功能。例如在一个智能机器人中可能集成有音频播放设备的音频播放功能,视频播放设备的视频播放功能,智能语音设备的语音对话功能以及其他各类功能。
现有技术中,智能机器人可以根据使用者输入的信息做出反馈,即智能机器人可以跟使用者之间进行比较简单的信息交互。但是智能机器人针对使用者做出的反馈信息通常是“冷冰冰”的,即并不会依照使用者输入信息时的不同情绪做出不同的反馈,因此造成使用者与智能机器人之间的信息交互的内容比较死板,从而降低使用者的使用体验。
发明内容
根据现有技术中存在的上述问题,现提供一种表情反馈方法及智能机器人的技术方案,旨在丰富智能机器人和使用者之间的信息交互内容,从而提升使用者的使用体验。
上述技术方案具体包括:
一种表情反馈方法,适用于智能机器人,所述智能机器人上设置有图像采集装置;其中,包括:
步骤S1,所述智能机器人采用所述图像采集装置采集图像信息;
步骤S2,所述智能机器人检测所述图像信息中是否存在表示人脸的人脸 信息:
若是,则获取关联于所述人脸信息的位置信息和大小信息,随后转向步骤S3;
若否,则返回所述步骤S1;
步骤S3,根据所述位置信息和所述大小信息,预测得到所述人脸信息中的多个特征点信息并输出;
多个所述特征点信息分别关联于所述人脸信息表示的所述人脸的各部位;
步骤S4,采用一预先训练形成的第一识别模型,根据所述特征点信息判断所述人脸信息是否表示笑脸,随后退出:
若是,则所述智能机器人输出预设的表情反馈信息;
若否,则退出。
优选的,该表情反馈方法,其中,于所述智能机器人内预先训练形成一用于检测所述人脸信息的第二识别模型;
则所述步骤S2具体为:
所述智能机器人采用所述第二识别模型检测所述图像信息中是否存在所述人脸信息:
若是,则获取关联于所述人脸信息的位置信息和大小信息,随后转向步骤S3;
若否,则返回所述步骤S1。
优选的,该表情反馈方法,其中,于所述智能机器人内预先训练形成一用于预测所述特征点信息的第三识别模型;
则所述步骤S3具体为:
采用所述第三识别模型,根据所述位置信息和所述大小信息预测得到所述人脸信息中的多个所述特征点信息并输出。
优选的,该表情反馈方法,其中,所述步骤S3中,采用所述第三识别模型预测得到关联于所述人脸信息的68个所述特征点信息。
优选的,该表情反馈方法,其中,所述步骤S4具体包括:
步骤S41,将所述步骤S3中预测得到的所有所述特征点信息输入至所述第一识别模型中;
步骤S42,采用所述第一识别模型判断所述人脸信息是否表示笑脸:
若是,则所述智能机器人输出预设的表情反馈信息;
若否,则退出。
优选的,该表情反馈方法,其中,所述步骤S4中,所述表情反馈信息包括:
通过所述智能机器人的显示装置显示的用于表示高兴的情绪的预设的表情符号;和/或
通过所述智能机器人的语音播放装置播放的用于表示高兴的情绪的预设的声音。
一种智能机器人,其中,采用上述的表情反馈方法。
上述技术方案的有益效果是:提供一种表情反馈方法,能够丰富智能机器人和使用者之间的信息交互内容,从而提升使用者的使用体验。
附图说明
图1是本发明的较佳的实施例中,一种表情反馈方法的总体流程示意图;
图2是本发明的较佳的实施例中,于图1的基础上,识别笑脸的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
本发明的较佳的实施例中,基于现有技术中存在的上述问题,现提供一种表情反馈方法,其适用于智能机器人。该方法的具体步骤如图1所示,包括:
步骤S1,智能机器人采用图像采集装置采集图像信息;
步骤S2,智能机器人检测图像信息中是否存在表示人脸的人脸信息:
若是,则获取关联于人脸信息的位置信息和大小信息,随后转向步骤S3;
若否,则返回步骤S1;
步骤S3,根据所述位置信息和所述大小信息,预测得到所述人脸信息中的多个特征点信息并输出;
步骤S4,采用一预先训练形成的第一识别模型,根据特征点信息判断人脸信息是否表示笑脸:
若是,则智能机器人输出预设的表情反馈信息,随后退出;
若否,则退出。
在一个具体实施例中,智能机器人采用面部识别的方式确认其应该反馈何种表情信息。具体地,使用者需要站在智能机器人的图像采集装置(即摄像头)的采集区域内,例如站在图像采集装置的正前方。
则该实施例中,智能机器人首先采用图像采集装置采集其采集区域内的图像信息,随后判断该图像信息中是否存在人脸信息:若存在,则接收该人脸信息,并同时提取该人脸信息的位置信息和大小信息。具体地,所谓位置信息,是指该人脸信息位于图像采集装置的取景框内的具体位置;所谓大小信息,是指该人脸信息所表示的人脸的大小。
该实施例中,获取到人脸信息及其位置信息和大小信息后,可以根据其位置和大小预测得到该人脸信息的多个特征点信息。具体地,多个特征点信息分别关联于人脸信息表示的人脸的各部位;例如不同的特征点信息分别关联于上述人脸信息所表示的人脸上的眉毛部位、眼睛部位、鼻子部位、嘴巴部位以及整个人脸轮廓等各部位。
该实施例中,预测得到上述多个特征点信息后,采用预先训练形成的第一识别模型,根据所有这些特征点信息,识别上述人脸信息所表示的人脸是否为笑脸:若是,则智能机器人根据该笑脸输出预设的表情反馈信息;若否,则直接退出。进一步地,若上述人脸信息不表示笑脸,则智能机器人根据预设的策略输出其他的反馈信息,该过程并不包括在本发明技术方案内,因此不对其进行描述。
本发明的较佳的实施例中,于上述智能机器人内预先训练形成一用于检 测人脸信息的第二识别模型;
则上述步骤S2具体为:
智能机器人采用第二识别模型检测图像信息中是否存在人脸信息:
若是,则获取关联于人脸信息的位置信息和大小信息,随后转向步骤S3;
若否,则返回步骤S1。
具体地,本发明的较佳的实施例中,通过输入多个不同的训练样本,在上述智能机器人内预先训练形成第二识别模型,该第二识别模型为一个人脸检测器,可以用来判断图像采集装置采集得到的图像信息中是否存在人脸信息。在现有技术中存在较多实现训练形成人脸检测器的技术方案,因此在此不再赘述。
本发明的较佳的实施例中,于智能机器人内预先训练形成一用于预测特征点信息的第三识别模型;
则上述步骤S3具体为:
采用第三识别模型,根据位置信息和大小信息预测得到人脸信息中的多个特征点信息并输出。
具体地,本发明的较佳的实施例中,同样通过输入多个不同的训练样本,在上述智能机器人中预先训练形成用于对人脸信息中的多个特征点信息进行预测的第三识别模型。换言之,上述第三识别模型为特征点预测模型。利用该第三识别模型,能够根据人脸信息及其位置和大小等信息预测得到人脸信息上的多个特征点信息。本发明的一个较佳的实施例中,利用上述第三识别模型,从人脸信息上预测得到68个特征点信息,这些特征点信息所涉及的人脸的部位包括但不限于:眉毛、眼睛、鼻子、嘴巴以及脸的整体轮廓等。换言之,依照上述第三识别模型从人脸信息上预测得到的68个特征点信息,分别可以用来表示该人脸信息上的各部位的信息。则根据上述第三识别模型的识别处理,输出预测得到的该68个特征点信息。
本发明的较佳的实施例中,如图2所示,上述步骤S4具体包括:
步骤S41,将步骤S3中预测得到的所有特征点信息输入至第一识别模型中;
步骤S42,采用第一识别模型判断人脸信息是否表示笑脸:
若是,则智能机器人输出预设的表情反馈信息;
若否,则退出。
具体地,本发明的较佳的实施例中,上述第一识别模型同样是通过输入大量的训练样本形成的,该第一识别模型为用于识别人脸是否为笑脸的笑脸识别模型。该笑脸识别模型可以根据抓取到的人脸上的各种特征点信息判断该特征点信息是否为笑脸的特征,并进而判断该人脸是否为笑脸。
本发明的较佳的实施例中,上述步骤S41中,根据上述第三识别模型预测得到的所有特征点信息被输入到上述第一识别模型中,例如上文中根据预测得到的68个特征点信息,被全部输入到第一识别模型中,以作为该第一识别模型的输入数据。随后第一识别模型根据这些特征点信息进行判断,判断依据可以例如下文中所述的一种或几种:
1)特征点信息是否表示该人脸上的嘴巴部分呈现对应笑脸的形状(例如嘴角上翘的形状,或者张嘴的形状);
2)特征点信息是否表示人脸上的脸部笑肌区域呈现对应笑脸的形状(例如肌肉聚拢并隆起的形状);
3)特征点信息是否表示人脸上的眼睛区域呈现对应笑脸的形状(例如眯眼的形状)。
上述判断依据还可以包括其他通常可以观测到或者通过实验数据得到的笑脸特征,在此不再赘述。
本发明的较佳的实施例中,若根据上述68个特征点信息的输入可以判断当前的人脸符合笑脸特征,则可以判断该人脸为笑脸,并进而根据判断结果输出对应笑脸的表情反馈信息。
本发明的较佳的实施例中,所谓表情反馈信息,其中可以下文中所述的一种或几种包括:
通过智能机器人的显示装置显示的用于表示高兴的情绪的预设的表情符号;以及
通过智能机器人的语音播放装置播放的用于表示高兴的情绪的预设的声音。
具体地,本发明的较佳的实施例中,上文中所述的表情符号,可以为显示在智能机器人的显示装置(例如显示屏)上的表情符号,例如表示简笔画的笑脸的表情符号,或者直接在显示屏上显示笑脸,或者其他预设的用于表 示高兴情绪的表情。
上文中所述的声音,可以为从智能机器人的语音播放装置(例如扬声器)播放的例如预设的笑声或者语气较为高兴的预设语音,或者其他预设的声音等。
本发明的较佳的实施例中,上述表情反馈信息还可以包括其他能够输出并被使用者所感知的反馈信息,在此不再赘述。
综上所述,本发明技术方案中,利用不同的识别模型,首先根据一人脸检测器识别出图像采集装置采集到的图像信息中的人脸信息,随后根据一特征点预测模型预测得到人脸信息中的多个特征点信息,再把所有特征点信息输入到一笑脸识别模型中,并根据该笑脸识别模型识别当前的人脸信息是否表示笑脸:若表示笑脸,则智能机器人输出能够被使用者感知的用于表示高兴的情绪的表情反馈信息;若否,则直接退出。上述技术方案能够丰富智能机器人与使用者之间的信息交互,并提升使用者的适用体验。
本发明的较佳的实施例中,还提供一种智能机器人,其中采用上文中所述的表情反馈方法。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (7)
1.一种表情反馈方法,适用于智能机器人,所述智能机器人上设置有图像采集装置;其特征在于,包括:
步骤S1,所述智能机器人采用所述图像采集装置采集图像信息;
步骤S2,所述智能机器人检测所述图像信息中是否存在表示人脸的人脸信息:
若是,则获取关联于所述人脸信息的位置信息和大小信息,随后转向步骤S3;
若否,则返回所述步骤S1;
步骤S3,根据所述位置信息和所述大小信息,预测得到所述人脸信息中的多个特征点信息并输出;
多个所述特征点信息分别关联于所述人脸信息表示的所述人脸的各部位;
步骤S4,采用一预先训练形成的第一识别模型,根据所述特征点信息判断所述人脸信息是否表示笑脸:
若是,则所述智能机器人输出预设的表情反馈信息,随后退出;
若否,则退出。
2.如权利要求1所述的表情反馈方法,其特征在于,于所述智能机器人内预先训练形成一用于检测所述人脸信息的第二识别模型;
则所述步骤S2具体为:
所述智能机器人采用所述第二识别模型检测所述图像信息中是否存在所述人脸信息:
若是,则获取关联于所述人脸信息的位置信息和大小信息,随后转向步骤S3;
若否,则返回所述步骤S1。
3.如权利要求1所述的表情反馈方法,其特征在于,于所述智能机器人内预先训练形成一用于预测所述特征点信息的第三识别模型;
则所述步骤S3具体为:
采用所述第三识别模型,根据所述位置信息和所述大小信息预测得到所述人脸信息中的多个所述特征点信息并输出。
4.如权利要求3所述的表情反馈方法,其特征在于,所述步骤S3中,采用所述第三识别模型预测得到关联于所述人脸信息的68个所述特征点信息。
5.如权利要求1所述的表情反馈方法,其特征在于,所述步骤S4具体包括:
步骤S41,将所述步骤S3中预测得到的所有所述特征点信息输入至所述第一识别模型中;
步骤S42,采用所述第一识别模型判断所述人脸信息是否表示笑脸:
若是,则所述智能机器人输出预设的表情反馈信息;
若否,则退出。
6.如权利要求1所述的表情反馈方法,其特征在于,所述步骤S4中,所述表情反馈信息包括:
通过所述智能机器人的显示装置显示的用于表示高兴的情绪的预设的表情符号;和/或
通过所述智能机器人的语音播放装置播放的用于表示高兴的情绪的预设的声音。
7.一种智能机器人,其特征在于,采用如权利要求1-6所述的表情反馈方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610099484.9A CN107103269A (zh) | 2016-02-23 | 2016-02-23 | 一种表情反馈方法及智能机器人 |
PCT/CN2017/074054 WO2017143951A1 (zh) | 2016-02-23 | 2017-02-20 | 一种表情反馈方法及智能机器人 |
US15/999,762 US11819996B2 (en) | 2016-02-23 | 2017-02-20 | Expression feedback method and smart robot |
TW106105871A TW201826167A (zh) | 2016-02-23 | 2017-02-22 | 一種表情反饋方法及智慧機器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610099484.9A CN107103269A (zh) | 2016-02-23 | 2016-02-23 | 一种表情反馈方法及智能机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107103269A true CN107103269A (zh) | 2017-08-29 |
Family
ID=59658321
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610099484.9A Pending CN107103269A (zh) | 2016-02-23 | 2016-02-23 | 一种表情反馈方法及智能机器人 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11819996B2 (zh) |
CN (1) | CN107103269A (zh) |
TW (1) | TW201826167A (zh) |
WO (1) | WO2017143951A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034069A (zh) * | 2018-07-27 | 2018-12-18 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN110480656A (zh) * | 2019-09-09 | 2019-11-22 | 国家康复辅具研究中心 | 一种陪护机器人、陪护机器人控制方法及装置 |
CN115042893A (zh) * | 2022-06-13 | 2022-09-13 | 北京航空航天大学 | 基于mems加工实现的微型爬行机器人 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446617B (zh) * | 2018-03-09 | 2022-04-22 | 华南理工大学 | 抗侧脸干扰的人脸快速检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877056A (zh) * | 2009-12-21 | 2010-11-03 | 北京中星微电子有限公司 | 人脸表情识别方法及系统、表情分类器的训练方法及系统 |
CN103488293A (zh) * | 2013-09-12 | 2014-01-01 | 北京航空航天大学 | 一种基于表情识别的人机情感交互系统及方法 |
CN103679203A (zh) * | 2013-12-18 | 2014-03-26 | 江苏久祥汽车电器集团有限公司 | 机器人的人脸检测与情感识别系统及方法 |
CN104102346A (zh) * | 2014-07-01 | 2014-10-15 | 华中科技大学 | 一种家用信息采集和用户情感识别设备及其工作方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100423911C (zh) * | 2000-10-13 | 2008-10-08 | 索尼公司 | 机器人装置及其行为控制方法 |
EP1262844A1 (en) * | 2001-06-01 | 2002-12-04 | Sony International (Europe) GmbH | Method for controlling a man-machine-interface unit |
US7113848B2 (en) * | 2003-06-09 | 2006-09-26 | Hanson David F | Human emulation robot system |
WO2009116049A2 (en) * | 2008-03-20 | 2009-09-24 | Vizi Labs | Relationship mapping employing multi-dimensional context including facial recognition |
US8848068B2 (en) * | 2012-05-08 | 2014-09-30 | Oulun Yliopisto | Automated recognition algorithm for detecting facial expressions |
US11158403B1 (en) * | 2015-04-29 | 2021-10-26 | Duke University | Methods, systems, and computer readable media for automated behavioral assessment |
US11308313B2 (en) * | 2018-04-25 | 2022-04-19 | Shutterfly, Llc | Hybrid deep learning method for recognizing facial expressions |
JP6675564B1 (ja) * | 2019-05-13 | 2020-04-01 | 株式会社マイクロネット | 顔認識システム、顔認識方法及び顔認識プログラム |
-
2016
- 2016-02-23 CN CN201610099484.9A patent/CN107103269A/zh active Pending
-
2017
- 2017-02-20 WO PCT/CN2017/074054 patent/WO2017143951A1/zh active Application Filing
- 2017-02-20 US US15/999,762 patent/US11819996B2/en active Active
- 2017-02-22 TW TW106105871A patent/TW201826167A/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877056A (zh) * | 2009-12-21 | 2010-11-03 | 北京中星微电子有限公司 | 人脸表情识别方法及系统、表情分类器的训练方法及系统 |
CN103488293A (zh) * | 2013-09-12 | 2014-01-01 | 北京航空航天大学 | 一种基于表情识别的人机情感交互系统及方法 |
CN103679203A (zh) * | 2013-12-18 | 2014-03-26 | 江苏久祥汽车电器集团有限公司 | 机器人的人脸检测与情感识别系统及方法 |
CN104102346A (zh) * | 2014-07-01 | 2014-10-15 | 华中科技大学 | 一种家用信息采集和用户情感识别设备及其工作方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034069A (zh) * | 2018-07-27 | 2018-12-18 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109034069B (zh) * | 2018-07-27 | 2021-04-09 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN110480656A (zh) * | 2019-09-09 | 2019-11-22 | 国家康复辅具研究中心 | 一种陪护机器人、陪护机器人控制方法及装置 |
CN110480656B (zh) * | 2019-09-09 | 2021-09-28 | 国家康复辅具研究中心 | 一种陪护机器人、陪护机器人控制方法及装置 |
CN115042893A (zh) * | 2022-06-13 | 2022-09-13 | 北京航空航天大学 | 基于mems加工实现的微型爬行机器人 |
CN115042893B (zh) * | 2022-06-13 | 2023-07-18 | 北京航空航天大学 | 基于mems加工实现的微型爬行机器人 |
Also Published As
Publication number | Publication date |
---|---|
US20210291380A1 (en) | 2021-09-23 |
US11819996B2 (en) | 2023-11-21 |
TW201826167A (zh) | 2018-07-16 |
WO2017143951A1 (zh) | 2017-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110519636B (zh) | 语音信息播放方法、装置、计算机设备及存储介质 | |
US11394675B2 (en) | Method and device for commenting on multimedia resource | |
EP1959393A2 (en) | Computer implemented method for detecting scene boundaries in videos | |
CN106294774A (zh) | 基于对话服务的用户个性化数据处理方法及装置 | |
CN107103269A (zh) | 一种表情反馈方法及智能机器人 | |
CN110263220A (zh) | 一种视频精彩片段识别方法及装置 | |
TW201003539A (en) | Method, apparatus and computer program product for providing gesture analysis | |
JP2011123529A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US9754156B2 (en) | Content output apparatus, content output method and recording medium | |
CN110147467A (zh) | 一种文本描述的生成方法、装置、移动终端及存储介质 | |
CN109286848B (zh) | 一种终端视频信息的交互方法、装置及存储介质 | |
CN104408404A (zh) | 人脸识别方法及装置 | |
WO2017219450A1 (zh) | 一种信息处理方法、装置及移动终端 | |
JP4759745B2 (ja) | 映像分類装置、映像分類方法、映像分類プログラムおよびコンピュータ読取可能な記録媒体 | |
CN110399934A (zh) | 一种视频分类方法、装置及电子设备 | |
CN111413877A (zh) | 控制家电设备的方法及装置 | |
CN111428666A (zh) | 基于快速人脸检测的智能家庭陪伴机器人系统及方法 | |
CN112069951A (zh) | 视频片段提取方法、视频片段提取装置及存储介质 | |
CN105095841A (zh) | 生成眼镜的方法及装置 | |
CN108388836B (zh) | 一种用于获取视频语义信息的方法与装置 | |
CN114095782A (zh) | 一种视频处理方法、装置、计算机设备及存储介质 | |
JP6373446B2 (ja) | ビデオフレームを選択するプログラム、システム、装置、及び方法 | |
WO2024001539A1 (zh) | 说话状态识别方法及模型训练方法、装置、车辆、介质、计算机程序及计算机程序产品 | |
WO2023208134A1 (zh) | 图像处理方法及模型生成方法、装置、车辆、存储介质及计算机程序产品 | |
CN113450804A (zh) | 语音可视化方法、装置、投影设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1237949 Country of ref document: HK |
|
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170829 |
|
RJ01 | Rejection of invention patent application after publication |