CN101571930A - 可与人互动的机器人 - Google Patents
可与人互动的机器人 Download PDFInfo
- Publication number
- CN101571930A CN101571930A CNA2008100960655A CN200810096065A CN101571930A CN 101571930 A CN101571930 A CN 101571930A CN A2008100960655 A CNA2008100960655 A CN A2008100960655A CN 200810096065 A CN200810096065 A CN 200810096065A CN 101571930 A CN101571930 A CN 101571930A
- Authority
- CN
- China
- Prior art keywords
- robot
- inclusions
- emotion
- action
- led
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
本发明提供一种可与人互动的机器人,所述机器人包括:通过与外部环境对应生成感情数据的输入,来完成机器人感情表现的感情表现模块部;根据特定内含物所定义的机器人表情、动作模板进行驱动,并包括头、臂、LED、轮子的驱动模块;和选择特定内含物后通过输出部输出,且将通过输入部输入的数据进行预处理,插入内含物内的图像插入区内进行输出的影像合成模块部。本发明的机器人能够更好地与人互动的效果。
Description
技术领域
本发明涉及一种具有与人互动功能,提供信息、教育、防范等多样服务的机器人,或识别外部环境变化和作业变更而自行判断情况,并自律运行,能与人互动的智能型机器人,具体而言是通过与外部环境对应生成的感情数据的输入,完成机器人的感情表现,配备由感情输入部、控制板、眼睛LCD处理部、嘴LED处理部及腮LED处理部、同步处理部、感情输出部构成的感情表现模块部,增强了与人的相互作用,适用了能将完成机器人动作所需表现方式以简易多样化形态组合的机器人动作模板体现方法的可互动机器人。
背景技术
通常用以实现人和机器人之间沟通的人-机器人互动技术,是可使人认识到与机器人共同生活工作的方便和亲近性的非常重要的技术。因此目前有关人-机器人互动技术的各领域多样化研究开发正在活跃进行。
人-机器人互动技术是机器人通过人的言语、姿势、表情、声音等综合判断人的意图,并采取相对应的行动的技术,因此它最终要实现的价值是协同性、便利性、亲密性。
协同性是指人和机器人共有目前状况、将要实现的目标以及在目前状况下实现目标的计划,便利性是指增强有效互动和使用者的便利,亲密性是指赋予人和机器人之间情感和社会关系上的意义。为实现此三种价值,需要认知性互动、多模式互动、感情互动等方面的研究。
认知性互动是机器人掌握使用者意图并为使用者提供最大便利的互动,通过要求模型、作业模型、使用者模型互动模型实现。多模式互动是指在日常生活中,将看到、听到、摸到的所有东西综合起来对事物进行判断从而与他人交流,可分为利用表情、语言、姿势等的直接互动和利用PDA、电脑等媒介界面(接口)的间接互动。
此外,感情互动技术作为除了认知及多模式领域以外的重要因素-感情识别及表现技术,如果能实现机器人的感情表现,将大大提高与人共存的价值,因此是非常重要的技术。
同时与上述分类的互动模式不同,鉴于具体的技术接近性,人-机器人互动(HRI)技术又可分为,包括声音识别、动作识别、触觉/力量识别、感情识别等可以使机器人识别人的意识表达的识别技术,和为了控制远距离机器人动作的远距离操作用界面技术,以及用于人和机器人之间默认式、双向式沟通的认知及感情互动技术。
虽然目前声音及动作、感情的识别技术及远距离控制技术形态多样并且诸多技术在不断更新和公开,但使用者的意图识别及应对技术、感情生成及表现技术等认知及感情互动技术还是空白。
特别是表面性的人和机器人之间互动大部分是通过脸部表情来实现心理状态或感情表现,因此在机器人和人的互动中,感情生成和表现技术成为最重要的课题,需要相关的各种研究和开发。
有关感情生成和表现技术,曾有人试图通过模拟人的脸制作机械脸来表现机器人心理状态或感情活动。
具有代表的例子,是进行机械式脸部肌肉描写的美国MIT的Kismet,和采用硅胶模仿人的皮肤进行制作的日本东京技术大学的Roterta和Saya。
此外,韩国专利注册编号第0639068号、韩国专利注册编号第0458079号、韩国专利申请编号第10-2005-0031624号等也公开了各种形态的感情表现方法。
但是,至今为止开发的机器人感情表现方式作为家庭用专用机器人,因为还处于研究室内的实验阶段,其价格过于昂贵,或脸部全面LCD化或以LED表现,脸部构造上的异质感或LED局限性等,机器人感情传达还很欠缺。
因此需要对动作模板进行有效的改进,采用增加动作的三维表现技术,替代单纯采用LED或LCD的二维表现技术。
为实现机器人和人之间的互动,使机器人更亲切,必须制作出具备感情表现方法或各种形态的互动功能的新型机器人。
发明内容
本发明就是为解决上述问题而研究出来的。就机器人的感情表现而言,根据脸部表情的50%以上形成于眼睛周围的事实,机器人眼睛由LCD构成,嘴和腮由多个LED构成,将所述LCD和LED适当组合,以较低价位,实现生动的感情和意愿表达,为了完成用于表现感情的动作,定义了机器人的基本单位动作模式,将该模式按一定规则组合,可简易生产机器人功能或内含物等的动作所需各种机器人动作模板,通过机器人单位动作模式组合,实现有效的机器人动作模板,提供人与机器人之间互动交流更为加强的能够与人互动的机器人。
为实现所述目的本发明具有以下特征。
本发明是可与人互动的机器人,所述机器人包括:根据应对外部环境生成的感情数据输入而完成机器人感情表现的感情表现模块部;根据在特定内含物定义的机器人表情、动作模板进行驱动,并包括头、臂、LED、轮子的驱动模块;以及在选择了特定内含物后,即通过输出部输出,并对输入部输入的数据进行预处理,插入内含物内图像插入区并输出的影像合成模块部。
在这里,所述感情表现模块部包括:输入感情数据的感情输入部;根据通过所述感情输入部输入的感情数据控制机器人动作的控制板;根据所述控制板进行LCD机器人眼睛动作处理的眼睛LCD处理部;对由多个LED构成的机器人腮、嘴动作进行处理的腮LED处理部及嘴LED处理部;将输入感情数据与各部分动作同步对准的同步对准部;以及将通过所述同步对准部同步对准的各部分动作输出的感情输出部。
此外,所述控制板定义并存储了各感情数据动作模板,根据所定义的动作模板,用控制板控制驱动模块,完成动作。所述动作模板定义了机器人基本单位动作模式,将该模式按一定规则组合,制成机器人功能或内含物等的动作所需要的各种机器人动作模板,所述单位动作模式,建议采用将可由电动机驱动部位动作做最小单位定义的动作模式。
同时,所述单位动作模式以动作范围和动作速度为标准定义,所述动作模板是将单位动作模式按一定规则组合的单位动作模式的集合,制作所述动作模板的规则由单位动作模式之间的连接可能性、单位模式动作之间的连接时间、全部动作时间构成。
此外,为丰富所述机器人的眼睛注视方向和感情表现等,由LCD构成,为使所述机器人嘴和腮能很好地表现说话摸样和脸部表情,由多个LED构成,由所述机器人的嘴/腮LED及眼睛LCD构成的脸部控制板和控制脸部LCD和LED的微控制器和机器人主板控制器之间,则由UART连接,所述微控制器利用并行端口控制双眼的LCD板,利用输入/输出端口控制嘴和腮部LED。
此外,所述影像合成模块部在选择了特定学习内含物时,自机器人内含物服务器接收相应的内含物传输,所述机器人内含物服务器从内含物开发商服务器接收并存储所开发的内含物,根据影像合成模块部的呼叫,传送申请的特定学习内含物。
同时,所述内含物开发商服务器按特定学习内含物和内含物内容定义机器人的表情、动作,并将机器人表情、动作模板/模式定义为XML类型文件,定义内含物内图像插入区和感性表现层,制作原始类型的机器人内含物情节图板。所述影像合成模块中还包括了通过输入部接收机器人外部输入的影像信号,抽取其中特定图像,将其转换为与内含物内容对应的图像,插入图像插入区的图像转换模块,和接收从外部输入的声音信号,利用声音的音调和速度参数值属性,根据内含物内容生成适合各种感情变化的声音信号的声音生成模块。
所述驱动模块由头、臂、LED、轮子组成,并根据特定内含物定义的机器人表情、动作模板进行动作。
在本发明中,机器人的眼睛由LCD构成,机器人的嘴和腮由多个LED构成,仅通过所述LCD和LED的合理组合就可以实现机器人的生动的感情和意愿表达,体现了与人更加亲和的个性化机器人效果。并且与原有机器人的单向信息传递不同,是根据使用者的输入选择内含物,在输入部进行图像拍摄或语音录音,因此按使用者与机器人之间双向信息传递方式实行内含物。
同时定义机器人动作模板单位动作模式,并将其组合,轻松制成机器人动作模板,由内含物或服务开发商亲自制作并适用所需动作模板,开发出能反映机器人特性的内含物或服务,使用者在使用机器人的各种功能和内含物、服务等时,可以用肉眼观看与功能相符合的机器人动作,因此与其他情况相比,能更简单快速地了解意思做出反映。
附图说明
图1是本发明机器人的简略结构图。
图2是本发明机器人的感情表现模块部的结构图。
图3是本发明机器人的脸部的结构图。
图4是本发明机器人的脸部控制板的结构图。
图5是本发明机器人的眼睛LCD的感情表现种类显示图。
图6是本发明机器人的感情表现机制结构图。
图7是本发明机器人的感情表现处理机制相关软件式处理过程显示顺序图。
图8是本发明机器人的模式及相关模板显示图。
图9是本发明通过影像合成模块完成影像合成过程说明结构图。
<附图主要部分符号说明>
1:机器人LCD眼睛
2:机器人LED嘴
3:机器人LED腮
10:感情输入部
20:控制板
30:眼睛LCD处理部
40:嘴LED处理部
50:腮LED处理部
60:同步对准部
70:感情输出部
80:微控制器
85:主板控制器
90:输入/输出端口
100:感情表现模块部
200:影像合成模块部
300:驱动模块
400:内含物开发商PC
500:机器人内含物服务器
1000:机器人
具体实施方式
下面就本发明的机器人,结合附图进行详细说明。
图1是本发明的机器人的简略结构显示图,图2是本发明机器人的感情表现模块部的结构图,图3是本发明机器人的脸部的结构图,图4是本发明机器人的脸部控制板的结构图。
图5是本发明机器人的眼睛LCD的感情表现种类显示图,图6是本发明机器人的感情表现机制结构图,图7是本发明机器人的感情表现处理机制相关软件式处理过程显示顺序图。
图8是本发明机器人的模式和基于模式的模板表现显示图,图9是本发明的基于影像合成模块实施影像合成的过程说明结构图。
参照附图,本发明的可互动机器人1000主要包括:
根据与外部环境对应生成的感情数据输入来完成感情表现的感情表现模块部100;
根据特定内含物中定义的机器人表情、动作原本来驱动,且包括头、臂、LED、轮子的驱动模块300;和
选择特定内含物后通过输出部输出,将通过输入部输入的数据进行预处理,插入内含物内的图像插入区进行输出的影像合成模块部200。
在这里,感情表现模块部100包括:输入感情数据的感情输入部10;根据通过所述感情输入部10输入的感情数据对机器人动作进行控制的控制板20;根据所述控制板20对LCD机器人眼睛动作进行处理的眼睛LCD处理部30;处理由多个LED构成的机器人嘴和腮的动作的嘴LED处理部40及腮LED处理部50;将输入的感情数据和各部分动作进行同步对准处理的同步对准部60;和将已通过所述同步对准部60同步化的各部分动作输出的感情输出部70。
一般机器人由存储机器人驱动用驱动程序和驱动相关数据的存储部,和可以输入按使用者操作驱动机器人的初期信号及用于选择各功能的选择信号的操作部,和可根据使用者操作对机器人进行驱动的驱动部构成。
本发明的机器人,如图5所示,为了使注视方向和感情表现(幸福、惊讶、普通、失望、害羞5种感情)等更为丰富,机器人的眼睛1由LCD构成,为表现说话摸样和脸部表情,机器人的嘴2和腮3由多个LED构成。即,嘴2通过LED显示说话模样和脸部表情,通过腮部LED表现感情。
本发明中的感情表现模块部100,如图2所示,其特征在于包括:输入感情数据的感情输入部10;根据通过所述感情输入部10输入的感情数据对机器人动作进行控制的控制板20;根据所述控制板20对LCD机器人眼睛动作进行处理的眼睛LCD处理部30;处理由多个LED构成的机器人嘴和腮的动作的嘴LED处理部40、腮LED处理部50;将输入的感情数据和各部分动作进行同步对准处理的同步对准部60;以及将已通过所述同步对准部(60)同步化的各部分动作输出的感情输出部70。
图4显示了由机器人的嘴/腮LED 2、3及眼睛LCD 1所组成的脸部控制板的结构,控制脸部LCD和LED的微控制器80和机器人主板控制器85用UART连接,所述微控制器80利用并行端口控制双眼的LCD板1,利用输入/输出端口90对嘴和腮LED 2、3进行控制。
图5显示了眼睛LCD相关感情种类,将各表现种类混合表现为目前状态。
所述机器人眼睛LCD,通过机器人具备的相机、扬声器等输入手段,根据使用者的脸部表情的影像信号或声音信号或者由外部触碰机器人等行为产生的感知信号,决定并输出幸福、惊讶、普通、失望、害羞等形象表现和眼睛注视方向,所述机器人的嘴和腮部用于表现感情状态的多个LED也与所述机器人眼睛LCD一样,根据使用者表情和声音信号和机器人的感知信号,多个LED选择性地被ON/OFF(开/关),来表现机器人的感情状态。
简单的处理机制是,感情数据输入后,对感情数据完整性进行检验,之后生成眼睛和嘴部数据,并划分为各动作相关处理程序,根据眼/嘴sink(凹进)调整机制对准需要的sink表现眼/嘴,利用眼LCD和嘴LED输出感情。
所述处理机制参照图6详细说明如下。
1、检验感情数据的完整性
检验输入数据是否在表现数据范畴之内。
2、基于感情生成眼睛/嘴部数据
按所需感情(高兴等)提取眼/嘴/腮部数据。
3、按相关处理程序划分
将各提取数据用各处理字码参数来传递。
4、眼/嘴sink调整机制
为表现所要求的表情,将眼/嘴/腮的表现用Sleep(睡眠)等对准sink进行处理。
5、对准需要的sink,完成眼/嘴表现
眼/嘴/腮的单位sink对准后,将单位表情全面合理的给予Sleep,以适当的速度反复所需要的感情表现。
图7显示了处理机制的软件式处理过程,与各输入对应旋转无限循环,控制各个LCD/LED。
此外,所述机器人1000构成可根据表现感情状态,使头、臂等按照已设定的行为程序动作,通过程序化,使机器人完成肯定/否定意愿表达等行动,并根据使用者脸部表情及声音,自律性地活动。
如上所述,为实现机器人与人互动,通过脸部和身体来表现机器人感情所必须的详细技术,例如:机器人要表现的感情的输入手段;对所述机器人要表现的感情的表现行为进行选择的感情表现行为管理手段;接受所述感情表现行为管理部的控制,生成与所述机器人要表现的感情相应的表情图像的表情生成手段、将所述表情图像显示在安装于所述机器人的LCD画面上的LCD驱动手段;接受所述感情表现行为管理部控制,生成与所述机器人要表现的感情相应的动作的动作生成手段;将所述动作适用于所述机器人身体及/或臂部的机器人驱动手段等,则是历来广为人知的通用技术,具体内容在此略过。
另外,所述驱动模块300按特定内含物所定义的机器人表情、动作原本驱动,并由头、臂、LED、轮子组成,所述驱动模块300根据内含物内容定义的表情、动作原本来完成动作。这样的机器人的表情及动作模板可根据前述的感情表现模块部100控制板所显示的感情数据分别存储,由此输入感情数据后,通过控制板完成头、臂、LED、轮子的动作。
所述动作模板对机器人的基本单位动作模式进行定义,并将该模式按一定规则组合,从而制作出机器人的功能或内含物等的动作所必须的各种机器人动作模板,所述单位动作模式是对电动机驱动部位动作做最小单位定义的动作模式。
所述单位动作模式作为将依靠机器人所装配的电动机驱动而能够活动的部位动作做最小单位定义的动作模式,可活动部位有头、臂、轮子等,以动作范围和速度为基准来定义。
所述动作模板意指将单位动作模式按一定规则组合的单位动作模式的集合,动作模板制作规则则以单位动作模式之间的连接可能性、单位模式动作间的连接时间、全部动作时间等为基准。
所述基本单位动作是对机器人提供的功能、内含物、服务等进行综合分析而定义的预想的基本单位动作。但,因为头、臂、轮子(腿)等可驱动部分包括在动作内,因此要在硬件性限制动作范围内定义基本单位动作。例如,按照头俯仰(Panning)的范围是+100度~-100度,倾斜(Tilting)的范围是~40度~-20度、臂是+180度~-30度等,定义动作范围。
如果详细查看本发明的单位动作模板,如图8所示,机器人的脸部、头部、臂、轮子由基本单位动作模板来显示,根据完成时间、反复次数、移动角度、移动距离等的组合而生成。
图纸中机器人的感情数据按平常时、幸福时、惊讶时、失望时、害羞时分类显示。
本发明的机器人动作模板不仅可以通过将上述定义的机器人的头、臂、轮子等的单位动作,按单位动作模式间的可连接性、单位模式动作间的连接时间、全部动作时间等为基准进行组合,从而生成,此时为了使动作模板的全部动作自然生成,必须按照动作模板的全部动作时间调节各单位动作时间或反复次数来进行组合。
例如,动作模板的全部动作时间为5秒时,头部左右摇动动作为1次需要1秒,因此完成全部5次动作才能制成计划的动作模板。
另外,所述影像合成模块部200通过使用者选择特定学习内含物时,从内含物开发商PC 400和机器人内含物服务器500接收机器人内含物,并通过输出部将其输出。
如此输出时,通过安装于影像合成模块部200的图像转换模块或语音生成模块,将外部拍摄或录音的数据与内含物内图像插入区或语音输出数据合成输出。
在这里,所述内含物开发商PC 400采纳学习内含物,并根据内含物内容定义机器人的表情和动作,为提高学习效果,应通过教育专家来采纳内含物,对机器人的表情、动作的定义应能够提高儿童教育趣味性和教育成功度。
内含物开发商PC 400对内含物内用于插入经过预处理的使用者图像的插入区做定义,是将外部输入的图像插入内含物内,并合成,目的在于提高儿童对学习内含物的集中度和教育效果。
需要插入插入区的图像根据内含物内容,应转换为适合的感情状态插入,它由内含物开发商PC 400定义的感性表现层来实现。
它是为了根据感情状态(生气、失望、愉快等)转换表情,而通过后述的机器人1000的输入部抽取输入的脸部图像的眼睛坐标值,以此为基准生成嘴部坐标值,转换为根据表情设定的值的形态而形成的。
内含物开发商PC 400将已定义的机器人的表情、动作模板/模式定义为XML类型原本,利用其他开发工具开发机器人内含物。
另外,所述机器人服务器500从所述内含物开发商PC 400接收并存储已制作的内含物,为此要定义内含物存储位置、内含物内图像插入区、使用者感性表现层、机器人表情和动作脚本的图像存储位置有关加载方式的机器人协议。
由此,机器人内含物服务器500所存储的原始类型的内含物传输给所述机器人1000,机器人将执行该内容。
机器人1000还配有供使用者选择内含物及提取语音信号或影像信号而接收输入的输入面板部,和根据输入面板部的输入信号自外部提取语音信号或影像信号的输入部。所述输入面板部设置于机器人300的表面一侧,有多个输入键,供使用者选择内含物,通过显示部,在选择内含物时将其输出到画面中,使选择更为容易。
此外,所述输入部将提取图像转换模块或语音生成模块所必需的图像、语音信号,使其传输至图像转换模块或语音生成模块,这样的输入部可以是相机或传声器。
同时,所述图像转换模块自输入部接收外部输入的影像信号后在影像信号中提取特定图像,并将其转换为与内含物内容对应的图像,插入图像插入区。
在这里,特定图像是指与图像插入区相对应的图像提取对象的目标位置,例如,如果内含物内图像插入区与脸部对应,机器人300将跟踪图像提取对象,根据脸部特性值对脸部进行拍摄。
转换为与所述内含物内容对应的图像,则根据由内含物开发商服务器100定义的感性表现层来完成。
在这里,感性表现层生成所述提取的特定图像的基准坐标值,并根据感性表现的设定坐标值,将基准坐标值变形,生成感性表现图像。
由此生成的变换图像,通过图像转换模块,插入到图像插入区,与内含物合成。
所述语音生成模块通过输入部接收由外部输入的语音信号,利用语音音调和速度参数值属性,根据内含物内容生成与各种感情变化相适合的语音信号。
通过这样的图像转换模块及语音生成模块,将使用者的声音及图像插入内含物内,以求开发幼儿学习动力。
由此,原始类型内含物从机器人内含物服务器200传输至机器人300,机器人300将其加载并通过输入部提取使用者语音和图像,生成与内含物内容对应的语音信号,转换图像,插入内含物内,通过安装在机器人300上的显示部和扬声器输出,让使用者直接听到。
而且内含物开发商PC 400及机器人内含物服务器500和机器人1000之间可以通过互联网实现数据通信。
本发明是关于使个人服务用或专门服务用机器人具备与人共存所需要的感性、智能等而应提供的机器人的人-机器人互动技术(HRI),提供对人的感情状态或意愿表达认知并生成与之对应的情感及表现技术,和实现这些所需要的动作模板的体现方法。
本发明就人和机器人之间相互作用,主要通过三个实施例子进行了说明。第一,是关于机器人感情表现技术,机器人的眼睛由LCD构成,机器人的嘴和腮部由多个LED构成,将所述LCD和LED合理组合,以较低价位,赋予生动的感情和意愿表达功能。
第二,是关于能够有效用于实现感情表现技术的机器人动作完成所需动作模板,定义机器人的基本单位动作模式,并将此模式按一定规则组合,对机器人功能或内含物等的动作所需各种机器人动作相关表现方法进行一致性的定义。
第三,通过影像合成模块部,超越以往对使用者信息的单向传递内含物制作方式,提供了可引导使用者参与的双向信息传递内含物,引导使用者参与,实现内含物与使用者之间互动式交流。
本发明旨在通过上述三种实施例,针对能与人类相互作用的机器人,就本发明的技术内容和特征进行说明。
Claims (11)
1、一种可与人互动的机器人,其特征在于,
所述机器人包括:
通过与外部环境对应生成感情数据的输入,来完成机器人感情表现的感情表现模块部;
根据特定内含物所定义的机器人表情、动作模板进行驱动,并包括头、臂、LED、轮子的驱动模块;和
选择特定内含物后通过输出部输出,且将通过输入部输入的数据进行预处理,插入内含物内的图像插入区内进行输出的影像合成模块部。
2、如权利要求1所述的机器人,其特征在于,
所述感情表现模块部包括:
可输入感情数据的感情输入部;
根据通过所述感情输入部输入的感情数据对机器人动作进行控制的控制板;
根据所述控制板对机器人LCD眼睛的动作进行处理的眼睛LCD处理部;
对机器人的由多个LED构成的腮和嘴部的动作进行处理的腮LED处理部及嘴LED处理部;
将输入的感情数据与各部分的动作进行同步对准的同步对准部;以及
将通过所述同步对准部完成同步化的各部分的动作输出的感情输出部。
3、如权利要求2所述的机器人,其特征在于,
所述机器人的眼睛,为更好表现丰富的注视方向和感情,由LCD构成,所述机器人的嘴和腮,为更好地表现说话模样和脸部表情,由多个LED构成。
4、如权利要求2所述的机器人,其特征在于,
所述机器人的嘴/腮LED及眼LCD构成的脸部控制板与用于控制脸部的LCD和LED的微控制器和机器人主板控制器用UART连接,所述微控制器利用并行端口控制双眼的LCD板,利用输入/输出端口控制嘴和腮LED。
5、如权利要求1所述的机器人,其特征在于,
所述控制板定义并存储了各感情数据动作模板,根据所定义的动作模板,用控制板控制驱动模块,从而完成动作。
6、如权利要求5所述的机器人,其特征在于,
所述动作模板定义机器人的基本单位动作模式,并将该模式按一定规则组合,制作出机器人功能或内含物等动作所需要的各种机器人动作模板,而所述单位动作模式是对电动机驱动部位动作做最小单位定义的动作模式。
7、如权利要求6所述的机器人,其特征在于,
所述单位动作模式以动作范围和动作速度为标准定义,所述动作模板是将单位动作模式按一定规则组合的单位动作模式的集合,制作所述动作模板的规则由单位动作模式之间的可连接性、单位模式动作之间的连接时间、全部动作时间构成。
8、如权利要求5所述的机器人,其特征在于,
所述驱动模块包括头、臂、LED、轮子,并按特定内含物所定义的机器人的表情、动作模板完成动作。
9、如权利要求1所述的机器人,其特征在于,
所述影像合成模块部在特定学习内含物被采纳时,从机器人内含物服务器接收与之相应的内含物,所述机器人内含物服务器从内含物开发商PC接收机器人内含物,并将其存储,根据影像合成模块部的呼叫,发送所要求的特定学习内含物。
10、如权利要求9所述的机器人,其特征在于,
所述内含物开发商服务器根据特定学习内含物和内含物内容来定义机器人的表情、动作,并将机器人表情、动作模板/模式定义为XML类型文件,定义内含物内图像插入区和感性表现层,制作原始类型的机器人内含物情节图板。
11、如权利要求10所述的机器人,其特征在于,
所述影像合成模块部中还包括:
图像转换模块,其通过输入部接收机器人外部输入的影像信号,抽取其中特定图像,将其转换为与内含物内容对应的图像,插入图像插入区;和
声音生成模块,其接收从外部输入的声音信号,利用声音的音调和速度参数值属性,根据内含物内容生成适合各种感情变化的声音信号。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2008100960655A CN101571930A (zh) | 2008-04-30 | 2008-04-30 | 可与人互动的机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2008100960655A CN101571930A (zh) | 2008-04-30 | 2008-04-30 | 可与人互动的机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101571930A true CN101571930A (zh) | 2009-11-04 |
Family
ID=41231285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2008100960655A Pending CN101571930A (zh) | 2008-04-30 | 2008-04-30 | 可与人互动的机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101571930A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103179157A (zh) * | 2011-12-22 | 2013-06-26 | 张殿礼 | 一种智能网络机器人及控制方法 |
CN104487208A (zh) * | 2012-07-23 | 2015-04-01 | (株)未来机器人 | 机器人控制脚本生成方法及装置 |
CN105137824A (zh) * | 2015-07-29 | 2015-12-09 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人表情反馈方法和装置 |
CN105437242A (zh) * | 2015-12-11 | 2016-03-30 | 塔米智能科技(北京)有限公司 | 一种可移动双面表情服务机器人的头部 |
CN105965513A (zh) * | 2016-04-15 | 2016-09-28 | 青岛克路德机器人有限公司 | 机器人面部表情实现系统 |
CN106325112A (zh) * | 2015-06-25 | 2017-01-11 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN106448589A (zh) * | 2016-10-11 | 2017-02-22 | 塔米智能科技(北京)有限公司 | 一种基于双lcd彩色屏幕的机器人表情系统 |
CN108919804A (zh) * | 2018-07-04 | 2018-11-30 | 广东猪兼强互联网科技有限公司 | 一种智能车辆无人驾驶系统 |
CN111399727A (zh) * | 2020-02-25 | 2020-07-10 | 帕利国际科技(深圳)有限公司 | 一种人机交互设备及交互方法 |
JPWO2020202540A1 (zh) * | 2019-04-04 | 2020-10-08 |
-
2008
- 2008-04-30 CN CNA2008100960655A patent/CN101571930A/zh active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103179157A (zh) * | 2011-12-22 | 2013-06-26 | 张殿礼 | 一种智能网络机器人及控制方法 |
CN104487208B (zh) * | 2012-07-23 | 2016-08-24 | (株)未来机器人 | 机器人控制脚本生成方法及装置 |
CN104487208A (zh) * | 2012-07-23 | 2015-04-01 | (株)未来机器人 | 机器人控制脚本生成方法及装置 |
CN106325112B (zh) * | 2015-06-25 | 2020-03-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN106325112A (zh) * | 2015-06-25 | 2017-01-11 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105137824A (zh) * | 2015-07-29 | 2015-12-09 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人表情反馈方法和装置 |
CN105437242A (zh) * | 2015-12-11 | 2016-03-30 | 塔米智能科技(北京)有限公司 | 一种可移动双面表情服务机器人的头部 |
CN105965513A (zh) * | 2016-04-15 | 2016-09-28 | 青岛克路德机器人有限公司 | 机器人面部表情实现系统 |
CN106448589A (zh) * | 2016-10-11 | 2017-02-22 | 塔米智能科技(北京)有限公司 | 一种基于双lcd彩色屏幕的机器人表情系统 |
CN108919804A (zh) * | 2018-07-04 | 2018-11-30 | 广东猪兼强互联网科技有限公司 | 一种智能车辆无人驾驶系统 |
JPWO2020202540A1 (zh) * | 2019-04-04 | 2020-10-08 | ||
JP7414299B2 (ja) | 2019-04-04 | 2024-01-16 | Groove X株式会社 | 特徴データ設定装置、ロボット、端末装置、および特徴データ設定方法 |
CN111399727A (zh) * | 2020-02-25 | 2020-07-10 | 帕利国际科技(深圳)有限公司 | 一种人机交互设备及交互方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101571930A (zh) | 可与人互动的机器人 | |
CN103119644B (zh) | 装备自然对话接口的类人机器人、用于控制机器人的方法和对应程序 | |
Selker et al. | Context-aware design and interaction in computer systems | |
WO2018093806A1 (en) | Embodied dialog and embodied speech authoring tools for use with an expressive social robot | |
JP5616325B2 (ja) | ユーザ命令に基づいて表示を変更する方法 | |
Raisamo | Multimodal Human-Computer Interaction: a constructive and empirical study | |
CN202315292U (zh) | 一种基于智能手机交互的综合型迎宾机器人 | |
Karam | A framework for research and design of gesture-based human-computer interactions | |
CN102500113A (zh) | 基于智能手机交互的综合型迎宾机器人 | |
Obrenovic et al. | Sketching interactive systems with sketchify | |
Wang et al. | StoryCube: supporting children’s storytelling with a tangible tool | |
KR20130100558A (ko) | 지능형 로봇 제어 장치 및 방법 | |
JP2013099823A (ja) | ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム | |
CN104470686A (zh) | 用于生成被实时地执行的移动机器人的上下文行为的系统和方法 | |
CN206021605U (zh) | 智能机器人点读系统 | |
Garber | Tangible user interfaces: Technology you can touch | |
Chang et al. | Smart hat: design and implementation of a wearable learning device for kids using AI and IoTs techniques | |
Ritter | Tandem Dances: Choreographing Immersive Performance | |
CN101650553A (zh) | 开发机器人内容用机器人制作工具的应用及内容制作方法 | |
CN113442134A (zh) | 机器人编程控制系统 | |
Preston | The definitive guide to building Java robots | |
Riedenklau | Development of actuated tangible user interfaces: New interaction concepts and evaluation methods | |
Yim | Robotic User Interface for Telecommunication | |
Gullick | An Emergent Framework for Designers Working in Physical/Digital Spaces | |
CN116370954A (zh) | 游戏方法和游戏装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20091104 |