CN110815234A - 交互机器人的控制方法及控制服务器 - Google Patents

交互机器人的控制方法及控制服务器 Download PDF

Info

Publication number
CN110815234A
CN110815234A CN201811385289.8A CN201811385289A CN110815234A CN 110815234 A CN110815234 A CN 110815234A CN 201811385289 A CN201811385289 A CN 201811385289A CN 110815234 A CN110815234 A CN 110815234A
Authority
CN
China
Prior art keywords
robot
interactive
interactive robot
user input
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811385289.8A
Other languages
English (en)
Inventor
朴钟建
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cyrus Co Ltd
Original Assignee
Cyrus Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cyrus Co Ltd filed Critical Cyrus Co Ltd
Publication of CN110815234A publication Critical patent/CN110815234A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • Psychiatry (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

本发明一个实施例的交互机器人的控制方法包括如下步骤:交互机器人接收使用者输入;所述交互机器人决定与所述接收的使用者输入对应的机器人应答;及所述交互机器人输出所述决定的机器人应答,所述输出机器人应答的步骤包括如下步骤:所述交互机器人向发光部输出与所述接收的使用者输入或所述决定的机器人应答匹配的颜色(Color);及所述交互机器人向第一驱动部及第二驱动部中任意一个以上输出与所述接收的使用者输入或所述决定的机器人应答匹配的动作(Motion)。

Description

交互机器人的控制方法及控制服务器
技术领域
本发明涉及一种交互机器人的控制方法及控制服务器。更详细而言,涉及一种自行掌握使用者的感情及感情的强度并以视觉方式输出的交互机器人的控制方法及控制服务器。
背景技术
最近的机器人开发重新设定了方向,不是像以前一样单纯机械式的计算装置,而是开发与人类生活密切相关并可深入渗透的伴侣机器人,这种伴侣机器人由于与人类交互(Interaction),因而称为交互机器人。
但是,现在问世的交互机器人执行的交互,大部是从使用者接收输入,输出基于此的应答的被动型动作,难以视为实现情感交流的真正意义的交互,视为单纯的计算装置较为恰当。
因此,最近的交互机器人开发,将体现通过与人类情感交流而能够提供最优化的服务的真正意义的交互设置为首要目标,其中,情感交流应从以下方面接近,即象实际朋友一样,更具体而言,从使用交互机器人的人类的立场,机器人可以准确地掌握我的感情状态并共鸣,与此同时,能够获得机器人完全理解我的心理满足感。
但是,不用说交互机器人与人类执行交互,交互机器人本身就是无法具有自己的感情的事物,相当于计算装置,因此,通过何种方法才能够让人类获得心理满足感则成为了问题。本发明正是为了解决这种问题而研发的。
【先行技术文献】
【专利文献】
(专利文献0001)韩国公开专利公报第10-2018-0079825号(2018.07.11)
发明内容
本发明要解决的技术课题是提供一种能够准确掌握作为交互机器人使用者的人类的感情状态并共鸣的交互机器人的控制方法及控制服务器。
本发明要解决的另一技术课题是提供一种能够提供如同可以全面理解作为交互机器人使用者的人类的实际朋友一样的心理满足感的交互机器人的控制方法及控制服务器。
本发明要解决的又一技术课题是提供一种不仅限于被动型动作,而且交互机器人可以主动先去接近作为使用者的人类并实现情感交流的交互机器人的控制方法及控制服务器。
本发明的技术课题不由以上言及的技术课题所限制,未言及的其他技术课题是普通技术人员可以从以下记载明确理解的。
用于达成所述技术课题的本发明一个实施例的交互机器人的控制方法包括如下步骤:交互机器人接收使用者输入;所述交互机器人决定与所述接收的使用者输入对应的机器人应答;以及所述交互机器人输出所述决定的机器人应答;所述输出机器人应答的步骤包括如下步骤:所述交互机器人向发光部输出与所述接收的使用者输入或所述决定的机器人应答匹配的颜色(Color);以及所述交互机器人向第一驱动部及第二驱动部中任意一个以上输出与所述接收的使用者输入或所述决定的机器人应答匹配的动作(Motion)。
根据一个实施例,所述使用者输入及机器人应答可以为语音、手势、表情、触摸、USB输入/输出及通过与所述交互机器人联动的外部装置的输入/输出中任意一个以上。
根据一个实施例,所述检索并决定机器人应答的步骤可以包括如下步骤:将所述接收的使用者输入变换成字符串并按单词进行分离;以及从感情分类器提取与所述分离的单词匹配的感情(Emotion)及与所述感情匹配的颜色。
根据一个实施例,所述输出机器人应答的步骤可以包括:将所述决定的机器人应答变换成字符串并按单词进行分离的步骤;及从感情分类器提取与所述分离的单词匹配的感情(Emotion)及与所述感情匹配的颜色的步骤。
根据一个实施例,所述感情分类器已排列有匹配了感情的多个单词,周期性地收集(Crawling)包括特定句子的数据,当所述收集的特定句子内包括所述匹配了感情的多个单词之外的单词时,可以以与所述特定句子内包括的其他单词匹配的感情为基础,向所述之外的单词匹配感情。
根据一个实施例,在所述接收使用者输入的步骤之前,包括执行对所述使用者的认证的步骤,可通过按已设置的特定次数或特定强度触摸所述交互机器人的特定部位而对执行所述使用者的认证。
根据一个实施例,所述交互机器人能够在所述交互机器人所配置的空间内,通过互联网AP(Access Point,接入点)进行操作。
根据一个实施例,在所述接收使用者输入的步骤之前,可以包括如下步骤:识别所述使用者的接近;以及为了随着识别所述使用者的接近而接收所述使用者输入,输出诱导提问。
根据一个实施例,所述交互机器人在多个聚集在一起时,能够由所述使用者根据用途分组(Groupping)为交互机器人组,所述分组的交互机器人组能够整批地执行更新或安装应用程序。
用于达成所述技术课题的本发明一个实施例的交互机器人的控制服务器包括:一个以上的处理器;网络接口;内存,其载入(Load)通过所述处理器而执行的计算机程序;及存储器,其存储大容量网络数据及所述计算机程序,所述计算机程序包括如下操作:接收使用者输入;检索并决定与所述接收的使用者输入对应的机器人应答;以及输出所述决定的机器人应答,所述输出机器人应答的操作包括如下操作:向发光部输出与所述接收的使用者输入或所述决定的机器人应答匹配的颜色;以及向第一驱动部及第二驱动部中任意一个以上输出与所述接收的使用者输入或所述决定的机器人应答匹配的动作(Motion)。
根据如上所述的本发明,具有如下效果:通过实现人工智能技术,准确地掌握作为交互机器人使用者的人类的感情状态并共鸣,可以提高如同实际朋友的心理满足感。
另外,具有如下效果:分析使用者的输入或机器人应答,掌握使用者的感情状态,将与此匹配的颜色输出至形成于眼睛外周面的发光部,从而可以看着交互机器人的眼睛进行对话,可以提供与实际人类对话的感觉,结果可以容易地与使用者实现情感交流。
另外,具有如下效果:在接收使用者输入之前,在特定情况下,交互机器人先向使用者诱导提问,可以主动先去接近作为使用者的人类并实现情感交流。
本发明效果不限于以上提及的效果,普通技术人员可以从以下记载明确理解未提及的其他效果。
附图说明
图1是示例性图示成为本发明一个实施例的交互机器人控制方法的对象的交互机器人的图。
图2是图示本发明一个实施例的交互机器人的控制方法的顺序图的图。
图3是示例性图示交互机器人接收作为使用者输入的语音的状态的图。
图4是示例性图示交互机器人输出机器人应答的状态的图。
图5是示例性图示交互机器人向外部装置的画面输出机器人应答的状态的图。
图6是示例性图示形成于双眼外周面的发光部的第一实施例的图。
图7是示例性图示形成于双眼外周面的发光部的第二实施例的图。
图8是图示将本发明一个实施例的交互机器人的控制方法中决定机器人应答的S220步骤具体化的顺序图的图。
图9是示例性图示感情分类器的整体结构的图。
图10是图示本发明一个实施例的交互机器人的控制方法中,关于交互机器人能够首先亲近使用者后实现情感交流的控制方法的顺序图的图。
图11是图示本发明一个实施例的交互机器人的控制服务器的整体构成的图。
具体实施方式
下面参照附图,详细说明本发明的优选实施例。如果参照后面与附图一同详细叙述的实施例,本发明的优点及特征以及实现这些的方法将会明确。但是,本发明并非限定于以下公开的实施例,可以以互不相同的多样形态体现,不过,本实施例使本发明的公开更完整,并且为了完整地向本发明所属技术领域的技术人员告知发明的范畴而提供的,本发明只由权利要求项的范畴所定义。在通篇说明书中,相同附图标号指称相同构成要素。
如果没有不同的定义,本说明书中使用的所有术语(包括技术及科学术语),可以用作本发明所属技术领域的技术人员可共同理解的意义。
另外,通常使用的词典中定义的术语,只要未明确地特别定义,不得过于或过度地解释。本说明书中使用的术语用于说明实施例,并非要限制本发明。在本说明书中,只要在句子中未特别提及,单数型也包括复数型。
因此,以下说明书中使用的“业体”,不分运营营利或非营利事业的私营或公益实体,并且在说明时“设施”规定为这些业体运营的所有设施。
另一方面,说明书中使用的“包括(comprises)”及/或“包括的(comprising)”,表示提及的构成要素、步骤、动作及/或元件不排除一个以上的其他构成要素、步骤、动作及/或元件的存在或追加。
下面根据附图,对本发明进行更详细说明。
图1是示例性图示成为本发明一个实施例的交互机器人100的控制方法的对象的交互机器人100的图。
但是,这只是用于达成本发明目的的优选实施例,当然,根据需要,可以添加或删除一部分构成,某一个构成执行的作用也可以由其他构成一同执行。
本发明一个实施例的交互机器人100可以包括本体部110、头部120、第一驱动部130及第二驱动部140,还可以包括其他为了本发明一个实施例的交互机器人100的驱动所需的附加性构成。
本体部110作为供本发明一个实施例的交互机器人100主要部件安装于内部或连接于外部的中心构成,还可以包括输出规定信息的文本的显示部115、输出语音的扬声器部117及接收使用者的语音或周边声音的麦克风部(图上未示出)。
显示部115可以视为一种液晶显示装置,可以输出规定信息的文本。其中,规定信息不仅是诸如通信状态强度信息、电池剩余量信息、无线互联网ON/OFF信息等的交互机器人100状态信息,还可以是交互机器人100的感情状态信息及将交互机器人100通过后面要叙述的扬声器部117输出的语音变换成文本的信息。例如,交互机器人100通过交互而与使用者实现情感交流后的感情如果为“幸福”,则在显示部115中,关于此的文本输出为“现在感情状态:幸福”,如果使用者通过交互机器人100而设置了起床闹钟(Alarm),则在显示部115中,关于此的文本可以输出为“上午7:00起床”。
另一方面,就输出至显示部115的文本而言,也可以反复输出前面说明的信息中任意一个,但是,也可以交替输出多个信息,或默认设置特定信息并输出。例如,诸如通信状态强度信息、电池剩余量信息、无线互联网ON/OFF信息等的交互机器人100状态信息可以在显示部115上端或下端,默认设置为小的文本并持续输出,并且可以交替输出其他不同信息。
扬声器部117输出语音。其中,语音相当于通过与使用者交互而要应答的交互机器人100输出中的听觉信息,从而可以通过安装于使用者终端(图上未示出)的交互机器人100专用应用程序(图上未示出),多样地设置语音的种类。
例如,可以将通过扬声器部117输出的语音的种类,选择为男性嗓音、女性嗓音、成人嗓音及儿童嗓音等各种嗓音中的任意一种,甚至可以选择诸如韩语、英语、日语及法国等语言种类。
另一方面,扬声器部117虽然输出语音,但并非执行普通扬声器所执行的作用,也可以同样地执行。例如,当使用者要通过交互机器人100欣赏音乐时,当然可以通过扬声器部117输出音乐。
麦克风部(图上未示出)接收使用者的语音或周边声音。其中,使用者的语音或周边声音是在与使用者交互时视为使用者输入的重要信息,因而麦克风部(图上未示出)所配置的位置,优选配置在没有防碍接收使用者的语音或周边声音的要素的位置。例如,如果配置于图1所示的本体部110前面所形成的扬声器部117的孔(Hole)的正后面,则可以直接接收使用者的语音或周边声音。
另一方面,麦克风部(图上未示出)正如前面所作的说明,不是独立于扬声器部117的另外的构成,而是也可以与扬声器部117一体形成。此时,有关前面说明的麦克风部(图上未示出)所配置的位置的事项,则不需要考虑,本体部110内部的空间利用性也会变好。
这种麦克风部(图上未示出)执行接收后面要叙述的使用者输入中的语音的作用,进一步而言,本体部110在接收使用者输入方面,不仅包括麦克风部(图上未示出),还包括诸如照相机传感器(图上未示出)、红外线传感器(图上未示出)、压力传感器(图上未示出)、触摸传感器(图上未示出)等的公知的传感器,从而可以接收各种种类的使用者输入。
另一方面,本体部110还可以包括互联网AP模块(图上未示出),以便交互机器人100能够在其所配置的空间内通过互联网AP(Access Point)进行操作,当交互机器人100以AP模式操作时,通过扬声器部117,输出对现在状态的提醒,例如,输出诸如“现在以互联网AP模式操作中”等的语音,从而也可以向使用者自行告知。
头部120作为成为本发明一个实施例的交互机器人100头脑的构成,可以以各种形状体现。
例如,在图1中,图示了四边形形状的头部120包括2只圆形的眼睛和1个半月形状的嘴,但这只不过是示例性的,也可以不同地体现头部120本身的形状、眼睛及嘴的形状,除了眼睛及嘴之外,当然也可以一同体现附加的构成,例如,诸如鼻子及耳朵等的构成。
另一方面,头部120在使用者与交互机器人100之间进行的情感交流方面非常重要,这在人类之间的对话中,可以类推其重要性。包括家人之间、朋友之间、有工作关系的人们在内,当在人与人之间进行对话时,能够实现情感交流的最好方法,是看着彼此的眼睛进行对话。这也可以同样适用于交互机器人100,逼真地体现交互机器人100的头部120包括的2只眼睛,通过应用具有特异性的控制方法,从而可以提供与实际人类对话的感觉,结果可以容易地与使用者实现情感交流。这涉及到发光部125,对此的详细说明将在后面叙述。
图1所示的四边形形状的头部120包括1个半月形状的嘴,由于嘴是发出沟通所需的声音的器官,因而将前面在对本体部110的说明中提及的扬声器部117也可以形成于头部120的嘴上,而不是本体部110。此时,为了与扬声器部117输出的语音相对应,以能够移动的形式实现嘴,从而可以提供与实际人类对话的感觉,结果可以与使用者容易地实现情感交流。
另一方面,前面暂未说明的发光部125不仅可以体现在眼睛,还可以体现在嘴处,对此的详细说明也将在后面叙述。
第一驱动部130及第二驱动部140担当本发明一个实施例的交互机器人100的动态驱动。
更具体而言,第一驱动部130担当交互机器人100的手臂作用,第二驱动部140担当交互机器人100的腿作用,第一驱动部130及第二驱动部140均有助于可以与使用者容易地实现情感交流,对此的详细说明也将在后面叙述。
另一方面,在图1中,图示了第一驱动部130及第二驱动部140均体现为2段的状态,但这只不过是示例性的,通过体现为3段以上,可以对交互机器人100的动作赋予真实感,但这毕竟是选择事项。
截至现在,参照图1说明了本发明一个实施例的交互机器人100包括的构成。但是,这均是示例性的,当然可以变更或改良交互机器人100的构成,以便能够与使用者容易地实现情感交流。
下面以本发明一个实施例的交互机器人100为基础,参照图2至图5,对交互机器人100的控制方法进行说明。
图2是图示本发明一个实施例的交互机器人100的控制方法的顺序图的图。
这在达成本发明目的方面,只是优选实施例,根据需要,可以追加或删除一部分步骤,进一步地,当然某一步骤也可以包括于其他步骤。
另一方面,各步骤借助于前面本发明一个实施例的交互机器人100包括的构成,即,借助于本体部110、显示部115、扬声器部117、麦克风部(图上未示出)、头部120、第一驱动部130及第二驱动部140中任意一个以上执行,但为了说明的便利,以下继续说明通过交互机器人100而执行的情形。
首先,交互机器人100接收使用者输入S210。
其中,使用者输入可以是语音、手势、表情、触摸、USB输入/输出及通过与交互机器人100联动的外部装置200的输入/输出中任意一个以上,这与后面要叙述的机器人应答也一样。这种使用者输入可以视为能够在使用者与交互机器人100之间实现情感交流的始发点。
在图3中,示例性图示了交互机器人100接收作为使用者输入的语音的状态,在接收使用者输入的瞬间,交互机器人100应为唤醒(Wake-UP)状态,当因长时间不使用而进入休眠模式(Sleep-Mode)的状态下接收使用者输入时,将相应使用者输入视为唤醒信号,从休眠模式转换成唤醒状态。
这种使用者输入中的语音、手势、表情及触摸,可以通过麦克风部(图上未示出)、照相机传感器(图上未示出)、压力传感器(图上未示出)及触摸传感器(图上未示出)等来接收,在通过与交互机器人100联动的外部装置200的输入的情况下,要求用于接收其的另外的通信模块(图上未示出),优选地,例如,通信模块(图上未示出)选择诸如WIFI模块、LTE模块、蓝牙模块、MST模块、NFC模块等的无线通信模块中任意一个以上,从而消除因有线通信导致的交互机器人100使用距离上的制约。
另一方面,使用者输入的内容没有任何限制。例如,当使用者输入为语音时,日常对话或询问事项、请求事项、指示事项等与实际人类对话的同时可以分享的主题,均可用作交互机器人100的使用者输入。在以下说明中,继续举了使用者输入为“我今天心情抑郁”的语音的例子来进行说明。
如果接收了使用者输入,则交互机器人100决定与接收的使用者输入对应的机器人应答S220。
其中,“对应的”可以具有多种意义。更具体而言,可以是针对使用者输入提出解决方案的答复,也可以是反过来向使用者询问的提问或进行对话所需的日常答复等,无论哪一个都无妨。
因此,在前面使用者输入为“我今天心情抑郁”的语音的情况下,机器人应答可以决定为“您有什么事?(反过来向使用者询问的提问)用充满活力的音乐转换心情怎么样?(针对使用者输入提出解决方案的答复)”。
另一方面,机器人应答的决定基本上通过人工智能(A.I,ArtificialIntelligence)来执行,可以通过交互机器人100本身内置的人工智能处理器(图上未示出)或与交互机器人100联动的中央服务器(图上未示出)的人工智能处理部(图上未示出)中任意一个以上来执行,人工智能处理器(图上未示出)及中央服务器(图上未示出)的人工智能处理部(图上未示出)可以学习随着交互机器人100的使用而产生的数据并持续提高性能。
如果决定了机器人应答,则交互机器人100输出所决定的机器人应答S230。
其中,机器人应答的输出可以以多种方式执行,交互机器人100可以通过本身具备的输出装置,例如,通过扬声器部117输出语音,也可以通过与交互机器人100联动的外部装置200,输出机器人应答。
例如,当机器人应答涉及餐馆的位置时,交互机器人100可以向联动的外部装置200的画面输出显示相应餐馆位置的地图,或使得显示从现在位置去相应餐馆的路径的导航运行。
另一方面,当前面使用者输入是“我今天心情抑郁”的语音,而机器人应答决定为“您有什么事?(反过来向使用者询问的提问)用充满活力的音乐转换心情怎么样?(针对使用者输入提出解决方案的答复)”时,机器人应答在输出”您有什么事?用充满活力的音乐转换心情怎么样?”的语音的同时,如图4所示,输出自身选定的心情转换音乐,或如图5所示,向联动的外部装置200的画面输出心情转换音乐列表,从而可以使得使用者选择想听的音乐。
进一步地,机器人应答也可以与前面在S210步骤中说明的使用者输入一样,以手势、表情及触摸中任意一个以上的形态输出,在手势及触摸的情况下,通过第一驱动部130及第二驱动部140的操作来执行,在表情的情况下,在交互机器人10的头部120实现为能够表现表情的情况下可以执行。
截至现在,参照图2至图5,对本发明一个实施例的交互机器人100的控制方法进行了说明。整体流程可以视为,通过S210步骤而接收使用者输入,通过S220步骤而决定机器人应答,通过S230步骤而输出机器人应答,以此为基础,下面对交互机器人100的控制方法进行说明,所述交互机器人在可以准确地掌握作为交互机器人100使用者的人类的感情状态并共鸣的同时,能够提供如同全面理解作为交互机器人使用者的人类的实际朋友一样的心理满足感,不仅限于被动型动作,交互机器人100主动先去接近作为使用者的人类并实现情感交流。
在前面对图1的说明中,对发光部125进行了提及,所述发光部125逼真地体现交互机器人100的头部120包括的2只眼睛,通过适用具有特异性的控制方法,从而能够提供与实际人类对话的感觉,结果可以使得与使用者容易地实现情感交流,在图6中,示例性地图示了形成于2只眼睛的发光部125。
如果参照图6,可以确认发光部125以具有规定宽度的形式形成于交互机器人100的头部120所包括的2只眼睛外周面,如果比喻为人类,则交互机器人100的眼睛可以视为人类的黑色瞳仁,发光部125视为人类的白眼球。
另一方面,并非眼睛和发光部125必须以独立的构成形成,并且并非只有发光部125才发光,也可以以能够体现图形的1个显示装置整合体现,从而如图7所示,眼睛和发光部125均可发光,同时,如缩小或扩大瞳孔一样调节眼睛的大小,从而也可以提供与实际人类的眼睛相同的感觉。
这种发光部125输出规定颜色,这与在S210步骤中接收的使用者输入或在S220步骤中决定的机器人应答相关联。下面进行详细说明。
输出机器人应答的S230步骤还可以包括向发光部125输出与交互机器人100接收的使用者输入或决定的机器人应答匹配的颜色(Color)的步骤S235。其中,向发光部125输出的颜色由于是与交互机器人100接收的使用者输入或决定的机器人应答匹配的颜色,因而在决定输出何种颜色时,应更具体地观察S210步骤及S220步骤。
图8是图示将在本发明一个实施例的交互机器人100的控制方法中决定机器人应答的S220步骤具体化的顺序图的图。
这在达成本发明目的方面,只是优选实施例,根据需要,可以追加或删除一部分步骤,进一步地,当然某一步骤也可以包括于其他步骤。
另一方面,各步骤通过前面说明的交互机器人100本身内置的人工智能处理器(图上未示出)或与交互机器人100联动的中央服务器(图上未示出)的人工智能处理部(图上未示出)中任意一个以上来执行,但为了说明的便利,以下继续说明通过交互机器人100而执行的情形。
首先,交互机器人100将接收的使用者输入变换成字符串并按单词进行分离S222。
其中,就向字符串的变换而言,当使用者输入为语音时,将其变换成文字,当使用者输入是手势、表情及触摸时,找出特异点并将其变换成字符。例如,当使用者输入是微笑表情时,交互机器人100从表情找出特异点,确定为微笑表情,将其变换成字符,可以变换成“使用者正在幸福地微笑”字样的文字。
另一方面,当前面使用者输入是“我今天心情抑郁”的语音时,交互机器人100可以直接将其变换成“我今天心情抑郁”的字符串,分离为“我”、“今天”、“心情”、“抑郁”4个单词。
其中,就按单词进行分离的操作而言,可以使用多种分析方法,例如,可以使用诸如语素分析、关键词分析及分组分析等公知的语言分析方法中任意一个以上。
如果按单词进行了分离,则交互机器人100可以从感情分类器50提取与分离的单词匹配的感情(Emotion)及与相应感情匹配的颜色S223。
其中,感情分类器50是交互机器人100本身内置的人工智能处理器(图上未示出)或与交互机器人100联动的中央服务器(图上未示出)的人工智能处理部(图上未示出)所包括的小型数据库(DB、DataBase)的一种,更具体而言,与单词匹配的感情及与相应感情匹配的颜色可以视为已排列的感性数据词典。
在图9中示例性图示了感情分类器50的整体结构,感情分类器以作为人类5种基本感情的高兴、悲伤、愤怒、厌恶、恐惧为基础,以弱、中等、强三个阶段显示感情的强度,整体可以表达15种感情状态。但是,这种感情的种类及感情的强度是示例性的,当然可以根据情况而多样地变更设计。
另一方面,在5种基本感情中,高兴与黄色相匹配、悲伤与蓝色相匹配,愤怒与红色相匹配,厌恶与绿色相匹配,恐惧与紫色相匹配,以感情的强度中等为基准,默认匹配RGB颜色表的标准黄色、蓝色、红色、绿色、紫色。以此为基准,当感情的强度弱时,匹配比RGB颜色表的标准黄色、蓝色、红色、绿色、紫色更淡的颜色,当感情的强度强时,匹配比RGB颜色表的标准黄色、蓝色、红色、绿色、紫色更浓的颜色。例如,如果是红色,则感情的强度中等可以匹配(255、0、0),感情的强度弱可以匹配(255、198、198),感情的强度强可以匹配(75、0、0)。
如前面所作的说明,即使在感情分类器50中已排列有感情的种类及感情的强度,但如果未一同排列哪个单词匹配哪种感情,则无法提取与单词匹配的颜色。这将同交互机器人100本身内置的人工智能处理器(图上未示出)或与交互机器人100联动的中央服务器(图上未示出)的人工智能处理部(图上未示出)相关联,下面以交互机器人100本身内置的人工智能处理器(图上未示出)为基准进行说明。
在感情分类器50中最初已排列有各种单词和与相应单词匹配的感情,这是由交互机器人100的制作者事先设置好的。但是,当后来变更设置好的单词及与之匹配的感情时,或需要添加新单词及与之匹配的感情时,如何执行这些作业成为了问题。
人工智能处理器(图上未示出)为了解决这种问题而周期性地浏览互联网并收集(Crawling)数据。其中,收集的对象不只是单纯独立的单词,连包含相应单词的句子、包含相应句子的段落也包括在内,收集的场所也没有任何限制。例如,人工智能处理器(图上未示出)在互联网门户页、电影评论页、图书评论页、在线购物网站商品评论页、新闻报道页、各种兴趣论坛页、学术论坛页等任何地方均可收集都无妨。
通过收集而获得的数据可以通过句子单位的分析,决定匹配的感情。例如,当获得“电影xxx(电影名称)很有趣”字样的句子时,与xxx(电影名称)匹配的感情可以以已与作为相应句子包含的其他单词的“有趣”等匹配的感情为基础,在xxx(电影名称)匹配相同的感情。此时,与“有趣”匹配的感情是高兴,因而也可以在xxx(电影名称)匹配“高兴”的感情,也可以通过作为相应句子包含的其他单词“很”,将感情的强度设置为“强”。
另一方面,前面针对xxx(电影名称)说明的感情匹配事例属于示例,以一个句子为基础,明确地决定与相应单词匹配的感情,这在准确度方面会有所不足。因此,人工智能处理器(图上未示出)在感情分类器50内包括另外的感情补正部(图上未示出),感情补正部(图上未示出)针对包含同一单词的句子,检索规定次数以上,例如检索至少5次以上,对他们全部相同地执行感情匹配作业,其结果,验证匹配最多的感情,确定为与相应单词匹配的最终感情。进一步地,感情补正部(图上未示出)甚至可以验证与单词匹配的感情的强度。为了防止重复叙述而不详细说明,但感情的强度也可以通过与感情匹配相同的过程而确定。
截至现在,参照图8及图9,对决定机器人应答的具体方法以及提取通过发光部125输出的颜色的方法进行了说明,前面曾说通过发光部125输出的颜色与使用者输入或机器人应答相关联,而以机器人应答为基础来提取颜色也与图8及图9相同,因此,为了防止重复叙述而省略详细说明。
如上所述,发光部125可以以使用者输入或机器人应答为基础,提取并输出与感情匹配的颜色,使用者可以感受到交互机器人100准确地掌握自己的感情状态并共鸣的感觉,以及如同完全理解自己的实际朋友一样的心理满足感。而且,发光部125形成于交互机器人100的眼睛外周面,因而使用者在交互过程中,集中于交互机器人100的眼睛,可以容易地实现情感交流。进一步地,还可以在输出机器人应答的同时,根据感情状态,变化语音的速度或语调。例如,在高兴及愤怒的感情状态下,可以输出高语调,在悲伤及恐惧的感情状态下,输出低语调,在愤怒的感情状态下,以快速度输出语音,在悲伤及厌恶的感情状态下,以慢速度输出语音。而且,不仅是通过发光部125的颜色输出,还包括输出与第一驱动部30及第二驱动部40接收的使用者输入或决定的机器人应答匹配的动作的步骤S237,从而也可以给对话赋予真实感。
下面,对交互机器人100可以主动先去接近作为使用者的人类并实现情感交流的交互机器人100的控制方法进行说明。
图10是图示本发明一个实施例的交互机器人100的控制方法中,关于交互机器人100能够主动先去接近使用者并实现情感交流的控制方法的顺序图的图。
这在达成本发明目的方面,只是优选实施例,根据需要,可以追加或删除一部分步骤,进一步地,当然某一步骤也可以包括于其他步骤。
另一方面,本控制方法由于交互机器人100主动先去接近使用者,因而以在接收使用者输入的S210步骤之前执行为前提。
首先,交互机器人100识别使用者的接近S1010。
其中,所谓识别使用者的接近指的是,交互机器人100在唤醒状态或进入休眠模式的状态下,通过红外线传感器(图上未示出)等,识别出使用者以交互机器人100为中心进入一定半径内,在进入休眠模式的状态下识别到使用者的接近时,交互机器人100从休眠模式激活为唤醒状态。
如果识别到使用者的接近,则为了接收使用者输入而输出诱导提问S1020。
其中,诱导提问基于交互机器人100的过去使用详情而生成,是广义的概念,不仅包括通常的提问,而且包括能够通过交互机器人100输出的所有内容。
另一方面,所谓基于过去使用详情而生成诱导提问指的是,例如当在日期变更之后首次识别使用者的接近时,可以生成见面问候,当在同一日期内识别到使用者接近3次以上但却未接收任何使用者输入时,生成用于诱导使用者输入的效果音,当与日期无关地识别到使用者接近5次以上时但却未接收任何使用者输入时,生成关于最后输出的机器人应答是否有益的询问,或当机器人应答是要求特定行为时,生成关于是否反复执行相应行为的询问,当在电源开启状态下24小时以上未接收任何使用者输入时,输出哭泣或悲伤声音,当在长时间关闭电源之后开启电源时,生成见面问候或请多使用的请求等。
进一步地,交互机器人100在这种诱导提问输出之后,当在规定时间内从使用者接收了使用者输入时,也可以输出感谢使用的语音。
并非如此从使用者被动地接收使用者输入,而是主动地向使用者输出诱导提问,以便能够接收使用者输入,交互机器人100可以主动先去接近作为使用者的人类并实现情感交流,交互机器人100的利用数据可以相应地快速积累,人工智能处理器(图上未示出)及中央服务器(图上未示出)的人工智能处理部(图上未示出)的学习速度也可以加快。
另一方面,本发明一个实施例的交互机器人100也可以由多个使用者交替利用,但当将其本身视为独立的所有物时,存在只由特定使用者独占并使用的必要性。此时,必须要求使用者认证,在接收使用者输入的S210步骤之前,可以还包括执行对使用者的认证的步骤S205。
其中,使用者认证可以通过多样方法实现,例如通过与交互机器人联动的外部装置200的认证、语音认证、人脸认证中任意一种方法实现,但考虑到认证的简便性及准确性以及交互机器人100所谓的特殊性,也可以通过按已设置的特定次数或特定强度触摸交互机器人100特定部位而实现认证。此时,交互机器人100应包括触摸传感器(图上未示出)或压力传感器(图上未示出)。
另一方面,交互机器人100不仅是在家庭内使用,还会有在公共场所或公司等比较宽阔空间内使用的情形,此时,为了提供服务而可以配置多个交互机器人100。此时,独立地管理个别的交互机器人100是非常麻烦,根据交互机器人100的用途,管理员将多个交互机器人100分组(Groupping),针对分组的交互机器人组,整批地执行更新或安装应用程序,从而可以谋求管理的便利性。此时,组内的某一个交互机器人100获得的数据及学习内容,可以向组内其他交互机器人100共享。
进一步地,当使得新交互机器人包含于已形成的组时,可以与相应组包括的交互机器人100自动同步,共享数据及学习内容,当存在彼此相异用途的2个以上组时,在判断认为特定组包括的交互机器人100加入其他组更好的情况下,也可以诱导将相应交互机器人100移动到其他组。
截至现在说明的本发明一个实施例的交互机器人100的控制方法,可以通过全部包括同一技术特征的交互机器人的控制服务器1000来实现。此时,交互机器人的控制服务器1000如图11所示,可以包括处理器10、网络接口20、内存30、存储器40及连接他们的数据总线50。
处理器10控制各构成的整体操作。处理器10可以是CPU(Central ProcessingUnit,中央处理器)、MPU(Micro Processer Unit,微处理器)、MCU(Micro ControllerUnit,微控制器)或本发明所属的技术领域中广为人知的形态的处理器中的任意一种。而且,处理器10可以执行对用于执行本发明一个实施例的交互机器人100的控制方法的至少一个应用程序或程序的演算。
网络接口20可以支持交互机器人100的有线无线互联网通信,也可以支持此外的公知的通信方式。因此,网络接口20可以构成为包括基于其的通信模块。
内存30存储各种数据、命令及/或信息,为了执行本发明一个实施例的交互机器人的控制方法,可以从存储器40载入一个以上的计算机程序41。在图1中,作为内存30之一,图示了RAM,但与此同时,当然可以将多样的存储介质用作内存30。
存储器40可以非暂时性地存储一个以上的计算机程序41及大容量网络数据42。这种存储器40可以是诸如ROM(Read Only Memory,只读存储器)、EPROM(ErasableProgrammable ROM,可擦可编程只读存储器)、EEPROM(Electrically ErasableProgrammable ROM,电可擦只读存储器)、闪速存储器等的非易失性存储器、硬盘、移动硬盘,或本发明所属的技术领域中广为人知的任意形态的计算机可读的记录介质中任意一种。
计算机程序41可以包括如下操作:载入于内存30并通过一个以上的处理器10而接收使用者输入;检索并决定与所述接收的使用者输入对应的机器人应答;及输出所述决定的机器人应答,所述输出机器人应答的操作可以执行如下操作:向发光部输出与所述接收的使用者输入或所述决定的机器人应答匹配的颜色;向第一驱动部及第二驱动部中任意一个以上输出与所述接收的使用者输入或所述决定的机器人应答匹配的动作(Motion)。
另一方面,本发明一个实施例的交互机器人的控制方法,也可以通过存储于将相同技术特征全部包括在内的介质的计算机程序来实现。为了防止重复叙述而不详细记载,但前面说明的本发明一个实施例的交互机器人的控制方法的所有技术特征,可以相同地均应用于存储于介质的计算机程序,因此,可以导出相同的效果。
以上参照附图,说明了本发明的实施例,本发明所属的技术领域中具有一般知识的技术人员可以理解为,本发明可以在不变更其技术思想或必须特征的前提下,以其他具体形态实施。因此,以上记述的实施例在所有方面应理解为只是示例而非限定。
标号说明
10:处理器
20:网络接口
30:内存
40:存储器
41:计算机程序
50:数据总线
100:交互机器人
110:本体部
115:显示部
117:扬声器部
120:头部
125:发光部
130:第一驱动部
140:第二驱动部
200:外部装置
1000:交互机器人的控制服务器

Claims (10)

1.一种交互机器人的控制方法,包括如下步骤:
交互机器人接收使用者输入;
所述交互机器人决定与所述接收的使用者输入对应的机器人应答;以及
所述交互机器人输出所述决定的机器人应答,
所述输出机器人应答的步骤包括如下步骤:
所述交互机器人向发光部输出与所述接收的使用者输入或所述决定的机器人应答匹配的颜色;以及
所述交互机器人向第一驱动部及第二驱动部中任意一个以上输出与所述接收的使用者输入或所述决定的机器人应答匹配的动作。
2.根据权利要求1所述的交互机器人的控制方法,其中,
所述使用者输入及机器人应答为语音、手势、表情、触摸、USB输入/输出及通过与所述交互机器人联动的外部装置的输入/输出中任意一个以上。
3.根据权利要求1所述的交互机器人的控制方法,其中,
所述检索并决定机器人应答的步骤包括如下步骤:
将所述接收的使用者输入变换成字符串并按单词进行分离;及
从感情分类器提取与所述分离的单词匹配的感情及与所述感情匹配的颜色。
4.根据权利要求1所述的交互机器人的控制方法,其中,
所述输出机器人应答的步骤包括如下步骤:
将所述决定的机器人应答变换成字符串并按单词进行分离;及
从感情分类器提取与所述分离的单词匹配的感情及与所述感情匹配的颜色。
5.根据权利要求3或4中任意一项所述的交互机器人的控制方法,其中,
所述感情分类器已排列有匹配了感情的多个单词,
周期性地收集包括特定句子的数据,
当所述收集的特定句子内包括所述匹配了感情的多个单词之外的单词时,以与所述特定句子内包括的其他单词匹配的感情为基础,向所述之外的单词匹配感情。
6.根据权利要求1所述的交互机器人的控制方法,其中,
在所述接收使用者输入的步骤之前,包括:
执行对所述使用者的认证的步骤;
通过按已设置的特定次数或特定强度触摸所述交互机器人的特定部位而执行对所述使用者的认证。
7.根据权利要求1所述的交互机器人的控制方法,其中,
所述交互机器人能够在所述交互机器人所配置的空间内,通过互联网AP(接入点)进行操作。
8.根据权利要求1所述的交互机器人的控制方法,其中,
在所述接收使用者输入的步骤之前,包括如下步骤:
识别所述使用者的接近;及
为了随着识别所述使用者的接近而接收所述使用者输入,输出诱导提问。
9.根据权利要求1所述的交互机器人的控制方法,其中,
所述交互机器人在多个聚集在一起时,能够由所述使用者根据用途分组为交互机器人组,
所述分组的交互机器人组能够整批地执行更新或安装应用程序。
10.一种交互机器人的控制服务器,包括:
一个以上的处理器;
网络接口;
内存,其载入通过所述处理器而执行的计算机程序;及
存储器,其存储大容量网络数据及所述计算机程序,
所述计算机程序包括如下操作:
接收使用者输入;
检索并决定与所述接收的使用者输入对应的机器人应答;及
输出所述决定的机器人应答,
所述输出机器人应答的操作包括如下操作:
向发光部输出与所述接收的使用者输入或所述决定的机器人应答匹配的颜色;及
向第一驱动部及第二驱动部中任意一个以上输出与所述接收的使用者输入或所述决定的机器人应答匹配的动作。
CN201811385289.8A 2018-08-07 2018-11-20 交互机器人的控制方法及控制服务器 Pending CN110815234A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180091669A KR102012968B1 (ko) 2018-08-07 2018-08-07 인터렉션 로봇의 제어 방법 및 제어 서버
KR10-2018-0091669 2018-08-07

Publications (1)

Publication Number Publication Date
CN110815234A true CN110815234A (zh) 2020-02-21

Family

ID=67807901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811385289.8A Pending CN110815234A (zh) 2018-08-07 2018-11-20 交互机器人的控制方法及控制服务器

Country Status (3)

Country Link
US (1) US11123873B2 (zh)
KR (1) KR102012968B1 (zh)
CN (1) CN110815234A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112037793A (zh) * 2020-08-21 2020-12-04 北京如影智能科技有限公司 一种语音回复方法及装置
CN112829687A (zh) * 2019-11-25 2021-05-25 奥迪股份公司 仿生装置、包括仿生装置的车辆及用于该车辆的方法
CN115312054A (zh) * 2022-08-05 2022-11-08 山东大学 一种基于语音交互的四足机器人运动控制方法及系统

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10957089B2 (en) * 2018-09-13 2021-03-23 International Business Machines Corporation Animation generation
KR20200094396A (ko) * 2019-01-30 2020-08-07 삼성전자주식회사 전자 장치 및 복수의 액션들을 포함하는 태스크를 결정하는 방법
US11276399B2 (en) * 2019-04-11 2022-03-15 Lg Electronics Inc. Guide robot and method for operating the same
KR20210020312A (ko) * 2019-08-14 2021-02-24 엘지전자 주식회사 로봇 및 그의 제어 방법
CN110861107B (zh) * 2019-12-03 2020-12-22 北京海益同展信息科技有限公司 服务机器人及其显示控制方法、控制器和存储介质
KR102196490B1 (ko) * 2020-05-06 2020-12-30 주식회사 서큘러스 인터렉션 로봇 및 사용자 정서 케어를 위한 인터렉션 방법
CN111590600A (zh) * 2020-05-18 2020-08-28 武汉艾瓦客机器人有限公司 一种基于多模态数据情感交互的抱枕机器人系统
US20220134544A1 (en) * 2020-10-30 2022-05-05 Honda Research Institute Europe Gmbh System and method for continuously sharing behavioral states of a creature
IT202100014480A1 (it) * 2021-06-03 2022-12-03 Ivano Corradetti Sistema informativo, robotizzato, interagibile empaticamente con un interlocutore umano
CN116117834A (zh) * 2023-04-11 2023-05-16 佛山宜视智联科技有限公司 可交互的机器人变色系统

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131683A (ja) * 2001-10-22 2003-05-09 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP2004259238A (ja) * 2003-02-25 2004-09-16 Kazuhiko Tsuda 自然言語解析における感情理解システム
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
US20110137906A1 (en) * 2009-12-09 2011-06-09 International Business Machines, Inc. Systems and methods for detecting sentiment-based topics
KR20120121298A (ko) * 2011-04-26 2012-11-05 한국과학기술원 감정 음성 합성 기능을 가지는 보조 로봇 및 보조 로봇용 감정 음성 합성 방법 및 기록 매체
JP2012248065A (ja) * 2011-05-30 2012-12-13 Nippon Telegr & Teleph Corp <Ntt> 怒り感情推定装置、怒り感情推定方法およびそのプログラム
CN103218654A (zh) * 2012-01-20 2013-07-24 沈阳新松机器人自动化股份有限公司 一种机器人情绪情感生成与表达系统
US20150217449A1 (en) * 2014-02-03 2015-08-06 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
CN106294312A (zh) * 2015-06-29 2017-01-04 北京大学 信息处理方法和信息处理系统
KR20170055040A (ko) * 2015-11-10 2017-05-19 (주)이산솔루션 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템
JP2018073343A (ja) * 2016-11-04 2018-05-10 トヨタ自動車株式会社 感情推定方法
KR20180057489A (ko) * 2016-11-22 2018-05-30 주식회사 로보러스 감정을 생성하여 표현하는 로봇 시스템과, 그 시스템에서의 감정 생성 및 표현 방법
CN108115695A (zh) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 一种情感色彩表达系统及机器人

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6604021B2 (en) * 2001-06-21 2003-08-05 Advanced Telecommunications Research Institute International Communication robot
KR100814330B1 (ko) 2006-11-28 2008-03-18 주식회사 한울로보틱스 학습보조 및 교사 도우미 로봇 시스템
KR101336641B1 (ko) * 2012-02-14 2013-12-16 (주) 퓨처로봇 감성 교감 로봇 서비스 시스템 및 그 방법
KR20180040907A (ko) 2016-10-13 2018-04-23 엘지전자 주식회사 공항 로봇
KR102616403B1 (ko) * 2016-12-27 2023-12-21 삼성전자주식회사 전자 장치 및 그의 메시지 전달 방법
KR101961376B1 (ko) 2017-01-02 2019-03-22 엘지전자 주식회사 커뮤니케이션 로봇
KR102354415B1 (ko) * 2017-05-12 2022-01-21 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131683A (ja) * 2001-10-22 2003-05-09 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP2004259238A (ja) * 2003-02-25 2004-09-16 Kazuhiko Tsuda 自然言語解析における感情理解システム
JP2006198017A (ja) * 2005-01-18 2006-08-03 Sega Toys:Kk ロボット玩具
US20110137906A1 (en) * 2009-12-09 2011-06-09 International Business Machines, Inc. Systems and methods for detecting sentiment-based topics
KR20120121298A (ko) * 2011-04-26 2012-11-05 한국과학기술원 감정 음성 합성 기능을 가지는 보조 로봇 및 보조 로봇용 감정 음성 합성 방법 및 기록 매체
JP2012248065A (ja) * 2011-05-30 2012-12-13 Nippon Telegr & Teleph Corp <Ntt> 怒り感情推定装置、怒り感情推定方法およびそのプログラム
CN103218654A (zh) * 2012-01-20 2013-07-24 沈阳新松机器人自动化股份有限公司 一种机器人情绪情感生成与表达系统
US20150217449A1 (en) * 2014-02-03 2015-08-06 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
CN106294312A (zh) * 2015-06-29 2017-01-04 北京大学 信息处理方法和信息处理系统
KR20170055040A (ko) * 2015-11-10 2017-05-19 (주)이산솔루션 스마트 단말을 이용한 감성반응 스마트 로봇의 제어 시스템
JP2018073343A (ja) * 2016-11-04 2018-05-10 トヨタ自動車株式会社 感情推定方法
KR20180057489A (ko) * 2016-11-22 2018-05-30 주식회사 로보러스 감정을 생성하여 표현하는 로봇 시스템과, 그 시스템에서의 감정 생성 및 표현 방법
CN108115695A (zh) * 2016-11-28 2018-06-05 沈阳新松机器人自动化股份有限公司 一种情感色彩表达系统及机器人

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
韩志艳, 东北大学出版社, pages: 15 - 34 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112829687A (zh) * 2019-11-25 2021-05-25 奥迪股份公司 仿生装置、包括仿生装置的车辆及用于该车辆的方法
CN112037793A (zh) * 2020-08-21 2020-12-04 北京如影智能科技有限公司 一种语音回复方法及装置
CN115312054A (zh) * 2022-08-05 2022-11-08 山东大学 一种基于语音交互的四足机器人运动控制方法及系统

Also Published As

Publication number Publication date
US20200047348A1 (en) 2020-02-13
KR102012968B9 (ko) 2023-06-09
KR102012968B1 (ko) 2019-08-27
US11123873B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
CN110815234A (zh) 交互机器人的控制方法及控制服务器
CN108000526B (zh) 用于智能机器人的对话交互方法及系统
EP3652734B1 (en) Voice data processing method and electronic device supporting the same
CN106469212B (zh) 基于人工智能的人机交互方法和装置
CN106874265B (zh) 一种与用户情绪匹配的内容输出方法、电子设备及服务器
CN105843381B (zh) 用于实现多模态交互的数据处理方法及多模态交互系统
KR102389625B1 (ko) 사용자 발화를 처리하는 전자 장치 및 이 전자 장치의 제어 방법
US9805020B2 (en) In-context access of stored declarative knowledge using natural language expression
CN109410927A (zh) 离线命令词与云端解析结合的语音识别方法、装置和系统
CN107895577A (zh) 使用长尾语音命令的任务发起
CN110110169A (zh) 人机交互方法及人机交互装置
CN110892416A (zh) 多模态对话代理
CN109086860B (zh) 一种基于虚拟人的交互方法及系统
KR20200059054A (ko) 사용자 발화를 처리하는 전자 장치, 및 그 전자 장치의 제어 방법
Griol et al. Mobile conversational agents for context-aware care applications
Pittermann et al. Handling emotions in human-computer dialogues
Kao et al. Model of multi-turn dialogue in emotional chatbot
WO2022259005A1 (en) Automated no-code coding of app-software using a conversational interface and natural language processing
JP6034459B1 (ja) 対話インターフェース
CN112219235A (zh) 包括处理用户语音的电子设备和控制电子设备上语音识别的方法的系统
JP2020154378A (ja) 自己との対話装置、チャットボット、およびロボット
CN111949773A (zh) 一种阅读设备、服务器以及数据处理的方法
CN109359177B (zh) 用于讲故事机器人的多模态交互方法及系统
CN111063352A (zh) 基于语音助手的交互方法、装置、电子设备及存储介质
JP2014229180A (ja) 内省支援装置、内省支援方法、内省支援プログラム、対話装置、対話方法および対話プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination