CN110322875A - 机器人交互系统及方法 - Google Patents

机器人交互系统及方法 Download PDF

Info

Publication number
CN110322875A
CN110322875A CN201810273951.4A CN201810273951A CN110322875A CN 110322875 A CN110322875 A CN 110322875A CN 201810273951 A CN201810273951 A CN 201810273951A CN 110322875 A CN110322875 A CN 110322875A
Authority
CN
China
Prior art keywords
robot
expression
interaction content
voice
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201810273951.4A
Other languages
English (en)
Inventor
张学琴
向能德
胡明顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Yuzhan Precision Technology Co ltd
Hon Hai Precision Industry Co Ltd
Original Assignee
Shenzhen Yuzhan Precision Technology Co ltd
Hon Hai Precision Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Yuzhan Precision Technology Co ltd, Hon Hai Precision Industry Co Ltd filed Critical Shenzhen Yuzhan Precision Technology Co ltd
Priority to CN201810273951.4A priority Critical patent/CN110322875A/zh
Priority to TW107112441A priority patent/TW201942734A/zh
Priority to US15/965,820 priority patent/US20190302992A1/en
Publication of CN110322875A publication Critical patent/CN110322875A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Fuzzy Systems (AREA)
  • Mechanical Engineering (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

一种机器人交互系统及方法。该方法包括在智能终端提供一编辑界面供用户编辑交互内容,该编辑界面包括动作编辑区域、表情编辑区域、语音编辑区域及交互内容执行方式编辑区域;响应用户对动作编辑区域的操作,确定一动作;响应用户对表情编辑区域的操作,确定一表情;响应用户对语音编辑区域的操作,确定一语音;响应用户对交互内容执行方式编辑区域的操作,确定一交互内容执行方式;及获取以上各个编辑模块确定的动作、表情、语音、交互内容执行方式,生成一交互内容。通过本发明可以方便用户通过智能终端控制所述机器人。

Description

机器人交互系统及方法
技术领域
本发明涉及机器人技术领域,尤其涉及一种机器人交互系统及方法。
背景技术
现代高端科技研制的各种类型机器人,已经在众多的领域得到较广泛的应用,占有举重轻足的地位。科学在不断地发展,机器人制造工艺的各项性能水平也在不断地得已提升。从较早期只能执行简单程序,重复简单动作的工业机器人,发展到如今装载智能程序有较强智能表现的智能机器人,以及正在努力研制的具备犹如人类复杂意识般的意识化机器人。同时,智能终端的应用也越来越广,人们的生活已经与各种类型智能终端息息相关。
发明内容
鉴于以上内容,有必要提供一种机器人交互系统,方便用户通过智能终端控制所述机器人。
还有必要提供一种机器人交互方法,方便用户通过智能终端控制所述机器人。
一种机器人交互系统,该系统包括:
界面生成模块,用于在智能终端提供一编辑界面供用户编辑交互内容,该编辑界面包括动作编辑区域、表情编辑区域、语音编辑区域及交互内容执行方式编辑区域;
动作编辑模块,用于响应用户对动作编辑区域的操作,确定一动作;
表情编辑模块,用于响应用户对表情编辑区域的操作,确定一表情;
语音编辑模块,用于响应用户对语音编辑区域的操作,确定一语音;
交互内容执行方式编辑模块,用于响应用户对交互内容执行方式编辑区域的操作,确定一交互内容执行方式;及
发送模块,用于获取以上各个编辑模块确定的动作、表情、语音、交互内容执行方式,生成一交互内容。
优选地,该发送模块还用于将生成的交互内容传转换成控制指令,并发送所述控制指令至机器人,使得机器人根据所述控制指令执行相关操作。
优选地,该编辑界面还包括机器人选择编辑区域,该机器人交互系统还用于响应用户对机器人选择编辑区域的操作,确定接收所述控制指令的机器人。
优选地,所述动作编辑区域用于编辑所述机器人的执行动作;
所述表情编辑区域用于编辑所述表情的造型、情绪信息及所述表情造型的持续时间;
所述交互内容执行方式编辑区域用于设置上述交互内容为单个的语音信息、或者单个的表情信息、或者单个的动作信息,或者为所述语音信息、表情信息及动作信息的相互任意组合与搭配,所述交互内容执行方式编辑区域还用于设置所述机器人根据该交互内容执行相关操作的次数及模式。
优选地,所述表情信息包括表情的造型和情绪信息,所述语音信息包括语音对应的文字、音色及音调,所述动作信息包括手臂动作信息、腿部动作信息和关节旋转方向及角度。
一种机器人交互方法,该方法包括:
界面生成步骤,在智能终端提供一编辑界面供用户编辑交互内容,该编辑界面包括动作编辑区域、表情编辑区域、语音编辑区域及交互内容执行方式编辑区域;
动作编辑步骤,响应用户对动作编辑区域的操作,确定一动作;
表情编辑步骤,响应用户对表情编辑区域的操作,确定一表情;
语音编辑步骤,响应用户对语音编辑区域的操作,确定一语音;
交互内容执行方式编辑步骤,响应用户对交互内容执行方式编辑区域的操作,确定一交互内容执行方式;及
发送步骤,获取以上各个编辑模块确定的动作、表情、语音、交互内容执行方式,生成一交互内容。
优选地,该方法还包括将生成的交互内容传转换成控制指令,并发送所述控制指令至机器人,使得机器人根据所述控制指令执行相关操作的步骤。
优选地,该编辑界面还包括机器人选择编辑区域,该方法还包括响应用户对机器人选择编辑区域的操作,确定接收所述控制指令的机器人的步骤。
优选地,所述动作编辑区域用于编辑所述机器人的执行动作;
所述表情编辑区域用于编辑所述表情的造型、情绪信息及所述表情造型的持续时间;
所述交互内容执行方式编辑区域用于设置上述交互内容为单个的语音信息、或者单个的表情信息、或者单个的动作信息,或者为所述语音信息、表情信息及动作信息的相互任意组合与搭配,所述交互内容执行方式编辑区域还用于设置所述机器人根据该交互内容执行相关操作的次数及模式。
优选地,所述表情信息包括表情的造型和情绪信息,所述语音信息包括语音对应的文字、音色及音调,所述动作信息包括手臂动作信息、腿部动作信息和关节旋转方向及角度。
相较于现有技术,所述机器人交互系统及方法,可以根据用户所述智能终端中编辑想要所述机器人在某时某刻或者在某一段时间内所要执行的表达内容控制所述机器人执行相关操作。方便用户通过智能终端控制所述机器人。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明机器人交互系统较佳实施例的应用环境示意图。
图2是本发明机器人交互系统较佳实施例的功能模块图。
图3是本发明机器人交互方法较佳实施例的流程图。
图4是本发明供用户编辑交互内容的编辑界面示意图。
主要元件符号说明
智能终端 1
机器人 2
服务器 3
输入单元 10
显示单元 11
通讯单元 12、23
存储器 13、25
处理器 14、26
外壳 20
麦克风 21
摄像头 22
输出单元 24
运动装置 27
机器人交互系统 100
配对模块 101
界面生成模块 102
动作编辑模块 103
表情编辑模块 104
语音编辑模块 105
交互内容执行方式编辑模块 106
发送模块 107
编辑界面 110
动作编辑区域 111
表情编辑区域 112
语音编辑区域 113
交互内容执行方式编辑区域 114
如下具体实施方式将结合上述附图进一步说明本发明。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1所示,是本发明机器人交互系统较佳实施例的应用环境示意图。该机器人交互系统100运行于智能终端1中。所述智能终端1可以是手机、电脑、智能手表、智能电视等电子设备。所述智能终端1包括,但不仅限于,输入单元10、显示单元11、通讯单元12、存储器13及处理器14。所述输入单元10、显示单元11、通讯单元12、存储器13及处理器14互相电气连接。在本实施方式中,所述智能终端1与机器人2和服务器3通信连接。
在其他实施例中,所述机器人交互系统100还可以运行于所述服务器3中。
在本实施方式中,用户可以通过所述输入单元10和所述智能终端1进行交互。所述输入单元10可以采用非接触式的输入方式和所述智能终端1进行交互。例如动作输入,声控等或者是一外置的遥控器单元,通过无线或有线通讯的方式发送控制命令给处理器14。所述输入单元10还可以为电容式触摸屏、电阻式触摸屏、其他光学触摸屏等或者是机械按键输入单元,例如按键、拨杆、飞轮输入键等。当所述输入单元10为覆盖于显示单元11上的触摸式输入单元时,用户可以通过手指或触摸笔等输入设备在输入单元10输入信息。
在本实施方式中,所述显示单元11可以具有触摸功能,如液晶(Liquid CrystalDisplay,LCD)显示屏或有机发光二极管(Organic Light-Emitting Diode,OLED)显示屏。
在本实施方式中,所述通讯单元12用于为所述智能终端1提供有线或无线网络通讯。例如,所述智能终端1通过所述通讯单元12与所述服务器3无线网络连接。
在本实施方式中,该有线网络可以为传统有线通讯的任何类型,例如因特网、局域网。该无线网络可以为传统无线通讯的任何类型,例如无线电、无线保真(WirelessFidelity,WIFI)、蜂窝、卫星、广播等。无线通讯技术可以包括,但不限于,全球移动通信系统(Global System for Mobile Communications,GSM)、通用分组无线业务(GeneralPacket Radio Service,GPRS)、码分多址(Code Division Multiple Access,CDMA),宽带码分多址(W-CDMA)、CDMA2000、IMT单载波(IMT Single Carrier)、增强型数据速率GSM演进(Enhanced Data Rates for GSM Evolution,EDGE)、长期演进技术(Long-TermEvolution,LTE)、高级长期演进技术、时分长期演进技术(Time-Division LTE,TD-LTE)、第五代移动通信技术(5G)、高性能无线电局域网(High Performance Radio Local AreaNetwork,HiperLAN)、高性能无线电广域网(High Performance Radio Wide AreaNetwork,HiperWAN)、本地多点派发业务(Local Multipoint Distribution Service,LMDS)、全微波存取全球互通(Worldwide Interoperability for Microwave Access,WiMAX)、紫蜂协议(ZigBee)、蓝牙、正交频分复用技术(Flash Orthogonal Frequency-Division Multiplexing,Flash-OFDM)、大容量空分多路存取(High Capacity SpatialDivision Multiple Access,HC-SDMA)、通用移动电信系统(Universal MobileTelecommunications System,UMTS)、通用移动电信系统时分双工(UMTS Time-DivisionDuplexing,UMTS-TDD)、演进式高速分组接入(Evolved High Speed Packet Access,HSPA+)、时分同步码分多址(Time Division Synchronous Code Division Multiple Access,TD-SCDMA)、演进数据最优化(Evolution-Data Optimized,EV-DO)、数字增强无绳通信(Digital Enhanced Cordless Telecommunications,DECT)及其他。
在本实施方式中,该存储器13用于存储安装于该智能终端1内的软件程序及数据。在本实施方式中,该存储器13可以为该智能终端1的内部存储单元,例如该智能终端1的硬盘或内存。在其他实施方式中,该存储器13也可以为该智能终端1的外部存储设备,例如该智能终端1上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。在本实施方式中,所述存储器13内存储有机器人交互系统100。所述机器人交互系统100可以编辑想要所述机器人2在某时某刻或者在某一段时间内所要执行的表达内容,经过编辑的表达内容通过无线通信的方式传送到所述服务器3,再通过所述服务器3将所述表达内容转换成控制指令。所述服务器3发送所述控制指令至所述机器人2,所述机器人2接收所述控制指令后执行相应操作。所述机器人交互系统100还可以将编辑好的表达内容直接发送至所述机器人2,以控制所述机器人2执行相关操作。
在本实施方式中,所述处理器14可以为中央处理单元、微处理器或者其他能够执行所述机器人交互系统100的数据处理芯片。
在本实施方式中,所述机器人交互系统100可以被分割成一个或多个模块,所述一个或多个模块存储在所述存储器13中,并被配置至一个或多个处理器(本实施例为一个处理器14)执行,以完成本发明。例如,参阅图2所示,所述机器人交互系统100被分割成配对模块101、界面生成模块102、动作编辑模块103、表情编辑模块104、语音编辑模块105、交互内容执行方式编辑模块106及发送模块107。本发明所称的模块是能够完成一特定功能的程序段,关于各模块的详细功能将在后文图3的流程图中作具体描述。
在本实施方式中,所述机器人2包括,但不仅限于,外壳20及设置于外壳20内部的麦克风21、摄像头22、通讯单元23、输出单元24、存储器25及处理器26。上述设置于外壳20内部的各个元件之间电气连接。在本实施方式中,所述外壳20外部连接有运动装置27,所述运动装置27用于根据所述处理器26发出的控制指令控制所述机器人2的运动状态,如行走、转弯、后退等。
所述机器人2还包括一驱动装置(图中未示出),所述驱动装置用于驱动所述运动装置27以使所述机器人2可以运动。所述机器人2还包括电源(图中未示出),用于给所述机器人2提供电能。
在本实施方式中,所述麦克风21用于接收语音信息;所述摄像头22用于采集图片或视频流。
所述通讯单元23用于通过有线网络或无线网络等方式与服务器3或者所述智能终端1进行通信连接。
所述输出单元24包括喇叭,所述喇叭用于输出语音信息。
所述存储器25可以内置于该机器人2,也可以外置于该机器人2,如安全数字卡、智能媒体卡等外部存储设备。所述处理器26可以为中央处理单元,或者其他能够执行控制功能的数据处理芯片。
如图3所示,是本发明机器人交互方法较佳实施例的流程图。根据不同需求,该流程图中步骤的顺序可以改变,某些步骤可以省略或合并。
步骤S20,配对模块101,用于对所述智能终端1与所述机器人2之间进行授权配对。
在本实施方式中,所述授权配对的方式包括密码口令、二维码等。例如,当所述智能终端1需要与所述机器人2进行授权配对时,所述智能终端1接收所述机器人2发送的密码口令,并且在所述智能终端1的绑定界面输入的密码口令与接收的密码口令一致时,实现所述智能终端1与所述机器人2之间的配对;或者通过所述智能终端1的摄像头(图中未示出)扫描所述机器人2上的二维码,来实现所述智能终端1与所述机器人2之间的配对。
在其他实施方式中,当所述智能终端1为手机时,可以在所述智能终端1的显示单元11显示的绑定界面输入手机号码以获取验证码,并通过输入该验证码来进行配对。可以理解的是,所述授权配对的方式并不限于以上几种,在这里不再赘述。
步骤S21,界面生成模块102在所述智能终端1提供一编辑界面110供用户编辑交互内容。
在本实施方式中,所述智能终端1可以在所述显示单元11上提供一个编辑界面110供用户编辑所述交互内容。如图4所示,所述编辑界面110包括动作编辑区域111、表情编辑区域112、语音编辑区域113及交互内容执行方式编辑区域114。
在本实施方式中,所述交互内容包括表情信息、语音信息及动作信息中的一种或多种。
步骤S22,动作编辑模块103用于响应用户对动作编辑区域的操作,确定一动作。在本实施方式中,所述动作包括手臂动作信息(如,手臂弯曲)、腿部动作信息、关节旋转方向及角度等信息。
所述动作编辑模块103可以响应用户在所述动作编辑区域111内编辑所述机器人2的执行动作。例如,所述机器人2的上肢、下肢或者各个关节运动旋转的方向及角度。所述动作编辑模块103还可以响应用户在所述动作编辑区域111内编辑所述机器人2的某个动作执行的速度和时间等信息。
步骤S23,表情编辑模块104用于响应用户对表情编辑区域的操作,确定一表情。
在本实施方式中,所述表情包括表情的造型和情绪信息。例如,所述表情的造型为小狗的造型、小猫的造型或可爱动漫的造型等。所述情绪信息包括高兴、生气、悲伤、喜爱、讨厌、害怕、惊吓及疑问等等。表情编辑模块104可以响应用户在所述表情编辑区域112内编辑所述表情的造型、情绪信息及所述表情造型的持续时间等。
步骤S24,语音编辑模块105响应用户对语音编辑区域的操作,确定一语音。
在本实施方式中,所述语音包括语音对应的文字、音色、音调等信息。语音编辑模块105可以响应用户在所述语音编辑区域113内编辑所述语音信息。
步骤S25,交互内容执行方式编辑模块106响应用户对交互内容执行方式编辑区域的操作,确定一交互内容执行方式。
在本实施方式中,所述交互内容执行方式编辑模块106可以响应用户在所述交互内容执行方式编辑区域114设置上述交互内容为单个的语音信息、或者单个的表情信息、或者单个的动作信息,也可以为所述语音信息、表情信息及动作信息的相互任意组合与搭配。还可以响应用户在所述交互内容执行方式编辑区域114设置所述机器人2根据该交互内容执行相关操作的次数及模式。例如单次执行某一操作、多次执行某一操作或循环执行某一操作或多个操作。所述交互内容执行方式编辑区域114还可以设置重复执行相关操作的时间间隔及先后次序等。
步骤S26,发送模块107获取所述各个编辑模块确定的动作、表情、语音、交互内容执行方式,生成一交互内容,将生成的交互内容传转换成控制指令,并发送所述控制指令至机器人2,使得机器人2根据所述控制指令执行相关操作。
在本实施方式中,所述智能终端1可以将在一定时间段内接收的表情或语音或动作交互内容打包,以生成一个或多个表达包,再发送所述表达包至所述服务器3。例如,为了使与机器人2之间的交互内容更加丰富,所述智能终端1可以发送连续多个表达包至所述服务器3。所述连续多个表达包中包含不同的内容设置及时间序列。所述服务器3将接收的交互内容转换成控制指令,并发送所述控制指令至与所述机器人2。在本实施方式中所述服务器3发送所述控制指令至与所述智能终端1配对后的机器人2。所述机器人2接收所述控制指令,并根据所述控制指令执行相关操作。
可以理解的是,在其他实施方式中,所述步骤S26还可以是,发送模块107将编辑过的交互内容发送至机器人2,以控制所述机器人2根据所述交互内容执行相关操作。即,所述智能终端1可以直接远程控制所述机器人2。
通过上述步骤S20至步骤S26可以实现所述智能终端1与所述机器人2之间的远程交互,方便用户远程控制所述机器人2,提升了用户体验。该机器人交互系统100可以广泛地用于应用在儿童看护、儿童教育、家庭娱乐、机器人2表演控制、机器人2迎宾及餐厅服务机器人2等方面。
可以理解的是,所述智能终端1不仅可以与一台机器人2进行远程交互,还可以同时与多台机器人2进行远程交互。例如,智能终端1与机器人A、机器人B及机器人C等进行远程交互。该编辑界面110还包括机器人选择编辑区域(图中未示出),所述机器人交互系统100还可以响应用户对机器人选择编辑区域的操作,确定接收所述控制指令的机器人2。
在另一实施例中,多种类型的所述智能终端1可以与一台机器人2进行远程交互。例如,智能手机、电脑、智能手表和智能电视与机器人A进行远程交互。
在一实施方式中,所述智能终端1和/服务器3还可以实时监测机器人2执行所述交互内容的情况。例如,所述智能终端1与设置在有所述机器人2的环境中的摄像头(图中未示出)通信连接。所述摄像头用于拍摄图像和/或视频信息,并将拍摄的图像或视频信息反馈至所述智能终端1或服务器3。所述智能终端1和/服务器3通过查看所述图像或视频来监测机器人2执行所述交互内容的情况。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种机器人交互系统,其特征在于,该系统包括:
界面生成模块,用于在智能终端提供一编辑界面供用户编辑交互内容,该编辑界面包括动作编辑区域、表情编辑区域、语音编辑区域及交互内容执行方式编辑区域;
动作编辑模块,用于响应用户对动作编辑区域的操作,确定一动作;
表情编辑模块,用于响应用户对表情编辑区域的操作,确定一表情;
语音编辑模块,用于响应用户对语音编辑区域的操作,确定一语音;
交互内容执行方式编辑模块,用于响应用户对交互内容执行方式编辑区域的操作,确定一交互内容执行方式;及
发送模块,用于获取以上各个编辑模块确定的动作、表情、语音、交互内容执行方式,生成一交互内容。
2.如权利要求1所述的机器人交互系统,其特征在于,该发送模块还用于将生成的交互内容传转换成控制指令,并发送所述控制指令至机器人,使得机器人根据所述控制指令执行相关操作。
3.如权利要求1所述的机器人交互系统,其特征在于,该编辑界面还包括机器人选择编辑区域,该机器人交互系统还用于响应用户对机器人选择编辑区域的操作,确定接收所述控制指令的机器人。
4.如权利要求1所述的机器人交互系统,其特征在于,所述动作编辑区域用于编辑所述机器人的执行动作;
所述表情编辑区域用于编辑所述表情的造型、情绪信息及所述表情造型的持续时间;
所述交互内容执行方式编辑区域用于设置上述交互内容为单个的语音信息、或者单个的表情信息、或者单个的动作信息,或者为所述语音信息、表情信息及动作信息的相互任意组合与搭配,所述交互内容执行方式编辑区域还用于设置所述机器人根据该交互内容执行相关操作的次数及模式。
5.如权利要求4所述的机器人交互系统,其特征在于,所述表情信息包括表情的造型和情绪信息,所述语音信息包括语音对应的文字、音色及音调,所述动作信息包括手臂动作信息、腿部动作信息和关节旋转方向及角度。
6.一种机器人交互方法,其特征在于,该方法包括:
界面生成步骤,在智能终端提供一编辑界面供用户编辑交互内容,该编辑界面包括动作编辑区域、表情编辑区域、语音编辑区域及交互内容执行方式编辑区域;
动作编辑步骤,响应用户对动作编辑区域的操作,确定一动作;
表情编辑步骤,响应用户对表情编辑区域的操作,确定一表情;
语音编辑步骤,响应用户对语音编辑区域的操作,确定一语音;
交互内容执行方式编辑步骤,响应用户对交互内容执行方式编辑区域的操作,确定一交互内容执行方式;及
发送步骤,获取以上各个编辑模块确定的动作、表情、语音、交互内容执行方式,生成一交互内容。
7.如权利要求6所述的机器人交互方法,其特征在于,该方法还包括将生成的交互内容传转换成控制指令,并发送所述控制指令至机器人,使得机器人根据所述控制指令执行相关操作的步骤。
8.如权利要求6所述的机器人交互方法,其特征在于,该编辑界面还包括机器人选择编辑区域,该方法还包括响应用户对机器人选择编辑区域的操作,确定接收所述控制指令的机器人的步骤。
9.如权利要求6所述的机器人交互方法,其特征在于,所述动作编辑区域用于编辑所述机器人的执行动作;
所述表情编辑区域用于编辑所述表情的造型、情绪信息及所述表情造型的持续时间;
所述交互内容执行方式编辑区域用于设置上述交互内容为单个的语音信息、或者单个的表情信息、或者单个的动作信息,或者为所述语音信息、表情信息及动作信息的相互任意组合与搭配,所述交互内容执行方式编辑区域还用于设置所述机器人根据该交互内容执行相关操作的次数及模式。
10.如权利要求9所述的机器人交互方法,其特征在于,所述表情信息包括表情的造型和情绪信息,所述语音信息包括语音对应的文字、音色及音调,所述动作信息包括手臂动作信息、腿部动作信息和关节旋转方向及角度。
CN201810273951.4A 2018-03-29 2018-03-29 机器人交互系统及方法 Withdrawn CN110322875A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201810273951.4A CN110322875A (zh) 2018-03-29 2018-03-29 机器人交互系统及方法
TW107112441A TW201942734A (zh) 2018-03-29 2018-04-11 機器人交互系統及方法
US15/965,820 US20190302992A1 (en) 2018-03-29 2018-04-27 Smart terminal and method for interacting with robot using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810273951.4A CN110322875A (zh) 2018-03-29 2018-03-29 机器人交互系统及方法

Publications (1)

Publication Number Publication Date
CN110322875A true CN110322875A (zh) 2019-10-11

Family

ID=68056193

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810273951.4A Withdrawn CN110322875A (zh) 2018-03-29 2018-03-29 机器人交互系统及方法

Country Status (3)

Country Link
US (1) US20190302992A1 (zh)
CN (1) CN110322875A (zh)
TW (1) TW201942734A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111061236A (zh) * 2019-12-23 2020-04-24 明发集团安徽智能科技有限公司 一种协调配合控制方法、装置和家用机器人
CN111309862A (zh) * 2020-02-10 2020-06-19 贝壳技术有限公司 具有情感的用户交互方法和装置、存储介质、设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11619935B2 (en) 2020-07-17 2023-04-04 Blue Ocean Robotics Aps Methods of controlling a mobile robot device from one or more remote user devices

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003340759A (ja) * 2002-05-20 2003-12-02 Sony Corp ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
FR2963132A1 (fr) * 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US9259842B2 (en) * 2011-06-10 2016-02-16 Microsoft Technology Licensing, Llc Interactive robot initialization
WO2016014137A2 (en) * 2014-05-06 2016-01-28 Neurala, Inc. Apparatuses, methods, and systems for defining hardware-agnostic brains for autonomous robots
CN106293370A (zh) * 2015-05-27 2017-01-04 鸿富锦精密工业(深圳)有限公司 移动终端

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111061236A (zh) * 2019-12-23 2020-04-24 明发集团安徽智能科技有限公司 一种协调配合控制方法、装置和家用机器人
CN111309862A (zh) * 2020-02-10 2020-06-19 贝壳技术有限公司 具有情感的用户交互方法和装置、存储介质、设备

Also Published As

Publication number Publication date
US20190302992A1 (en) 2019-10-03
TW201942734A (zh) 2019-11-01

Similar Documents

Publication Publication Date Title
Hu et al. Software defined healthcare networks
Yun et al. A device software platform for consumer electronics based on the Internet of Things
CN105549408B (zh) 可穿戴设备、智能家居服务器及其控制方法和系统
Mandula et al. Mobile based home automation using Internet of Things (IoT)
CN103631221B (zh) 一种遥操作服务机器人系统
CN110381195A (zh) 一种投屏显示方法及电子设备
CN110322875A (zh) 机器人交互系统及方法
CN103235522B (zh) 利用手机耳机等接口实现远程控制的机器人系统
CN103324173B (zh) 基于中间件的多异构机器人协作方法
US20190361408A1 (en) Information processing apparatus and non-transitory computer readable medium
CN103079021A (zh) 通过移动终端对智能家电进行控制的方法、系统和装置
US10952267B2 (en) Terminal and method for connecting to target devices
CN103281580A (zh) 分离用户界面的电视机遥控方法及其系统
CN107020635A (zh) 在多机器人上运行多主节点机器人操作系统的方法
Liu et al. The SOLIDS 6G mobile network architecture: driving forces, features, and functional topology
CN102902664A (zh) 一种智能终端上的人工智能自然语言运行系统
CN109684025A (zh) 一种远程通信方法及相关装置
CN109901698A (zh) 一种智能交互方法、可穿戴设备和终端以及系统
CN107479940A (zh) 一种实现物联网模块的方法及装置
CN107086949A (zh) 一种用于人与智能设备交互操作的辅助智能装置
CN108021046A (zh) 一种实现人机交互的机器人
US11412555B2 (en) Mobile terminal
CN104050109A (zh) 一种扩展外设的方法、设备及系统
KR102102396B1 (ko) 이동 단말기
CN106533851A (zh) 基于mesh网络技术的控制系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20191011