CN110154048B - 机器人的控制方法、控制装置和机器人 - Google Patents
机器人的控制方法、控制装置和机器人 Download PDFInfo
- Publication number
- CN110154048B CN110154048B CN201910437388.4A CN201910437388A CN110154048B CN 110154048 B CN110154048 B CN 110154048B CN 201910437388 A CN201910437388 A CN 201910437388A CN 110154048 B CN110154048 B CN 110154048B
- Authority
- CN
- China
- Prior art keywords
- content
- robot
- scene
- contents
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
本申请实施例提供了一种机器人的控制方法、装置和机器人。该机器人的控制方法包括:获取机器人的第一环境数据,第一环境数据包括图像、声音、温度、日期、时间、位置、触觉、空气指数以及网络内容中的至少一种;若第一环境数据对应于已存储的场景之一,则控制机器人输出交互内容。本申请实施例通过感知机器人的环境数据,在确定该环境数据对应于已存储的场景之一的情况下输出主动交互内容。这样,无需用户主动触发,即可实现机器人的主动交互。
Description
技术领域
本发明涉及机器人领域,尤其涉及机器人的控制方法、控制装置和机器人。
背景技术
随着智能机器人的发展,智能机器人的的功能也更加强大。目前的智能机器人不仅能够播放、音乐、视频、游戏等应用,还可以与用户进行交互。例如,用户向智能机器人提出问题,智能机器人被动地进行回答。但是,目前的智能机器人仅能作为回答者与用户进行对话,而无法主动的与用户进行交互。
发明内容
本发明实施例提供了一种机器人的控制方法、控制装置和机器人,能够主动进行交互。
第一方面,提供了一种机器人的控制方法,包括:
获取机器人的第一环境数据,第一环境数据包括图像、声音、温度、日期、时间、位置、触觉、空气指数以及网络内容中的至少一种;
若第一环境数据对应于已存储的场景之一,则控制机器人输出交互内容。
在一些实施例中,第一环境数据对应于已存储的场景中的第一场景,方法还包括:
获取第一场景对应的多种内容各自的系数,多种内容包括预设的内容和/或在机器人交互过程中学习的内容;
根据多种内容各自的系数,确定每种内容对应的概率;
根据多种内容各自的概率从多种内容中选择一种或多种内容作为交互内容。
在一些实施例中,根据多种内容各自的系数,确定每种内容对应的概率,包括:
获取多种内容的系数的和值;
获取每种内容的系数与和值的比值,得到每种内容对应的概率。
在一些实施例中,每种内容的系数与每种内容的关注度相关。
在一些实施例中,该方法还包括:
获取用户在第一场景下输入的第一内容;
若第一内容为第一场景对应的内容之一,则将第一内容的系数增加第一预设值;或者,
若第一内容不属于第一场景对应的内容,则更新第一场景对应的内容,更新后的内容包括第一内容,并将第一内容的系数设置为第二预设值。
在一些实施例中,该方法还包括:
确定用户的身份;
其中,第一场景对应的多种内容与用户相关。
在一些实施例中,确定用户的身份,包括:
获取用户的生物特征数据,根据生物特征数据采用生物识别技术,确定用户的身份。
在一些实施例中,该方法还包括:
获取用户输入的第二内容,并获取当前的第二环境数据;
若已存储的场景中不存在与第二环境数据对应的第二场景,则创建第二场景,将第二内容作为第二场景对应的内容存储,并将第二内容的系数设置为第三预设值;或者,
若已存储的场景中存在与第二环境数据对应的第二场景,且第二内容不属于第二场景对应的内容,则更新第二场景对应的内容存储,更新后的内容包括第二内容,并将第二内容的系数设置为第三预设值。
在一些实施例中,已存储的场景包括预设场景和主动学习的场景。
在一些实施例中,所交互内容为语音、动作、表情、网络推送以及控制信号中的至少一种。
第二方面,提供了一种机器人的控制装置,该控制装置用于实现以上第一方面以及各实施例的机器人的控制方法。相应地,该装置包括用于执行以上的各个流程的模块或单元。例如,该装置包括:
获取单元,用于获取机器人的第一环境数据,第一环境数据包括图像、声音、温度、日期、时间、位置、触觉、空气指数以及网络内容中的至少一种;
处理单元,用于若第一环境数据对应于已存储的场景之一,则控制机器人输出交互内容。
在一些实施例中,该控制装置还包括:
传感器,用于采集第一环境数据。
第三方面,提供了一种机器人,包括:本体;以及安装于本体内部的处理器,用于执行如上述第一方面以及各实施例的控制方法。
在一些实施例中,该机器人还包括:
传感器模块,用于采集第一环境数据,
传感器模块包括以下至少一种传感器:温度传感器、气体传感器、图像传感器、声音传感器、位置传感器以及触觉传感器。
在一些实施例中,该机器人还包括:
输出设备,用于根据处理器的控制输出交互内容。
第四方面,提供了一种计算机可读存储介质,用于存储计算机可读指令,当计算机可读指令由计算机执行时,使得计算机执行以上的机器人的控制方法。
本申请实施例中,通过感知机器人的环境数据,在确定该环境数据对应于已存储的场景之一的情况下输出交互内容。这样,无需用户主动触发,即可实现机器人的主动交互。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图做简单地介绍。
图1是本申请实施例的机器人的控制方法的示意性流程图;
图2是本申请实施例的机器人的控制装置的结构示意图;
图3是本申请实施例的机器人的结构示意图;
图4是本申请另一实施例的机器人的结构示意图。
具体实施方式
下面将结合本发明实施中的附图,对本发明实施例中的技术方案进行描述。显然,所描述的实施例是本发明的部分实施例,而不是全部实施例。
本申请的说明书和权利要求书及附图中的术语“第一”、“第二”和“第三”等是用于区别不同对象。
本申请实施例提供了一种机器人的控制方法,能够通过感知机器人周围的环境数据,主动向用户发起交互,输出交互内容。
图1是根据本申请实施例的机器人的控制方法100的示意性流程图。方法100可以由机器人的控制装置执行,该机器人的控制装置可以为内置于机器人内部的模块(例如处理器),也可以为与机器人通信连接的设备或服务器(如云端服务器)。如图1所示,方法100包括110和120。
110、获取机器人的第一环境数据,第一环境数据包括图像、声音、温度、日期、时间、位置、触觉、空气指数以及网络内容中的至少一种。
120、若第一环境数据对应于已存储的场景之一,则确定发起主动交互,并输出交互内容。
其中场景是用来区分不同情境的。例如可以按照地点划分不同的场景,则场景包括家中的场景、家外场景(如酒店、商场、公司、医院、公园、车站等);还可以按照交互内容的类型划分不同的场景,如游戏、会餐、娱乐(电视、音乐、游戏)、学习、休息等;还可以按照时间划分不同的场景,例如工作日、假期、上午、下午、晚上、上班时段、下班时段等;还可以按照其他方式划分不同的场景,只要能够使得机器人能够识别出不同的情境,以输出对应的交互内容即可。
该交互内容可以为语音、动作、表情、网络推送以及控制信号中的至少一种。例如,该交互内容可以为采用扬声器输出的语音信息、采用显示屏输出的文字信息、采用灯光设备输出的灯光信息、向电器及家居类物联网(Internet of things,IoT)产品发送的控制信号、机器人的肢体动作、机器人面部表情(例如机器人面部的液晶屏幕或灯光效果)、向相关用户发送的信息(如语音、图像、多媒体或文字信息)或者上述至少两种的组合。
通过获取机器人周围的环境数据,在确定该环境数据对应于已存储的场景之一的情况下输出交互内容。这样,无需用户主动触发,即可实现机器人的主动交互。
在一些实施例中,可以通过传感器采集到图像、声音、温度、日期、时间、位置、触觉和空气指数等环境数据,传感器可以是内置在机器人上的,也可以是放置在机器人所在环境中的外部传感器。例如,可以采用单目或双目摄像头采集图像;可以采用单麦克或麦克阵列采集声音;可以采用集成在机器人中的传感器来采集温度、时间、位置、触觉和空气指数等环境数据;可以采用机器人中的网络模块主动联网获取需要的网络内容,也可以采用其他网络模块获取网络内容。例如,空气指数包括但不限于空气湿度和/或空气质量指数(AirQuality Index,AQI),其中空气质量指数包括但不限于一氧化碳浓度、细颗粒物(如PM2.5)浓度、可吸入颗粒物浓度、二氧化硫浓度、二氧化氮浓度中的至少一种。
在一些实施例中,可以周期性地获取机器人的环境数据,也可以定时获取机器人的环境数据,也可以在被触发时获取机器人的环境数据,还可以周期性地/定时地获取部分环境数据并在检测到触发条件时获取另外一部分环境数据。
示例性地,温度、时间、位置、空气指数可以采用定时的方式采集。例如,采集的时间间隔可以设置为1s左右,机器人的控制装置每隔1s控制传感器会自动采集温度、时间、位置和空气指数参数。
示例性地,图像、声音、触觉和网络内容可以采用触发的方式,当红外传感器检测到人体温度场或系统的语音识别被人唤醒时,则触发摄像头启动条件,开启摄像头图像采集并进行识别,当系统处于连续预设时长(如5分钟)无交互状态时,则关闭摄像头及图像处理的相关单元直到下一次触发唤醒。
示例性地,语音识别的触发以预设的固定词唤醒的方式,可以触发唤醒和/或打断机器人正在进行的交互。例如,当语音系统处于待机状态时,对机器人说预设的固定词就可以触发唤醒机器人,机器人就可以接收后面的语音交互内容进行交互,当系统处于连续预设时长(如30秒)无交互状态时则关闭语音系统。
示例性地,触觉的触发方式为当人触碰机器人身体的触觉传感器时,机器人可立即识别到触碰并触发触觉感知,触觉感知属于即时式,触碰即触发。
示例性地,网络内容采集的触发可以为场景触发。例如,每天的清晨会自动获取天气信息等;当进入某个场景时,如需要获取交通信息时,则触发网络信息采集交通信息。
在一些实施例中,已存储的场景可以包括预先设置并存储的场景。例如,可以预先存储一种或多种场景。应理解,对于预先设置并存储的场景,也可以同时预先存储与该场景对应的至少一种内容,也可以不预先存储与该场景对应的内容,而是采用主动学习的方式来逐步学习并存储与该场景对应的内容。
例如,获取以下环境数据:
时间:早上上班时间,如8:00am;
图像:主人;
网络内容:天气信息和最新资讯;
根据以上环境数据可以确定当前场景为预先存储的早晨上班的场景,则可以发起主动交互,输出与该预先存储的场景对应的交互内容,该交互内容可以包括预设内容和/或在机器人交互过程中学习到的内容,例如提醒主人一些穿衣指数、PM2.5、携带雨具等,然后交互结束。
下表1给出了预先设置并存储部分场景及其对应的内容的例子。
在一些实施例中,一个场景可对应于多种内容。可以控制机器人从当前场景对应的多种内容中随机输出一种或多种内容作为交互内容,也可以根据默认的顺序输出一种或多种内容作为交互内容,还可以根据用户的历史关注度输出一种或多种内容作为交互内容。例如,可以为每种内容分配唯一标识用于区分不同的内容,当确定了作为交互内容的内容的标识之后,根据标识查找对应的交互内容,并输出该交互内容。
示例性地,方法100还包括:
获取第一场景对应的多种内容各自的系数,多种内容包括预设的内容和/或在机器人交互过程中学习到的内容;
根据多种内容各自的系数,确定每种内容对应的概率;
根据多种内容各自的概率从多种内容中选择一种或多种内容作为交互内容。
其中,每种内容的系数与每种内容的关注度相关。例如,每种内容的系数与每种内容的对应的交互次数相等。
例如,可以从多种内容中选择概率最大的一种或多种内容作为交互内容,也可以从多种内容中选择概率大于预设阈值的一种或多种内容作为交互内容。
根据每种内容的系数确定每种内容对应的概率,能够将用户更关注的内容作为主动交互内容输出,从而能够更好地与用户主动交互。
在一些实施例中,根据多种内容各自的系数,确定每种内容对应的概率,包括:
获取多种内容的系数的和值;
获取每种内容的系数与和值的比值,得到每种内容对应的概率。
例如,多种内容的系数的和值可以是预先存储在存储介质(如存储器)或云端中的,可以从存储介质或云端获取多种内容的系数的和值;或者,也可以计算多种内容的系数的和值。
例如,与用户工作场景对应的内容包括预设的天气类内容、问候类内容和资讯类内容,还可以包括学习的天气类内容、备忘类内容、交通类内容和公司类内容。例如,预设内容的系数都为1,学习到的各种内容的系数见下表1所示,则工作场景对应的内容的系数之和为22,学习到的天气类内容的对应的概率为10/22,即有10/22的概率输出天气类内容以提醒用户天气情况。例如提醒用户一些穿衣信息、PM2.5指数或提醒携带雨具等。通过输出概率最大的内容与用户进行主动交互,有利于进一步提升用户体验。
表1学习到的内容的系数
在一些实施例中,方法100还包括:
获取用户在第一场景下输入的第一内容;
若第一内容为第一场景对应的内容之一,则将第一内容的系数增加第一预设值;或者,
若第一内容不属于第一场景对应的内容,则更新第一场景对应的内容,更新后的内容包括第一内容,并将第一内容的系数设置为第二预设值。
在本实施例中,若在当前场景下用户输入的内容为该场景对应的内容之一,则将该内容对应的系数增加预设值,这样该内容的系数可以直观的反映出用户的关注度;若在当前场景下用户输入的内容不属于该场景对应的内容之一,则将该内容作为该场景对应的内容存储,并将该内容的系数设置为初始值,能够从用户与机器人的交互中学习新的内容。
第一预设值和第二预设值都可以为1,也可以为其他值,本申请实施例对此不予限定。示例性地,可以为不同的内容随机分配第一预设值和/或第二预设值,还可以根据用户的偏好设置为不同的内容分配第一预设值和/或第二预设值。例如,为不同内容分配的第一预设值和/或第二预设值可以互不相同;或者,为部分内容分配的第一预设值和/或第二预设值不同,为部分内容分配的第一预设值和/第二预设值相同,本实施例对此不予限定。例如,对于用户更加偏好的内容,第一预设值和/或第二预设值的取值可以设置的更大,这样能够在内容对应的系数上体现用户偏好,从而能够更好地为用户提供主动交互。
例如,在根据获取到的时间、图像和网络内容等环境信息确定当前场景为早晨上班的场景,并控制机器人输出主动交互内容之后,若检测到用户主动发起的提问内容“帮我查下一下到公司的路况怎样?”,机器人根据该提问内容输出当前位置(如家庭住址)到公司的路况信息,完成交互。另外,机器人可以启动主动交互学习,判断当前场景对应的已存储内容中是否包括该内容,若不包括则更新当前场景的交互内容,即添加到达公司的路况信息。
在一些实施例中,方法100还可以包括:确定用户的身份。相应地,第一场景对应的多种内容与用户相关。例如,若第一场景对应的内容包括多个用户的内容,则根据用户的身份选择所识别出的用户的内容作为主动交互内容。
示例性地,可以通过获取用户的生物特征数据,并根据生物特征数据采用生物识别技术,确定用户的身份。例如,该生物特征数据可以包括用户的脸部图像,可以通过摄像头获取用户的脸部图像,并采用人脸识别技术确定用户的身份;或者,该生物特征数据还可以包括用户的人体图像,可以通过摄像头获取用户的人体图像,并采用人体识别技术通过判断用户的身高、胖瘦、姿态等信息来确定用户的身份;或者,该生物特征数据还可以为用户的声音数据,可以通过麦克风采集用户的声音数据,并采用声纹识别技术确定用户的身份。应理解,该生物特征数据还可以为虹膜、指纹等能够唯一标识用户的其他生物特征数据。
在一些实施例中,已存储的场景还可以包括从机器人的交互中主动学习到的场景。示例性地,该方法100还可以包括:
获取用户输入的第二内容,并获取当前的第二环境数据;
若已存储的场景中不存在与第二环境数据对应的第二场景,则创建第二场景,将第二内容作为第二场景对应的内容存储,并将第二内容的系数设置为预设值;或者,
若已存储的场景中存在与第二环境数据对应的第二场景,且第二内容不属于第二场景对应的内容,则更新第二场景对应的内容存储,更新后的内容包括第二内容,并将第二内容的系数设置为第三预设值;或者,
若已存储的场景中存在与第二环境数据对应的第二场景,且第二内容为第二场景对应的内容之一,则将第二内容的系数增加第一预设值。
第三预设值可以为1,也可以为其他整数。
例如,当检测到用户主动发起的交互内容时,判断已存储的场景中是否存在与当前的环境数据对应的场景;若不存在该场景,则可将当前场景和交互内容存储下来,从而能够主动学习新的场景及其交互内容;若存在该场景,但第二内容不属于该场景对应的内容,则将第二内容学习为该场景对应的新内容;若存在该场景,且第二内容为该场景对应的内容之一,则将该第二内容的系数增加预设值。本实施例的机器人具有不断学习的能力,并及时更新场景数据和/或对应的内容数据。
在一些实施例中,也可以不预先设置并存储预设的场景,而是完全根据机器人与用户的交互来学习场景对应的交互内容,随着机器人的使用次数增加,将学习到更多的场景及其对应的交互内容,机器人发起的主动交互将越来越符合用户的需求,从而不断提升用户对机器人主动交互的满意度。
需要说明的是,当机器人在学习新的场景和/或新的交互内容的过程中,可以根据识别出的用户身份更新与该用户对应的场景和/或交互内容。例如,若获取到用户A输入的交互内容,则确定该交互内容是否为用户A在当前场景下对应的交互内容之一,若不是,则更新用户A在当前场景下对应的交互内容。若获取到用户B在当前场景下输入的新的交互内容,且当前场景不属于用户B已存储的场景之一,则将当前场景作为用户对应的一个场景进行存储,并将该交互内容作为该场景对应的内容之一。这样可以通过学习特定用户的相关行为、习惯、日常行为、上下班时间、办公地点、喜好和工作等相关的数据来完善与该用户的交互内容。通过根据用户身份学习针对该用户的场景和/或交互内容,能够更有针对性地与用户进行主动交互。
以上描述了根据本发明实施例的机器人的控制方法,下面结合图2描述根据本申请实施例的机器人的控制装置。
图2是根据本申请实施例的机器人的控制装置200的结构示意图。装置200可以为内置于机器人内部的模块(例如处理器),也可以为与机器人通信连接的设备或服务器(如云端服务器)。装置200用于执行根据本申请实施例的机器人的控制方法,为避免重复,这里省略了相应的内容,具体请参考上文描述的机器人的控制方法。
如图2所示,装置200包括获取单元210和处理单元220。
获取单元210用于用于获取机器人的第一环境数据,第一环境数据包括图像、声音、温度、日期、时间、位置、触觉、空气指数以及网络内容中的至少一种;处理单元220用于若第一环境数据对应于已存储的场景之一,则控制机器人输出交互内容。
通过感知机器人的环境数据,在确定该环境数据对应于已存储的场景之一的情况下输出主动交互内容。这样,无需用户主动触发,即可实现机器人的主动交互。
当控制装置200为与机器人通信连接的设备或服务器时,该控制装置200还可以包括通信单元(图中未示出),用于向机器人发送控制信号,以控制机器人输出交互内容。另外,控制装置200还可以通过通信单元接收传感器采集到的环境数据。
图3是根据本申请实施例的机器人300的结构示意图,如图3所示,机器人300包括本体310和安装于本体310内部的处理器320。
机器人300可以为任意形状的机器人,例如人型机器人、动物型的机器人、卡通机器人等。
处理器320,用于执行根据本申请实施例所示的机器人的控制方法。
该处理器320可以是中央处理单元(Central Processing Unit,简称CPU),该处理器320还可以是其他通用处理器、数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在一些实施例中,如图4所示,机器人300还可以包括传感器模块330,用于采集机器人的环境数据。
传感器模块330包括以下至少一种传感器:温度传感器、气体传感器、图像传感器、声音传感器、位置传感器以及触觉传感器。
在一些实施中,如图4所示,机器人300还可以包括:输出设备340,用于根据处理器320的控制输出交互内容。示例性地,输出设备340可以包括显示屏、扬声器、灯光模块、通信模块、机器人的躯干中的至少一种。
本申请实施例还提供了一种计算机可读存储介质,用于存储计算机可读指令,当计算机可读指令由计算机执行时,使得计算机执行本申请实施例的机器人的控制方法。该存储介质可以包括U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟、光盘、或者上述存储介质的任意组合。
本申请实施例还提供了一种计算机程序,该计算机程序可以存储在云端或本地的存储介质上。在该计算机程序被计算机或处理器运行时用于执行本申请实施例的机器人的控制方法的相应步骤,并且用于实现根据本申请实施例的机器人的控制装置的相应模块。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上,仅为本申请实施例的具体实施方式,但本申请实施例的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请实施例揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请实施例的保护范围之内。因此,本申请实施例的保护范围应以权利要求的保护范围为准。
Claims (3)
1.一种机器人的控制方法,其特征在于,包括:
获取所述机器人的第一环境数据,所述第一环境数据包括图像、声音、温度、日期、时间、位置、触觉、空气指数以及网络内容中的至少一种;
若所述第一环境数据对应于已存储的场景之一,则控制所述机器人输出交互内容;
所述第一环境数据对应于所述已存储的场景中的第一场景,所述方法还包括:
获取所述第一场景对应的多种内容各自的系数,所述多种内容包括预设的内容和/或在机器人交互过程中学习的内容;
根据所述多种内容各自的系数,确定所述每种内容对应的概率;
根据所述多种内容各自的概率从所述多种内容中选择一种或多种内容作为所述交互内容;
所述根据所述多种内容各自的系数,确定所述每种内容对应的概率,包括:
获取所述多种内容的系数的和值;
获取所述每种内容的系数与所述和值的比值,得到所述每种内容对应的概率,每种内容的系数与每种内容的关注度相关;
还包括:
获取用户在第一场景下输入的第一内容;
若所述第一内容为所述第一场景对应的内容之一,则将所述第一内容的系数增加第一预设值;或者,
若所述第一内容不属于所述第一场景对应的内容,则更新所述第一场景对应的内容,更新后的内容包括所述第一内容,并将所述第一内容的系数设置为第二预设值;
还包括:
确定用户的身份;
其中,所述第一场景对应的多种内容与所述用户相关;
所述确定用户的身份,包括:
获取所述用户的生物特征数据,根据所述生物特征数据采用生物识别技术,确定所述用户的身份;
还包括:
获取用户输入的第二内容,并获取当前的第二环境数据;
若所述已存储的场景中不存在与所述第二环境数据对应的第二场景,则创建与所述第二场景,将所述第二内容作为所述第二场景对应的内容存储,并将所述第二内容的系数设置为第三预设值;或者,
若所述已存储的场景中存在与所述第二环境数据对应的第二场景,且所述第二内容不属于所述第二场景对应的内容,则更新所述第二场景对应的内容存储,更新后的内容包括所述第二内容,并将所述第二内容的系数设置为第三预设值;
所述已存储的场景包括预设场景和主动学习的场景,所交互内容包括语音、动作、表情、网络推送以及控制信号中的至少一种。
2.一种机器人,其特征在于,包括:
本体;
安装于所述本体内部的处理器,用于执行如上述权利要求1中所述的控制方法。
3.根据权利要求2所述的机器人,其特征在于,还包括:
传感器模块,用于采集所述第一环境数据,所述传感器模块包括以下至少一种传感器:温度传感器、气体传感器、图像传感器、声音传感器、位置传感器以及触觉传感器;
输出设备,用于根据所述处理器的控制输出所述交互内容。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019101357907 | 2019-02-21 | ||
CN201910135790 | 2019-02-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110154048A CN110154048A (zh) | 2019-08-23 |
CN110154048B true CN110154048B (zh) | 2020-12-18 |
Family
ID=67632186
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910437388.4A Active CN110154048B (zh) | 2019-02-21 | 2019-05-23 | 机器人的控制方法、控制装置和机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110154048B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112541980A (zh) * | 2020-12-18 | 2021-03-23 | 支付宝(杭州)信息技术有限公司 | 车载装置、车载终端系统、支付方法及非暂态计算机可读存储介质 |
CN113689853A (zh) * | 2021-08-11 | 2021-11-23 | 北京小米移动软件有限公司 | 语音交互方法、装置、电子设备及存储介质 |
CN113580166B (zh) * | 2021-08-20 | 2023-11-28 | 安徽淘云科技股份有限公司 | 一种拟人化机器人的交互方法、装置、设备及存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8892256B2 (en) * | 2008-01-28 | 2014-11-18 | Seegrid Corporation | Methods for real-time and near real-time interactions with robots that service a facility |
US9846843B2 (en) * | 2013-10-30 | 2017-12-19 | Georgia Tech Research Corporation | Methods and systems for facilitating interactions between a robot and user |
US10152117B2 (en) * | 2014-08-07 | 2018-12-11 | Intel Corporation | Context dependent reactions derived from observed human responses |
CN105468652A (zh) * | 2014-09-12 | 2016-04-06 | 北大方正集团有限公司 | 一种检索排序方法及系统 |
US10179407B2 (en) * | 2014-11-16 | 2019-01-15 | Robologics Ltd. | Dynamic multi-sensor and multi-robot interface system |
CN105798918B (zh) * | 2016-04-29 | 2018-08-21 | 北京光年无限科技有限公司 | 一种面向智能机器人的交互方法和装置 |
WO2018000267A1 (zh) * | 2016-06-29 | 2018-01-04 | 深圳狗尾草智能科技有限公司 | 一种机器人交互内容的生成方法、系统及机器人 |
CN106799733A (zh) * | 2016-12-27 | 2017-06-06 | 深圳前海勇艺达机器人有限公司 | 机器人动作方法与系统 |
CN108363492B (zh) * | 2018-03-09 | 2021-06-25 | 南京阿凡达机器人科技有限公司 | 一种人机交互方法及交互机器人 |
CN108724203A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种交互方法及装置 |
CN108453742B (zh) * | 2018-04-24 | 2021-06-08 | 南京理工大学 | 基于Kinect的机器人人机交互系统及方法 |
-
2019
- 2019-05-23 CN CN201910437388.4A patent/CN110154048B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110154048A (zh) | 2019-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10467509B2 (en) | Computationally-efficient human-identifying smart assistant computer | |
US11294336B2 (en) | Alarm control apparatus and method using face recognition | |
CN110154048B (zh) | 机器人的控制方法、控制装置和机器人 | |
JP6247384B2 (ja) | エアコン起動方法、エアコン起動装置、コンピュータプログラム及びコンピュータ読み取り可能な記憶媒体 | |
CN109074117B (zh) | 提供基于情绪的认知助理系统、方法及计算器可读取媒体 | |
CN112051743A (zh) | 设备控制方法、冲突处理方法、相应的装置及电子设备 | |
WO2018013445A1 (en) | Leveraging environmental context for enhanced communication throughput | |
CN111128157B (zh) | 一种智能家电的免唤醒语音识别控制方法、计算机可读存储介质及空调 | |
CN109345793A (zh) | 一种事项提醒方法、系统、装置及存储介质 | |
WO2018006374A1 (zh) | 一种基于主动唤醒的功能推荐方法、系统及机器人 | |
CN110213663A (zh) | 音视频播放方法、计算机设备及计算机可读存储介质 | |
US10222870B2 (en) | Reminder device wearable by a user | |
CN105242775B (zh) | 状态调整的方法及装置 | |
CN114489331A (zh) | 区别于按钮点击的隔空手势交互方法、装置、设备和介质 | |
CN111526244A (zh) | 一种闹钟处理方法以及电子设备 | |
CN110705483B (zh) | 驾驶提醒方法、装置、终端及存储介质 | |
CN109976169B (zh) | 基于自学习技术的互联网电视智能控制方法及控制系统 | |
US20190179421A1 (en) | Reminder or gesture control device wearable by a user | |
CN106101441A (zh) | 终端控制方法及装置 | |
CN115718433A (zh) | 智能设备的控制方法、装置、智能系统和存储介质 | |
US11818820B2 (en) | Adapting a lighting control interface based on an analysis of conversational input | |
CN111638788A (zh) | 一种学习数据输出方法及终端设备 | |
US20230206097A1 (en) | Thought inference system, inference model generation system, thought inference device, inference model generation method, and non-transitory computer readable storage medium | |
CN109324514A (zh) | 一种环境调节方法及终端设备 | |
JP2022006610A (ja) | 社会的能力生成装置、社会的能力生成方法、およびコミュニケーションロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: Room 306, Floor 3, No. 89, West Third Ring Road North, Haidian District, Beijing 100089 Patentee after: Beijing Meiji Technology Co.,Ltd. Address before: 102206 1107, unit 1, building 1, yard 1, Longyu middle street, Huilongguan town, Changping District, Beijing Patentee before: Beijing Geyuan Zhibo Technology Co.,Ltd. |
|
CP03 | Change of name, title or address |