CN116234664A - 机器人的控制方法、机器人、以及程序 - Google Patents

机器人的控制方法、机器人、以及程序 Download PDF

Info

Publication number
CN116234664A
CN116234664A CN202180060695.0A CN202180060695A CN116234664A CN 116234664 A CN116234664 A CN 116234664A CN 202180060695 A CN202180060695 A CN 202180060695A CN 116234664 A CN116234664 A CN 116234664A
Authority
CN
China
Prior art keywords
robot
user
company
information
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202180060695.0A
Other languages
English (en)
Other versions
CN116234664B (zh
Inventor
矢羽田洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of CN116234664A publication Critical patent/CN116234664A/zh
Application granted granted Critical
Publication of CN116234664B publication Critical patent/CN116234664B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/686Maintaining a relative position with respect to moving targets, e.g. following animals or humans
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y10/00Economic sectors
    • G16Y10/65Entertainment or amusement; Sports
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/40Information sensed or collected by the things relating to personal data, e.g. biometric data, records or preferences
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Automation & Control Theory (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Accounting & Taxation (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本公开的一技术方案的机器人的控制方法从外部计算机接收向机器人指示催促用户运动的信息,检测用户的当前位置,使机器人移动至包含用户的当前位置的预定区域内,使机器人执行催促用户运动的手势,监视用户的举动,基于监视的结果执行伴随用户的运动的机器人的驱动。

Description

机器人的控制方法、机器人、以及程序
技术领域
本公开涉及机器人的控制方法、机器人、以及程序。
背景技术
专利文献1公开了,作为照料用户的身体状况的自主型机器人,测定用户的体温,基于所测定出的体温的周期来判定用户的身体状况的方法、以及基础体温周期到了预定的时机时变更机器人的动作量的方法。
现有技术文献
专利文献1:专利第6495486号公报
发明内容
发明要解决的问题
在以往的机器人技术中,在与人的关系中,希望机器人的功能进一步提高。
用于解决问题的手段
本公开的一个技术方案的机器人的控制方法,从位于所述机器人的外部的计算机,接收向所述机器人指示催促用户运动的指示信息,经由搭载于所述机器人的光学传感器,检测所述用户的当前位置,控制所述机器人的至少一对车轮或腿,使所述机器人移动至包含所述用户的当前位置的预定区域内,控制所述机器人所包含的至少1个致动器,使所述机器人执行催促所述用户运动的手势(gesture),经由搭载于所述机器人的所述光学传感器或麦克风,监视所述用户的举动,基于所述监视的结果,控制所述机器人所包含的所述至少1个致动器,伴随所述用户的运动而驱动所述机器人。
发明效果
根据本公开的一个技术方案的机器人的控制方法,能够通过机器人对用户赋予强烈的运动动机。
附图说明
图1是表示本公开的实施方式的信息系统的全体构成的一例的框图。
图2是表示本公开的实施方式的信息系统的构成的一例的框图。
图3是表示本公开的一个实施方式的信息系统的全体构成的一例的框图。
图4是表示非机器人公司(A公司)与机器人协作时的处理的一例的流程图。
图5是表示对机器人的访问权的设定信息的一例的表。
图6是表示用于判断是否能够执行所请求的任务的紧急度的等级的一例的表。
图7是表示非机器人公司对机器人请求任务的处理的一例的流程图。
图8是表示非机器人公司对机器人请求任务的处理的一例的流程图。
图9是表示B公司服务器的处理的一例的流程图。
图10是表示必要紧急度的设定例的表。
图11是表示本公开的实施方式的信息系统构成的一例的框图。
图12是表示本公开的实施方式的机器人的构成的一例的图。
图13是表示本公开的实施方式的机器人执行的处理的一例的流程图。
图14是表示本公开的实施方式的机器人执行的动作的一例的图。
具体实施方式
(实现本公开的经过)
我们的日常生活越来越数字化了。例如,很多人都持有作为个人专用的信息通信终端的智能手机。使得用户能够在智能手机上安装并利用:进行用户的健康管理的应用程序(以下,将应用程序称为APP),辅助家庭开支的管理的APP、辅助与认识的人的实时交流的社交APP、以及对世间的新闻按个人兴趣进行策展(curation)的新闻APP等各种各样的APP。
另一方面,能够自主进行各种动作和作业的可移动装置(以下,称为机器人)也逐渐实用化。有在工厂进行部品的组装或调整的机器人、在物流据点进行准确且迅速的分拣的机器人、一边观察周围的状况一边完成特定任务的机器人等。这些机器人中,也有与人共同作业、或代替人进行特定作业的机器人。
本公开提出一种用于辅助用户以使得通过能够进行多样信息处理的信息处理装置即智能手机、和能够进行多样动作或操纵物体作业的可移动装置即机器人进行协作动作,能够进行健康的、幸福的、舒适的、安心的、安全的、愉快的、和/或清洁的生活的技术。
在收集用户的生物体活动信息,并根据收集到的生物体活动信息确认出用户运动不足的情况下,若通过用户的智能手机提示引导用户进行运动的消息,就能够促使用户运动。这样,将对用户催促行为改变的消息称为助推(nudge)。
然而,对于没有运动习惯的用户,不容易使其进行向运动的行为改变,简单地向用户提示助推是不够的,需要比助推更强的动机。
上述的专利文献1公开了如下技术,即,机器人考虑到所有者(owner)的月经周期,根据所有者的体温推定应照料所有者的照料时机,在所推定出的照料时机进行注视所有者这样的照料所有者的动作,由此使平时自由奔放地行动着的机器人采取照料所有者的行动,从而提高所有者对机器人的同感(共鸣)。
这样,由于专利文献1是提高所有者与机器人的同感的技术,所以无法赋予用户强烈的运动动机。
本公开是为了解决这样的问题而做出的,其目的在于,提供一种能够赋予用户强烈的运动动机的技术。
本公开的一个技术方案的机器人的控制方法,从位于所述机器人的外部的计算机,接收向所述机器人指示催促用户运动的指示信息,经由搭载于所述机器人的光学传感器,检测所述用户的当前位置,控制所述机器人的至少一对车轮或腿,使所述机器人移动至包含所述用户的当前位置的预定区域内,控制所述机器人所包含的至少1个致动器,使所述机器人执行催促所述用户运动的手势,经由搭载于所述机器人的所述光学传感器或麦克风,监视所述用户的举动,基于所述监视的结果,控制所述机器人所包含的所述至少1个致动器,伴随所述用户的运动而驱动所述机器人。
在该方法中,机器人来到用户的附近,执行催促用户运动的姿态(动作)。因此,与仅以文字、声音的方式提示催促运动的消息的情况相比,机器人能够更积极地向用户进行运动的推动。其结果,能够对用户赋予强烈的运动动机。
此外,本公开中的“致动器”既可以是用于使车轮或腿活动的致动器,也可以是用于使机器人的其他部位活动来作为机器人的身体动作的致动器。
例如,伴随所述用户的运动的所述机器人的驱动,在所述用户的举动包含有对所述机器人的所述手势的肯定的应答、或进行所述运动的意愿的表明的情况下被执行。
例如,所述用户的运动也可以包括所述用户因步行或跑步(running)而移动这一情况,伴随所述用户的运动的所述机器人的驱动也可以包括:控制所述至少一对车轮或腿,与移动的所述用户同行而使所述机器人移动。
由此,能够伴随用户而行走的机器人能够催促用户步行或跑步。因此,用户根据机器人的催促运动的动作,能够发现例如“一起散步吧”这一劝说的消息。其结果,能够经由机器人对用户赋予强烈的运动动机。
例如,伴随所述用户的运动的所述机器人的驱动还可以包括:控制所述至少一对车轮或腿,一边向离开所述预定区域的方向引导所述用户,一边催促所述用户开始移动。
由此,邀请用户出来运动的动作得以实现,在催促用户进行运动的动作之后,能够顺利地过渡到运动开始。
例如,催促所述用户运动的手势(gesture)也可以是所述机器人向所述用户传达想要散步的意愿的手势。
由此,即使在用户自身中散步的动机很弱的情况下,通过对用户赋予“陪伴想要散步的机器人”这一利他的动机,也能够引起用户对运动的动机。
例如,所述用户的举动的监视也可以包括经由所述光学传感器检测所述用户的姿势的变化。
例如,所述用户的举动的监视也可以包括:经由所述麦克风,取得所述用户说话的声音信息,对该声音信息执行声音识别。
例如,也可以是,催促所述用户进行运动的手势被反复执行,直到检测到所述用户对该手势的应答为止。
例如,也可以在开始所述机器人的向所述预定区域内的移动之前,检测搭载于所述机器人的电池的剩余量,在所述电池的剩余量比驱动所述机器人所需的电量多的情况下,使所述机器人开始移动。
例如,上述控制方法还可以包括:经由所述光学传感器或所述麦克风,监视正在运动的所述用户的举动,在判断为所述用户结束了运动之后,将表示所述用户的运动结束了这一情况的结束通知向所述计算机发送。
例如,上述控制方法,还可以包括:将表示所述计算机执行向所述机器人的指示所需的紧急度的必要紧急度信息向所述计算机发送,所述指示信息在应催促所述用户运动的紧急度满足所述所需的紧急度的情况下,被从所述计算机向所述机器人发送。
例如,所述计算机也可以是经由所述机器人和网络能够通信的服务器或信息通信终端。
本公开的一个技术方案的机器人具备:处理器;保存了用于使所述处理器执行上述的控制方法的程序的存储器;主体;所述至少一对腿或车轮、所述至少1个致动器;所述光学传感器以及所述麦克风中的至少一方。
本公开的一个技术方案的程序使上述的控制方法在搭载于所述机器人的处理器中执行。
此外,本公开也能够作为使计算机执行在此使用的机器人控制方法以及信息提供方法所包含的特征性的各构成的程序、或通过该程序进行动作的系统而实现。另外,当然也能够使这样的计算机程序经由CD-ROM等计算机可读取非瞬时性记录介质或互联网等通信网络流通。
此外,以下说明的实施方式均表示本公开的一个具体例。以下的实施方式所示的数值、形状、构成要素、步骤、步骤的顺序等是一例,并不是对本公开的限定。另外,以下的实施方式中的构成要素中表示最上位概念的独立权利要求所没有记载的构成要素,能作为任意的构成要素而说明。另外在全部实施方式中,也能够使各个内容进行组合。
(实施方式)
可以料想,我们的社会今后互联网会进一步普及,各种传感器都会来到我们身边。由此,可以料想,我们的社会从有关个人的内部状态以及活动等信息到包括建筑物以及交通网等整条街的信息,都将被数字化并成为可供计算机系统利用的状态。数字化的个人数据(个人信息)经由通信网络作为大数据被信息银行等云服务器安全管理,并用于个人和社会的各种用途。
这样的高度信息化社会在日本被称为Society5.0。期待高度信息化社会通过使包围个人的物质世界即现实空间(物理空间),和计算机彼此协作实现物理空间相关的各种处理的虚拟空间(网络空间)进行高度融合得到的信息基础(网络物理系统),来解决经济发展和社会问题。
在这样的高度信息化社会中,通过分析个人在日常的各种场景中进下进行的交流(包括信息的取得、提供及其表现方法)和行动,并分析包含所蓄积的个人信息的大数据,从而能够利用与该场景相应的、对该个人来说最合适的交流的方法,提供该个人所需的信息或服务。
之后,以这样的网络物理系统运转的高度信息化社会为前提,以贴近个人用户的日常生活的辅助为主题,对提高用户的健康以及幸福的具体方式进行说明。
图1是表示本公开的实施方式的信息系统的全体构成的一例的框图。图1中,上半部分示出了网络空间,下半部分示出了物理空间。左侧排列着非机器人提供公司即A公司关联的资源,网络空间中存在A公司服务器101、物理空间存在在智能手机100上进行动作的A公司APP。A公司服务器101与A公司APP成对进行动作。右侧排列着机器人提供公司即B公司关联的资源,网络空间中存在B公司服务器111、物理空间中存在作为可移动装置的机器人110、和在智能手机100上进行动作的B公司APP。B公司服务器111与机器人110和/或B公司APP成对进行动作。在物理空间的正中间存在安装于智能手机100的A公司APP、B公司APP、进而存在操纵机器人110的用户。智能手机100、机器人110、A公司服务器101、以及B公司服务器111通过互联网这样的广域通信网以能够彼此通信的方式连接。
如该图所示,A公司以及B公司持有通过各自的APP以及机器人与用户的接触点。A公司持有的仅仅是经由智能手机100上的APP的接触点,这是目前常见的顾客接触点的一种方式。另一方面,该图的B公司持有的不仅是经由智能手机100上的APP的接触点,还有经由机器人110的接触点。经由作为自主可移动装置的机器人110与用户(一般消费者)持有接触点的公司,除了一部分玩具制造商以外,尚未有先例,期待今后会出现。
此外,在此,作为机器人110的一例,使用了犬型机器人的插图,但是机器人110既可以是基于除此以外的包含人类的生物的形态,也可以是无机质、非生物的形态。只要在物理空间中具有自主的运动能力(手势变更能力以及移动能力等),和/或、作用能力(按下按钮以及抬起物体等移动其他物体的能力),则其形态不受限制。
作为本公开的实施方式的信息系统,也可以说是如下的信息系统,即,作为各个顾客接触点的APP、机器人110、进而由机器人110操作的家电以及住宅设备等比以往更高度地协作,从而一边活用其他人保有的信息以及能力,一边扩大自身服务的质量的提升幅度,向用户进行更高的价值提供。机器人持有的认知能力以及运动能力日益不断进化,如果这样的万能机器人得以实现,则应构筑其他公司能够访问该机器人保有的固有的能力的机制。这样一来,无论是对用户,对提供服务的非机器人公司、还是提供机器人的机器人公司来说,都将成为产生多种多样的价值协作的基础。
图2是表示本公开的实施方式的信息系统的构成的一例的框图。智能手机100包含:通信部100a、运算部100b、传感器100c、存储器100d、操作部100e、以及影像声音输出部100f。传感器110c是取得影像信息、声音信息、和/或周边环境信息的设备。传感器110c例如包含图像传感器以及麦克风。
影像声音输出部100f是输出影像以及声音的设备。影像声音输出部100f例如包含显示器以及扬声器。操作部100e是受理来自用户的按钮按下、触摸操作等的设备。操作部100e例如包含触摸面板以及按钮。运算部100b是进行在智能手机100中进行的声音识别、声音合成、信息检索、以及信息描绘等信息处理的设备。运算部100b例如是中央运算处理装置。存储器100d保持运算部100b处理的数据。存储器100d例如是闪速存储器等半导体存储器。通信部100a是与网络上的其他计算机进行信息通信的通信电路。当A公司APP和B公司APP均被安装时,智能手机100的存储器100d记录程序和所需的数据,由运算部100b执行该程序。
A公司服务器101与安装于智能手机100的A公司APP协调动作。A公司服务器101包含:通信部101a、运算部101b、以及存储器101c。通信部101a是用于与网络上的其他计算机进行信息通信的通信电路。存储器101c记录A公司APP以及用户相关的信息。存储器101c例如是硬盘驱动器以及固态硬盘等大容量存储装置。运算部101b进行与外部交换的数据的处理。运算部101b例如是中央运算处理装置等处理器。
B公司服务器111与安装于智能手机100的B公司APP协调动作。B公司服务器111包含:通信部111a、运算部111b、以及存储器111c。通信部111a是用于与网络上的其他计算机进行信息通信的通信电路。存储器111c记录B公司APP、机器人110、以及用户相关的信息。存储器111c例如是硬盘驱动器以及固态硬盘等大容量存储装置。运算部111b进行与外部交换的数据的处理。运算部111b例如是中央运算处理装置等处理器。
机器人110包含:通信部110a、运算部110b、传感器110c、存储器110d、可移动部110e、以及声音输出部110f。传感器110c是取得影像信息、声音信息、和/或周边环境信息的设备。传感器110c例如包含图像传感器以及麦克风。声音输出部110f例如是扬声器,并输出声音。机器人110也可以包含受理来自用户的按钮按下、触摸操作等的操作部(未图示)。可移动部110e是在运算部110b的控制之下,控制机器人110的手势,进行机器人本身的移动以及向其他物体的力学作用的设备。可移动部110e例如是马达等致动器。运算部110b进行在机器人110中进行的各种运算处理。运算部110b例如是中央运算处理装置等处理器。存储器110d保持运算部110b处理的数据。存储器110d例如是闪速存储器等半导体存储器。通信部110a是用于与网络上的其他计算机进行信息通信的通信电路。
此外,A公司服务器101、智能手机100、机器人110、以及B公司服务器111设为了以能够利用广域通信网彼此进行通信的方式连接,但是在要求低延迟通信、坚固的安全性、或本地配对等情况下,也可以通过专用通信网或近距离无线通信等进行连接。
(健康管理中的机器人的能力提供)
自此,将说明使用身边的机器人110来有效地实施用户的健康管理的一个实施方式。
图3是表示本公开的一实施方式的信息系统的全体构成的一例的框图。在该方式中,非机器人公司的A公司设为是用户签订了合同的健康保险公司。作为保险公司的A公司为了增进用户的健康而在智能手机100上安装A公司提供的健康护理APP来供用户每日使用。A公司健康护理APP通过可穿戴传感器等每天持续收集用户的生物体活动信息(心律、脉搏、血压、体温、体水分量、呼吸、发汗量、活动量(消耗卡路里),摄取量(摄取卡路里),步数、手势、以及运动类别等),在将该生物体活动信息记录于智能手机100的存储器100d的同时,定期向A公司服务器101上传(图中“(a)生物体活动信息”)。
这样一来收集到的用户的生物体活动信息作为用户的个人信息由A公司服务器101进行严格管理。A公司服务器101定期基于用户的生物体活动信息分析用户的健康风险(图中“(b)健康风险分析”)。进而,A公司服务器101在判断为用户的运动量不足的情况下,为了推荐运动而向用户发送助推(nudge)。例如,经由A公司APP而显示引起行为改变的消息,以使得采取希望(最好是)“运动一下吧”的行动(图中“(c)运动的推荐”)。然而,往往这种方法进行的行为改变因无法给与充分的动机而容易失败,大多难以消除用户的运动不足(图中“(d)不运动”)。
由目前为止的信息化社会(被称为Society4.0社会)提供的现有的服务能够实现在此说明的(a)到(d)的循环。现有的服务中,网络空间和物理空间协作而让用户持有持续的接触点,从而能够促进健康的增进。然而,现有的服务中,该生物体活动信息以及服务仅在A公司的服务中闭合,并没有与A公司以外的协作。现有的服务可以说成为筒仓(silo)状态。即使A公司稍微改变智能手机100所显示的消息的表现,也很难引起很多用户的行为改变。因此,现有的服务不足以成为广泛改善用户健康的服务。在本实施方式中,构想如下服务,即,使用具备自主运动能力的用户身边的机器人,虽然A公司APP没有保有,但如果是机器人的话,利用保有的自主运动能力,能够更好地改善用户的健康的服务。对该服务的实现的方式进行说明。下面接着进行图3的说明。
A公司服务器101(第2服务器的一例)在以推荐运动的方式发送了助推之后,由A公司服务器101通过定期上传的生物体活动信息判断为用户没有进行充分的运动的情况下,A公司服务器101也对事先进行了协作设定的B公司服务器111(第1服务器的一例)发送请求机器人110推动用户进行运动(例如散步)的任务的请求信息(图中“(e)要求运动(散步)”)。即,请求信息在B公司服务器111(A公司服务器101)中判定为需要推动用户进行运动之后被发送。针对服务器间的事先的协作设定稍后说明。
接收到请求信息的B公司服务器111在确认A公司服务器101持有对所请求的任务的访问权时,决定执行、保留、或拒绝请求。而且,B公司服务器111在决定为执行请求的情况下,对该用户保有的机器人110,输出引导用户进行运动(散步)的指示信息(图中“(f)引导指示运动(散步)”)。该指示信息包含用于机器人110以用户能够理解的形式提示(呈现)具体如何动作、请求用户做什么的指示。例如,机器人110接收的引导运动的指示信息包含:若为犬型机器人,则直接呼唤用户“去散步吧”、或机器人110持散步时使用的牵狗绳央求用户去散步(示出自己想要去散步这一意愿)等指示。这些具体的指示的内容包含于从B公司服务器111向机器人110发送的用于引导运动的指示信息,并由机器人110执行(图中“(g)引导运动(散步)”)。
这样被邀请与犬型机器人一起运动(散步)的用户,将获得比经由智能手机100接收到的与运动相关的助推更强的动机。其结果,用户终于进行运动(散步)(图中“(h)运动(散步)”)。在此的机器人110对运动的引导方法可考虑各种变化,上述只不过是其中的一例。例如,可以采用如下引导方法,即,在用户保有的机器人110模仿了太小而无法一起散步、或无法想到一起散步的生物(例如,青蛙)的情况下,让该青蛙型机器人说出“想看附近的河”等,将到那里为止的路线放到用户的手上进行引导。
机器人110在由指示信息请求了的任务结束时,将表示用户进行了运动(散步)的信息、以及包含该行驶距离或步行速度的信息的实施运动量信息向B公司服务器111通知。接收到实施运动量信息的B公司服务器111向A公司服务器101通知实施运动量信息(例如,步行距离)(图中“(i)通知运动量(步行距离)”)来作为对“(e)运动(散步)的要求”的最终结果。
A公司服务器101对实施运动量信息进行记录(图中“(j)记录运动量(步行距离)”),基于实施运动量信息,称赞用户的运动,为了提高用户对运动的动力(motivation)而将“5000步,达成”等评价用户运动的评价消息通过A公司APP向用户提示(图中“(k)运动的评价”)。
此外,A公司APP或A公司服务器101也可以将图中“(k)运动的评价”这样的评价消息不基于从B公司服务器111得到的实施运动量信息而向用户反馈。例如,A公司服务器101也可以通过从用户装戴的步数传感器得到生物体活动信息“图中(a)生物体活动信息”,在智能手机100的画面显示评价消息。
要引起增加用户的运动量这样的行为改变,单凭A公司持有的作为顾客接触点的智能手机100上的影像信息以及声音信息等消息是很难的。通过A公司借助B公司提供的犬型机器人,恳求其散步,甚至该犬型机器人一起散步,从而能够降低用户运动(散步)的心理隔阂,使用户的运动量增加。由此,能够期待用户可以更好的维持健康。
这样在机器人110请求用户进行行为改变的情况下,通过机器人110好像是1个生命体那样将自己的意愿或期望(想要去散步)向用户传达,有时会让用户想去做该生命体(机器人)期望着的事情。这是因为,不仅基于用户想要维持健康这一利己欲求来要求用户进行行为改变,还基于实现作为1个具有意愿的生命体的机器人的期望这一利他欲求来要求用户进行行为改变。在此公开的用户的健康维持的服务不仅是迄今为止A公司能够单独实施的基于利己欲求的方法(approach),而且是通过与B公司的机器人110协作才能够首次实现的结合了利他欲求的方法。
该信息系统可以说是与作为各个顾客接触点的APP或机器人110更高度地协作,一边活用他人保有的信息以及能力,一边提升自己的服务质量,向用户提供更高的价值的信息系统。机器人持有的认知能力以及运动能力日益不断进化,如果这样的万能机器人得以实现,则应构筑其他公司能够访问该机器人保有的固有的能力的机制。这样一来,无论是对用户,对提供服务的非机器人公司(A公司),还是提供机器人110的机器人公司(B公司)来说,都将成为产生多种多样的价值的协作的基础。
图4是表示非机器人公司(A公司)与机器人110协作时的处理的一例的流程图。在图3中说明的A公司APP或A公司服务器101为了访问B公司运用的机器人110持有的信息以及能力,需要事先适当地设定其访问权。图4示出了用于预先设定其访问权的处理的一例。
用户使用安装于智能手机100的B公司APP,设定为B公司APP与A公司APP进行协作。具体而言,B公司APP基于用户的输入,取得用户利用的A公司APP的固有ID(步骤S1)。B公司APP将所取得的A公司APP的固有ID与B公司APP的固有ID一起,向B公司服务器111发送用于登记于B公司服务器111的登记请求(步骤S2)。接收到登记请求的B公司服务器111将A公司APP和B公司APP的成对信息进行登记。在该登记处理中,同时也进行表示向A公司许诺对机器人110的哪个固有能力利用到哪里为止的利用权利的访问权的登记(步骤S3)。针对访问权的详情使用图5稍后说明。包含机器人110的机器人ID和B公司APP的固有ID的成对信息预先登记于B公司服务器111。该登记例如通过用户在B公司APP的初期设定画面中通过输入机器人110的固有ID来进行。
接收到A公司APP的登记的B公司服务器111对A公司服务器101通知A公司APP被许可的访问权的设定信息(步骤S4)。具体而言,B公司服务器111除了A公司APP的固有ID和B公司APP的固有ID的成对信息以外,还将该访问权的设定信息向A公司服务器101通知。
A公司服务器101将A公司APP的固有ID和B公司APP的固有ID的成对信息、以及该访问权的设定信息登记于存储器101c(步骤S5)。这些信息在A公司APP或A公司服务器101对B公司提供的机器人110利用其固有能力时,用于确定作为对象的机器人110,并用于判定是否能够利用其固有能力。
在此,能够对A公司APP或A公司服务器101正确设定向B公司提供的机器人110的访问权即可,上述只不过是其一例。也可以使用与上述不同的登记方法。
图5是表示关于机器人110的访问权的设定信息的一例的表。A公司能够对B公司的机器人110请求各种各样的任务。进而,机器人110具备各种各样的传感器110c以及运动能力(可移动部110e),A公司对它们的访问权不仅登记于B公司服务器111,也登记于作为利用侧的A公司服务器101。以下,针对访问权的种类及其许可等级进行说明。该访问权的设定在图4的步骤S3中通过用户进行。
访问权的种类被分类为“任务”、“传感器”、以及“运动能力”。“任务”被进一步分类为“运动的邀请”以及“会话”。“传感器”进一步被分类为“摄像头影像”、“测距传感器”、“红外线传感器”、“麦克风声音”、“触觉传感器”、“气温·湿度·气压传感器”、以及“位置传感器”。“运动能力”被进一步分类为“表情变更能力”、“发声能力”、“手势变更能力”、以及“移动能力”。
属于“任务”的“运动的邀请”是表示对于机器人110,关于推动用户进行运动的任务,非机器人公司(A公司)能够请求到哪个范围为止的访问权。在此所述的运动例如是,散步、跑步、深蹲、俯卧撑、游泳、以及瑜伽等,不特别限定种类。在此,为了便于说明,在能够请求的情况下表现为有访问权,在无法请求的情况下表现为没有访问权。对“运动的邀请”的访问权如下所示,按等级设定为从没有访问权的“0”起到没有限制地有访问权的“2”为止。例如,对来自该访问权的许可等级为“1”的非机器人公司(A公司)的“运动的邀请”任务的请求,机器人运用公司(B公司)仅许可对预定运动负荷以下的轻微运动的请求,在许可的范围内控制机器人110和/或B公司服务器111。
0:不许可
1:仅许可轻微运动
2:全部许可
同样属于“任务”的“会话”是表示非机器人公司(A公司)能够在哪个范围为止请求经由机器人110与用户会话的访问权。对“会话”的访问权如下所述,能够以没有访问权的“0”、有访问权的“1”这两项而设定。例如,对于来自该许可等级为“1”的非机器人公司(A公司)的“会话”任务的请求,机器人运用公司(B公司)许可为有访问权。机器人运用公司(B公司)将机器人所具备的麦克风(传感器110c的“麦克风声音”)和扬声器(运动能力的“发声能力”)以能够为非机器人公司(A公司)所利用的方式设定。由此,非机器人公司(A公司)控制机器人110和/或B公司服务器111,以使得用户和机器人110能够进行会话。因此,在对“会话”任务有访问权的情况下,以对传感器110c的“麦克风声音”以及运动能力的“发声能力”也有访问权的方式进行连动设定。
0:不许可
1:许可
就任务而言,如上述说明的那样,在机器人公司从非机器人公司接收到由机器人110执行某种任务的请求时,为了判定是否执行该请求而被使用。因此,图5的访问权的设定信息按非机器人公司而被设定。
此外,在本公开中,将机器人110基于来自非机器人公司的请求,对用户和/或真实空间的对象物体(例如,电视的遥控、照明的开关、或门的把手)进行某种推动或作用的一系列自主的动作称为任务。
“摄像头影像”是对机器人(110)具备的图像传感器(例如,RGB图像传感器)的访问权。其也可以是机器人的眼睛和外观上可认知的地方所具备的图像传感器。对“摄像头影像”的访问权如下所述,能够从没有访问权的“0”到没有限制地赋予访问权的“3”为止按等级进行设定。例如,对于来自该许可等级为“2”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人(110)和/或B公司服务器111,以返回低质量动态影像。
0:不许可
1:仅许可静止图像
2:许可低质量动态图像
3:全部许可
“测距传感器”是对机器人110具备的能够测定到对象物为止的距离的传感器110c(例如,TOF传感器、LiDAR等)的访问权。对“测距传感器”的访问权如下所述,能够以没有访问权的“0”、有访问权的“1”这两项来设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111以返回测距传感器取得的数据(例如,深度图像)。
0:不许可
1:许可
“红外线传感器”是对机器人110具备的能够测定红外线的传感器的访问权。红外线传感器在近红外线区域中被使用于黑暗中的被拍摄体识别、在远红外线区域中被使用于被拍摄体温度分布的测定等。对“红外线传感器”的访问权如下所述,能够以没有访问权的“0”、有访问权的“1”这两项而设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以返回红外线传感器取得的数据(例如,热成像仪影像)。
0:不许可
1:许可
“麦克风声音”是对机器人110具备的麦克风的访问权。对“麦克风声音”的访问权如下所述,能够以没有访问权的“0”、有访问权的“1”这两项设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111以返回麦克风取得的声音数据。
0:不许可
1:许可
“触觉传感器”是对机器人110具备的能够测定机器人表面的触觉感觉的传感器(例如,MEMS硅设备传感器)的访问权。对“触觉传感器”的访问权如下所述,能够从没有访问权的“0”到无限制地赋予访问权的“2”为止按等级进行设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以仅返回触觉传感器取得的数据(例如,压力分布影像)内的机器人的一部分(例如,头部)的数据。
0:不许可
1:仅许可一部分
2:全部许可
“气温·湿度·气压传感器”是对机器人110具备的气温传感器、湿度传感器、以及气压传感器的访问权。对“气温·湿度·气压传感器”的访问权如下所述,能够以没有访问权的“0”、有访问权的“1”这两项设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以使得返回气温·湿度·气压传感器取得的各个数据。
0:不许可
1:许可
“位置传感器”是对机器人110具备的测定机器人的当前位置的传感器的访问权。对“位置传感器”的访问权如下所述,能够以没有访问权的“0”、有访问权的“1”这两项而设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以返回位置传感器取得的表示机器人的当前位置信息的数据。
0:不许可
1:许可
到此为止是说明对机器人110所具备的传感器110c的访问权。接着,说明对机器人具备的运动能力的访问权。
“表情变更能力”是对机器人110具备的变更脸部的外观特征的能力的访问权。这也可以是在机器人110外观上存在能够识别为脸部部分的情况下,使构成该脸部的部分活动的能力、或变更部分颜色的能力。对“表情变更能力”的访问权如下所述,能够以没有访问权的“0”、有访问权的“1”这两项进行设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以根据脸部表情的变更请求来变更脸部表情。
0:不许可
1:许可
“发声能力”是对机器人110具备的声音输出能力的访问权。这也可以是在机器人110外观上存在能够识别为嘴的部分的情况下,使构成该嘴的部分活动的能力、或从该嘴的周边部输出声音的能力。对“发声能力”的访问权如下所述,能够以没有访问权的“0”、有访问权的“1”这两项进行设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以使得根据应发声的声音信息从嘴的周边部输出声音。
0:不许可
1:许可
“手势变更能力”是对机器人110具备的变更手势的能力的访问权。这也可以是变更位于机器人110的可移动部110e的多个关节机构部的角度的能力。其中,并不是改变机器人110本身的位置的能力。对“手势变更能力”的访问权如下所述,从没有访问权的“0”到无限制地赋予访问权的“2”为止按等级进行设定。例如,对于来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以根据请求仅活动头部。
0:不许可
1:仅许可头部
2:全部许可
“移动能力”是对机器人110具备的移动能力的访问权。这也可以是变更位于机器人110的可移动部110e的多个关节机构部的角度的能力。其中,“移动能力”是改变机器人110本身的位置的能力。对“移动能力”的访问权如下所述,能够从没有访问权的“0”到没有限制地赋予访问权的“4”为止按等级进行设定。例如,对来自该许可等级为“1”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以使得仅在用户住宅中用户许可了的区域许可低速移动。例如,对于来自该许可等级为“3”的非机器人公司(A公司)的访问请求,机器人运用公司(B公司)控制机器人110和/或B公司服务器111,以使得仅许可在用户许可了的住宅内、住宅外的区域进行高速移动。在此用户许可的区域是用户预先设定的条件之一。例如,能够预先设定为使机器人不会接近有可能侵犯用户隐私的区域(例如浴室)。
0:不许可
1:仅在完成许可的住宅内,许可低速的移动
2:在完成许可的住宅内/住宅外,许可低速的移动
3:在完成许可的住宅内/住宅外,许可高速的移动
4:全部许可
图6是表示用于判断是否能够执行被请求的任务的紧急度的等级的一例的表。在图3的说明中是A公司服务器101对B公司服务器111发送要求运动的请求信息(“(e)期望运动(散步)”),与此相伴地,B公司服务器111对机器人110发送要求运动的指示信息(“(f)引导指示运动(散步)”)的场景。在该场景中所发送的请求信息包含紧急度信息。紧急度信息是表示用户进行运动的紧急性程度(紧急度)的信息。接收请求信息的B公司服务器111管理着必要紧急度信息。必要紧急度信息是表示机器人110为了执行被请求的任务所需的紧急性程度(必要紧急度)的信息。
必要紧急度用于,在用户集中于某种特定作业时等,使从其他公司(例如A公司)经由机器人110向用户请求的紧急度低的请求无效化、或使该推动直到成为适当的时机为止使请求的执行保留。必要紧急度信息由B公司服务器111或机器人110所保有,并且是由B公司服务器111或机器人110使用的信息。其他公司(例如A公司)对机器人110请求的请求信息所包含的紧急度信息表示的紧急度也以按与必要紧急度信息相同基准而设定有必要紧急度。必要紧急度如图6所示可以如高、中、低这样按等级设定。
“高”:在必要紧急度为“高”的情况下,将与生命、健康、危险、或财产的损失风险相关这样的紧急性高的信息向用户通知的请求被处理。否则,请求被保留或拒绝。
“中”:在必要紧急度为“中”的情况下,除了必要紧急度被分类为“高”的请求以外,将日常生活中的重要信息向用户通知的请求被执行。否则,请求被保留或拒绝。日常生活中的重要信息例如包含用于将接下来的日程(schedule)向用户通知的信息以及用于将有重大损失风险的状态(例如煤气炉一直开着)向用户通知的信息。
“低”:在必要紧急度为“低”的情况下,执行全部的请求。
这样,在必要紧急度被设定为高时,B公司服务器111从其他公司服务器(A公司服务器101)接收到的请求内,仅对用户来说重要且存在紧急性的请求被立即处理。除此以外的请求被保留或拒绝。对用户来说重要且存在紧急性的请求信息所包含的紧急度信息通过作为发送源的其他公司(A公司)按上述必要紧急度的定义而被赋予。
更具体而言,若其他公司服务器(例如A公司服务器101)发送的请求信息所包含的紧急度信息(高、中、或低)为B公司(例如B公司服务器111)所设定的必要紧急度信息(高、中、或低)以上,则该请求信息表示的请求被立即处理。否则,该请求不被立即执行,而被保留直到适当的时机或拒绝。
以上,为了实现图3所示的健康管理中的机器人110的能力提供的设想(scenario),针对A公司以及B公司间的协作设定、A公司对机器人能力的访问权,以及请求的紧急度进行了说明。下面,对使用以上来实现该设想的处理全体的流程进行说明。
图7是表示非机器人公司对机器人110请求任务的处理的一例的流程图。尤其图7示出了请求被立即实施的事例(case)。
如在图3中也说明过的那样,安装于智能手机100的保险公司A公司的应用程序(A公司APP)持续检测用户的生物体活动信息,将所检测出的生物体活动信息蓄积于智能手机100内的存储器(步骤S11)。进而,A公司APP将所蓄积的生物体活动信息定期向A公司服务器101上传(步骤S12)。接收到生物体活动信息的A公司服务器101基于用户与A公司的保健合同,判定推荐用户进行运动的消息(助推)的发送的必要性(步骤S13)。在判定为需要发送助推的情况下,A公司服务器101发送助推(步骤S14)。相反地,在判断为没有必要发送推荐运动的消息的情况下,A公司服务器101继续将从A公司APP上传的用户的生物体活动信息进行蓄积的处理。
在步骤S15中,智能手机100显示推荐运动的消息。由此,将推荐运动的消息向用户提示。
在步骤S16中,A公司APP和/或A公司服务器101在显示了推荐运动的消息之后,也继续检测用户的生物体活动信息,基于所检测出的生物体活动信息算出用户的运动量,对所算出的用户的运动量进行评价。
A公司服务器101基于用户和A公司的保健合同,判定对用户推荐运动的更强的推动的必要性。在此,A公司APP和/或A公司服务器101在由步骤S16算出的用户的运动量低于目标运动量的状态被观测到预定次数以上的情况下,由于通过助推没有改善用户的运动量,所以判定为需要更强的推动。在此,设为判定为需要强推动。相反地,在判定为无需强推动的情况下,A公司服务器101继续将从A公司APP上传的用户的生物体活动信息进行蓄积的处理。在此,A公司APP和/或A公司服务器101例如在由步骤S16算出的用户的运动量低于目标运动量的状态没有被观测到预定次数以上的情况下,判定为无需更强的推动。
在步骤S17中,判定为需要更强的推动的A公司服务器101向B公司服务器111发送将推动用户进行运动的任务向机器人110请求的请求信息。
请求信息包含:用户的A公司APP的固有ID、表示请求的紧急度的紧急度信息、表示直到执行请求为止的保留期间的保留期间信息、以及请求的内容。请求的内容例如表示向机器人110请求的任务。接收到请求信息的B公司服务器111根据请求信息所包含的用户的A公司APP的固有ID,能够确定A公司APP的固有ID所对应的B公司APP的固有ID。由于B公司服务器111管理着B公司APP的固有ID所对应的机器人110的机器人ID,所以能够唯一确定应执行从A公司请求的任务的机器人110。
进而,请求信息还包含用户所需的目标运动量。目标运动量例如是每日5000步或每日的消耗卡路里150Kcal等。在该例中,目标运动量是每日5000步,当前时间点的用户的每日的运动量是2000步。A公司服务器101为了催促用户每日5000步的散步,对B公司服务器111发送请求信息。另外,该请求信息所包含的紧急度信息表示的紧急度是“低”。
在步骤S18中,接收到请求信息的B公司服务器111判定是否能够应答请求。B公司服务器111在接收该请求信息之前将必要紧急度信息表示的必要紧急度设定为“低”(步骤S10)。因此,B公司服务器111将所接收到的请求信息所包含的紧急度信息表示的紧急度、与事先设定的必要紧急度信息表示的必要紧急度进行比较,判定是否能够应答请求信息。在此,请求信息所包含的紧急度信息表示的紧急度是“低”,必要紧急度信息表示的必要紧急度是“低”,由于紧急度信息表示的紧急度为必要紧急度信息表示的必要紧急度以上,所以B公司服务器111判定为立即执行该请求信息表示的请求。因此,B公司服务器111将表示应答请求的可应答信息向A公司服务器101发送(步骤S19)。请求信息以及必要紧急度信息是第1信息的一例。
发送了可应答信息的B公司服务器111向机器人110发送指示信息,指示向用户催促进行目标运动量以上的运动的引导动作(步骤S20)。该引导动作如上所述是机器人110呼唤用户“去散步吧”、和/或拿着牵狗绳央求想要去散步这样的动作。该引导动作根据机器人110的面貌姿态以及运动能力而可采用各种各样的形态。
指示信息也可以包含表示有效期限的有效期限信息。有效期限例如是10分钟。机器人110基于指示信息,在有效期限的期间,即使持续邀请用户散步用户也不对此回应的情况下,机器人110也可以自动中止引导动作。进而,这样在用户的行为改变失败的情况下,在进一步经过一定时间之后或用户正在放松时,机器人110也可以再次进行引导动作。另外,该情况下的引导动作的有效期限也可以比失败了的上次的有效期限短。使得将有效期限设定地短的原因在于,若同样地反复进行失败了的引导动作,则有用户与机器人的关系恶化的风险。
从B公司服务器111接收到指示信息的机器人110按指示信息进行将用户带出去运动(每日5000步的散步)的引导动作(步骤S21)。在该例中,由于机器人110是犬型机器人,所以进行一边“汪汪”叫,一边摇动尾巴的引导动作。通过该引导动作能够使用户联想到散步。除此以外,机器人110也可以在有效期限的期间反复进行:以用户能够理解的语言对用户说“去散步吧”或“想去散步”等的引导动作、和/或、拿着散步使用的牵狗绳表示想要去散步这一意愿的引导动作。
也可以是,在A公司服务器101持有对机器人110的传感器110c或运动能力的访问权,要求对运动能力的直接访问的情况下,A公司服务器101对机器人110的周边状况进行分析,基于分析结果将控制机器人110的表情、发声、手势、以及移动的命令经由B公司服务器111或直接向机器人110发送。由此,A公司服务器101能够直接控制机器人110。
用户在接收这些来自机器人110的引导动作而下决心散步,与机器人一起运动(散步)(步骤S22)。机器人110也可以按照指示5000步的散步的来自B公司服务器111的指示信息,向用户提出散步的路线、和/或、自己引导(带路)散步,以使得散步的步数成为5000步。
在如很小或不具备步行功能这样,机器人110不具有与用户一起走路的能力的情况下,机器人110也可以将散步的路线向用户提示,以使得散步的步数成为5000步。该情况下,机器人110也可以进行推动用户的引导动作,以使得达成目标运动量。例如,机器人110也可以说出“顺便去附近的超市看看吧”、或“今晚爬上小山也许能看到流星”等话语。由此,调整散步的步数(运动量)。
这样一来,当通过摄像头图像、位置传感器等检测到顺利进行了运动(散步)的用户已回家时,机器人110将表示与用户的运动(散步)结束了的结束通知、和表示该运动的实施运动量的实施运动量信息向B公司服务器111发送(步骤S23)。实施运动量信息例如包含表示步数、散步路线、以及散步的步调等的信息。
B公司服务器111对A公司服务器101发送请求的结束通知、和实施运动量信息(步骤S24)。接收到结束通知和实施运动量信息的A公司服务器101将表示实施了请求的运动的信息、和实施运动量信息作为实施历史记录而记录于存储器101c(步骤S25)。
A公司服务器101在判定为实施运动量信息表示的实施运动量为目标运动量信息表示的目标运动量以上的情况下,将表示用户达成了目标运动量的评价消息向智能手机100发送(步骤S26)。接收到评价消息的智能手机100通过A公司APP将表示目标运动量已达成的评价消息进行显示(步骤S27)。由此,用户能够得到一定的达成感,减少对运动(散步)的抵触感。此外,A公司服务器101也可以在实施运动量低于目标运动量的情况下,将表示这一情况的评价消息向智能手机100发送。
在此,说明了对运动进行引导的请求被立即实施的情况,但是也存在用户在工作的会议中等无法立刻应答来自机器人110的推动的事例。
图8是表示非机器人公司对机器人110请求任务的处理的一例的流程图。尤其图8表示请求没有被立即实施的事例。与图7的不同之处在于,B公司服务器111接收到请求信息时的必要紧急度信息。在图7中必要紧急度信息表示的必要紧急度是“低”,是任何请求都会由机器人110立即实施的状况。另一方面,在图8中必要紧急度信息表示的必要紧急度为“中”,请求信息所包含的紧急度信息表示的紧急度只要不是“中”或“高”,请求就不会被立即实施。该情况下,请求被保留直至适当的时机为止或拒绝。图8例示请求被保留直至适当的时机为止的事例。
A公司使用A公司APP以及A公司服务器101持续检测用户的生物体活动信息,直到将紧急度为“低”的请求信息向B公司服务器111发送以进行运动(相当于散步5000步)为止的处理,由于与图7相同所以省略说明。不同之处在于,位于该请求信息被发送的处理(步骤S17)之前。
在步骤S801中,机器人110对包含不与机器人110交流的意图的来自用户的发言或用户的状况进行判断。在步骤S802中,机器人110基于所述发现或所述状况的判断结果,将必要紧急度更新为“中”(预定的等级的一例)。
例如,在用户对机器人110说出了“保持安静”或“不要跟我说话”这样的不与机器人110交流的意图的发言的情况下,机器人110将必要紧急度从“低”变更为“中”即可。或者,机器人110在根据传感器110c的感测数据识别出用户正在会话中或正在驾驶车辆的情况下,将必要紧急度从“低”变更为“中”即可。将必要紧急度变更为“中”的机器人110向B公司服务器111发送将必要紧急度更新为“中”的更新请求。接收到该更新请求的B公司服务器111将必要紧急度从“低”更新为“中”(步骤S802)。
从A公司服务器101接收到请求信息的B公司服务器111基于请求信息所包含的紧急度和必要紧急度,判定是否能够应答(步骤S18)。在此,由于紧急度“低”比必要紧急度“中”要低,所以B公司服务器111判定为无法立即执行请求。在判定为无法立即执行的B公司服务器111对A公司服务器101发送表示请求被保留的保留信息(步骤S803)。
之后,机器人110基于来自用户的发言以及传感器110c的感测数据继续进行判定是否需要变更必要紧急度的处理(步骤S804)。在用户明确进行了降低必要紧急度的发言的情况下,在用户进行了包含无紧急性的话题的发言的情况下,或判定为用户采取了紧急性低的行动的情况下,机器人110将必要紧急度设定为“低”即可。紧急性低的行动例如是看电视、操作智能手机等行动。
在将必要紧急度从“中”向“低”更新的情况下,机器人110对B公司服务器111发送用于将必要紧急度向“低”更新的更新请求(步骤S805)。
接收到更新请求的B公司服务器111将必要紧急度从“中”向“低”更新。接着,B公司服务器111对是否能够应答保留中的请求进行再判定(步骤S806)。在此,由于在步骤S803中从A公司服务器101发送的请求信息所包含的紧急度信息表示的紧急度为“低”,当前的必要紧急度信息表示的必要紧急度为“低”,紧急度为必要紧急度以上,因此B公司服务器111对A公司服务器101发送可应答信息(步骤S807)。
从这里开始的处理与图7相同因此省略说明。
如在图7、图8中说明的那样,对B公司服务器111的机制汇总如下。B公司服务器111使位于用户身边的B公司的机器人110执行需要A公司(A公司APP)不保有的传感器110c或机器人110的运动能力的请求。B公司服务器111按每个用户进行A公司和B公司的协作设定。B公司服务器111基于用户的事先输入,事先登记规定了A公司将B公司的机器人110具有的各能力利用到哪个等级为止的访问权的设定信息。B公司服务器111在用户处于无法顾及机器人110的状况的情况下,将紧急度低的请求进行保留或拒绝。B公司服务器111将所保留的请求,根据来自用户的要求或用户的状况变化而在适当的时机再度执行。
图9是表示B公司服务器111的处理的一例的流程图。在图9的处理中,B公司服务器111判定非机器人公司(A公司)是否具有为了实施所请求的任务所需的访问权、是否有应立即执行对用户请求的任务的紧急性、以及执行被保留了的请求是否超过保留期间,并基于判定结果应答非机器人公司(A公司)的请求。具体如下所述。
在步骤S101中,B公司服务器111从A公司服务器101接收向机器人110请求推动用户进行运动的任务的请求信息。
在步骤S102中,B公司服务器111确认A公司对所请求的任务的访问权。首先,B公司服务器111判定将请求信息所包含的A公司APP的固有ID与B公司APP的固有ID进行了关联的成对信息是否事先登记于存储器111c。然后,B公司服务器111在判定为事先登记了的情况下,B公司服务器111基于图5所示的访问权的设定信息确认A公司是否保有请求信息所请求的任务的访问权。在此,图5表示的关于“运动的邀请”任务的A公司的访问权的许可等级被设定为“1”或“2”,因此针对所请求的任务,判定为A公司具有访问权。此外,在针对“运动的邀请”任务的A公司的访问权的许可等级为“0”的情况下,针对所请求的任务判定为A公司不具有访问权。
在判定为A公司不具有访问权的情况下(在步骤S103中为否),B公司服务器111将表示没有用于执行所请求的任务的访问权的消息向A公司服务器101发送(步骤S104),结束处理。
另一方面,在判定为A公司具有访问权的情况下(在步骤S103中为是),B公司服务器111将在步骤S101中接收到的请求信息所包含的紧急度信息表示的紧急度、和当前设定的相应用户的必要紧急度进行比较,判定是否立即执行该请求信息表示的请求(步骤S105)。
在紧急度低于必要紧急度的情况下(在步骤S105中为否),B公司服务器111判定从接收请求信息起的经过时间是否在保留期间内(步骤S109)。
保留期间是表示将任务的执行被保留的请求保留至何时的时间信息。B公司服务器111在接收到请求信息起的经过时间超过保留期间时(在步骤S109中为否),拒绝该请求信息表示的请求(步骤S111)。拒绝了请求的B公司服务器111对进行了请求的A公司服务器101发送由于超过了保留期间所以请求被拒绝之意的消息,结束处理。
由此,能防止在必要紧急度被更新为“低”的瞬间,大量蓄积的紧急度为“低”的请求被一齐执行。进而,能防止从被接收起经过了长时间这样的、在当前时间点没有实施之意的请求的执行。为了维持机器人110对用户的推动的效果,这样的请求的拒绝也是必要的。
另一方面,在从接收请求信息起的经过时间在保留期间内的情况下(在步骤S109中为是),B公司服务器111经由机器人110取得用户的状态数据,基于所取得的状态数据将当前的必要紧急度经由机器人110进行再评价(步骤S110)。或者,也可以是,使得机器人110取得用户的状态数据,基于所取得的状态数据亲自设定当前的必要紧急度,向B公司服务器111通知。当步骤S110的处理结束时,处理返回至步骤S105。由此,执行步骤S105、S109、S110所示的循环处理。通过该循环处理,仅持有对用户进行推动所需的必要紧急度以上的紧急度的请求被随时执行,除此之外的请求在保留期间内其执行被持续保留。状态数据是在机器人110中检测出的与用户的状态相关而动态变化的数据。具体而言,如稍后说明的图9(10)所示包含基于机器人110的传感器110c的感测数据而设定的必要紧急度信息。
在来自A公司服务器101的请求所包含的紧急度信息表示的紧急度为由B公司服务器111或机器人110管理着的必要紧急度以上的情况下(在步骤S105中为是),处理进入步骤S106。
在步骤S106中,由于用户成为了可推动运动的状态,所以B公司服务器111对机器人110发送:指示从A公司服务器101请求的任务的执行的指示信息。接收到指示信息的机器人110按照指示信息执行任务。由此,机器人110进行将用户带出去散步的引导动作。通过该引导动作而下决心散步的用户与机器人110一起散步。散步回到住宅的机器人110将任务的执行结果,即,告知散步结束的结束通知、和散步中的实施运动量信息向B公司服务器111发送。由此,B公司服务器111接收结束通知和实施运动量信息(步骤S107)。
在步骤S108中,B公司服务器111将所接收到的结束通知和实施运动量信息向A公司服务器101发送。
此外,也可以在A公司服务器101具有对机器人110的传感器110c、作为运动能力的表情变更能力、发声能力、手势变更能力、和/或移动能力的访问权的情况下,A公司服务器经由B公司服务器111,根据机器人110的周边状况,直接地控制机器人110的脸部表情、声音说话、手势、和/或移动。该情况下,被从B公司服务器111指示任务的执行的机器人110也将任务的执行结果向B公司服务器111发送即可。也即是,可以说A公司服务器101对机器人110进行远程控制,直接地控制机器人110的是B公司服务器111,机器人110与B公司服务器111的关系与上述技术方案相同。
通过被称为“5G”、“Beyond5G”等高速且低延迟的无线通信基础设施齐备,期待由A公司服务器101实现的对机器人110的远程控制今后得以实现。接收到任务的执行结果的B公司服务器111将该执行结果向作为任务的请求源的A公司服务器101发送而结束处理。
图10是表示必要紧急度的设定例的表。该图示出了早上8点到晚上8点的用户的状态的变化。在以下的说明中,以必要紧急度是机器人110设定的来进行说明,但这是一例,也可以由B公司服务器111设定。该情况下,B公司服务器111基于经由机器人110取得的感测数据来设定必要紧急度即可。
机器人110继续感测用户的状态,根据感测结果随时监测用户的状态,基于检测结果适当更新必要紧急度。
在8:00-10:00的时间段,用户正在与其他人面对面谈话。机器人110使用摄像头以及麦克风等的传感器110c,判定为用户正与他人进行会话。已经开发出了一种根据静止图像、动态图像、或声音来判定或说明人的行动以及状态的神经网络。因此,机器人110利用基于这样的神经网络的图像识别技术或声音识别技术检测用户的状态即可。机器人110在判定为用户的状态是会话中之后,将必要紧急度设定为“中”。由此,若不是持有“中”以上的紧急度的请求,则请求不被执行。而且,机器人110将所设定的必要紧急度与B公司服务器111所共有。
进而,在该判定中,机器人110也可以根据从摄像头取得的用户的表情以及手势、和/或从麦克风取得的声音信息所包含的会话内容以及声音音调等来进行用户的情绪分析。在此,情绪分析的结果例如被分类为“积极的”、“中立的”、以及“消极的”。在情绪分析的结果是“积极的”或“中立的”会话的情况下,用于执行任务的机器人110对会话的打断(插话)很有可能被用户所容许。该情况下,机器人110也可以降低上述设定的必要紧急度。另外,在情绪分析的结果是“消极的”会话的情况下,由于对会话的中断很可能不被用户容许,所以机器人110也可以维持或提高上述设定的必要紧急度。在变更了必要紧急度的情况下,机器人110将变更后的必要紧急度与B公司服务器111所共有。
通过在这样用户的状态判定中加入用户的情绪分析,机器人110能够在对用户来说适当的时机处理任务。
在此,虽然情绪分析的结果被分类为3个,但是本公开并不限定于此。情绪分析的结果也可以如“喜怒哀乐”这样被进行更多的分类,也可以如“积极的”以及“消极的”这2种这样被进行更少的分类。另外,机器人110也可以推定用户的压力程度,根据所推定出的压力程度的数值范围来调整必要紧急度。
在10:00-12:00的时间段,用户正在面向计算机进行作业(工作)。机器人110使用摄像头、麦克风等的传感器110c,检测用户正在操作计算机。机器人110在判定为用户利用计算机进行作业中之后,将必要紧急度维持为“中”。该情况下,若不是持有“中”以上的紧急度的请求,则不执行请求。而且,机器人110将设定后的必要紧急度与B公司服务器111所共有。
在12:00-13:00的时间段,用户正坐在椅子上吃东西。机器人110使用摄像头、麦克风等的传感器110c检测出用户正在吃东西。机器人110在判定为用户正在吃东西之后,将必要紧急度设定为最低的“低”。而且,机器人110将所设定的必要紧急度与B公司服务器111共有。
在13:00-15:00的时间段,用户正在打电话或开会。机器人110使用摄像头、麦克风等的传感器110c,检测出用户正在用便携电话进行会话(通话中),或用计算机进行会话(会议中)。机器人110在判定为用户在通话中或会议中之后,将必要紧急度设定为“中”。该情况下,若不是持有“中”以上的紧急度的请求,则不执行请求。而且,机器人110将设定后的必要紧急度与B公司服务器111所共有。
在15:00-16:00的时间段,用户正在运动。机器人110使用摄像头、麦克风等的传感器110c,检测出用户正在运动。机器人110在判定为用户正在运动中之后,将必要紧急度维持为“中”。
进而,在该判定中,机器人也可以基于从摄像头取得的图像计测用户的皮肤的色彩的周期性变化,也可以使用智能手表等计测用户的心率。在此所计测出的心率比预定值低的情况下,由用于执行任务的机器人110实现的对运动的中断很有可能被用户容许。该情况下,机器人110也可以降低必要紧急度。另一方面,在心率比预定值高的情况下,由用于执行任务的机器人110实现的对运动的中断很有可能不被用户容许。因此,机器人110可以维持必要紧急度,也可以提高必要紧急度。在变更了必要紧急度的情况下,机器人110将变更后的必要紧急度与B公司服务器111所共有。
这样在判定为用户的状态处于运动中的情况下,通过考虑用户的心率,机器人110能够在对用户来说更适当的时机来处理任务。
在16:00-20:00的时间段,用户正躺着放松。机器人110使用摄像头、麦克风等的传感器110c,检测出用户正处于放松状态。机器人110在判定为用户正处于放松状态之后,将必要紧急度设定为最低的“低”。而且,机器人110将设定后的必要紧急度与B公司服务器111所共有。
这样,用户的状态时刻发生变化。机器人110活用传感器110c来感测用户的状态,随时判定用户的状态。进而基于该判定结果来更新必要紧急度。机器人110在更新了必要紧急度的情况下,将更新后的必要紧急度向B公司服务器111通知,将最新的必要紧急度与B公司服务器111所共有。这样,必要紧急度是根据用户的状态而随时变化的。
这样根据本实施方式,A公司服务器101在判断为需要推动用户进行运动时,通过B公司服务器111管理的机器人110,能够推动用户进行运动。其结果,A公司服务器101即使自身不管理着机器人110,也能够使机器人110进行推动用户进行运动的动作。因此,与只不过在用户的智能手机100的影像声音输出部100f显示催促运动的消息的情况相比,能够赋予用户关于运动的更强的动机。
此外,本实施方式能够采用以下的变形例。
(1)在图8的步骤S801中,机器人110也可以对用户说“现在可以和你说话吗?”或“能打扰一下吗?”等确认用户的当前的必要紧急度的提问,使得用户回答。机器人110在预定的时机或尚未实施的请求件数和/或这些紧急度满足了预定的条件等情况下,对用户直接进行上述这样的提问。通过该提问,机器人110也可以根据用户的回答内容取得用于设定必要紧急度的信息。使用该方法的情况下,机器人110能够向用户直接确认必要紧急度,因此机器人110能够如用户认识到的那样设定以及更新必要紧急度信息。
在此,在用户对上述提问进行了“好啊”等肯定的回答的情况下,机器人110也可以将必要紧急度设定为“低”等低的等级。另外,在“希望稍后再说”或得不到回答的情况下,设为现在不是进行向用户的推动的好时机,机器人110也可以将必要紧急度设定为“中”或“高”等高的等级。
(2)智能手机100是信息终端的一例,在本公开中,信息终端不限于智能手机100。信息终端也可以是平板型计算机,能够采用可携带的信息终端。
(机器人的构成以及控制方法)
以下,与上述说明过的实施方式相关联地,特别针对机器人的构成以及控制方法进行说明。
此外,在以下的说明中,对与目前为止的说明重复的内容,适当省略。但是,以下说明的机器人的构成以及控制方法并不限于以目前为止说明过的内容为前提的方式。
图11是表示本公开的实施方式的信息系统的构成的一例的框图。该图相对于图2所示的框图,仅机器人110R的构成不同。以下,针对机器人110R的构成进行说明。
机器人110R包含:通信部110a、运算部110b、传感器110c、存储器110d、可动部110e、影像声音输出部110g、以及照明部110h。机器人110R与图2所示的机器人110的不同之处在于,取代声音输出部110f而具备影像声音输出部110g,以及还具备照明部110h。
影像声音输出部110g是输出影像和/或声音的设备,例如包含显示器和扬声器。
照明部110h包含发光二极管(LED),激光二极管(LD)等光源。照明部110h还可以为了控制从光源射出的光的照射方向而包含透镜、反射镜等光学元件,为了变更照射方向而还可以包含致动器。
机器人110R能够执行针对机器人110已经说明的各种控制内容。换言之,本公开中的关于机器人110的说明也可以适当替换为关于机器人110R的说明。
图12是例示性示出本公开的实施方式的机器人110R的外观的示意图。图12由(a)俯视图、(b)主视图、(c)侧视图、(d)后视图、(e)仰视图构成。图12所示的机器人110R是以4条腿自主移动的机器人。
机器人110R具备:主体110i、一对前腿110ea、110eb、一对后腿110ec、110ed。前腿110ea、110eb、以及后腿110ec、110ed是图11所示的可动部110e的一例,腿的关节由致动器驱动。此外,在图12的(a)俯视图、(b)主视图、(d)后视图、(e)仰视图中,省略描绘腿110ea、110eb、110ec、110ed的一部分或全部。
机器人110R具备设置于主体110i的正面附近的照明单元110ha、和设置于背面附近的照明单元110hb。照明单元110ha例如能够在水平角θ1、且仰俯角φ1的照射范围内以充分的光量照射机器人的前方。照明单元110hb例如能够在水平角θ2且仰俯角φ2的照射范围内以充分的光量照射机器人的后方。照明单元110ha、110hb是图11所示的照明部110h的一例。
机器人110R具备:设置于主体110i的正面的显示器110ga、设置于背面的显示器110gb、设置于侧面的显示器110gc、设置于上表面的显示器110gd。显示器110ga、110gb、110gc、110gd为了使机器人110R借助文字消息、影像信息的显示而与用户、存在于机器人110R的周边的人进行交流而被设置,例如,显示用户的状态、机器人的状态。机器人110R具备设置于主体110i的正面的扬声器110ge、和设置于背面的扬声器110gf。扬声器110ge、110gf为了使机器人110R借助声音消息、音乐的输出而与用户、存在于机器人110R的周边的人进行交流而被设置,例如,通知用户的状态、机器人的状态。
显示器110ga、110gb、110gc、110gd、以及扬声器110ge、110gf是图11所示的影像声音输出部110g的一例。
机器人110R在主体110i的正面具备RGB摄像头110ca、测距传感器110cb、以及红外线摄像头110cc,在主体110i的背面具备RGB摄像头110cd、测距传感器110ce、以及红外线摄像头110cf。RGB摄像头110ca、110cd能够进行空间的识别、物体的识别。测距传感器110cb、110ce能够进行危险物等物体的形状、路面的凹凸等周边环境的形状的检测。红外线摄像头110cc、110cf能够在低照度的环境下进行人物的检测。通过将它们组合,机器人110R能够高精度准确地检测周边状况。RGB摄像头110ca、110cd、测距传感器110cb、110ce、以及红外线摄像头110cc、110cf是图11所示的传感器110c的一例。
机器人110R具备在主体110i的正面附近设置的麦克风110cg、110ch、和在背面附近设置的麦克风110ci、110cj。通过在4处设置麦克风110cg、110ch、110ci、110cj,能够确定音源的位置。麦克风110cg、110ch、110ci、110cj是图11所示的传感器110c的一例。
此外,本公开的实施方式的机器人不限定于图11或图12所示的机器人110R,只要是具有可动部、且能够自主移动的机器人即可。例如,机器人也可以具有车轮来取代腿。例如,机器人除了腿的关节以外还可以具备机械可动的部位。
图13是表示本公开的实施方式的机器人执行的处理的一例的流程图。该流程图对以下一系列的动作步骤进行了说明,即,机器人110R从服务器接受引导用户A运动的任务(S201),引导用户A运动(S202~S210),伴随用户A的运动执行预定的行动(action)(S211),向服务器报告结果(S213、S214)。
接受任务的步骤(S201)例如对应于图7或图8中的步骤S20。引导运动的步骤(S202~S210)例如对应于图7或图8中的步骤S21。执行伴随运动的行动(action)的步骤(S211)例如对应于图7或图8中的步骤S22。向服务器报告结果的步骤(S213、S214)例如对应于图7或8中的步骤S23。或者,图13所示的一系列的动作步骤(S201~S214)例如在图9所示的B公司服务器111的流程图的步骤S106和步骤S107之间,由机器人110R侧执行。
以下,参照图13,说明各步骤的动作。
在步骤S201中,判定机器人110R是否从B公司服务器111接收到任务。任务的接收例如通过机器人110R的通信部110a接收来自B公司服务器111的指示信息,运算部110b接收指示信息所包含的任务的内容来执行。在此,例示性地以任务是引导用户A进行散步的任务来进行说明。该任务例如也可以是B公司服务器111将从A公司服务器101接收到的请求落入到计算机系统能够处理的1个单位的任务。在机器人110R接收到任务的情况下(在步骤S201中为是),进入下一个步骤S202。反之,在机器人110R没有接收到任务的情况下,等待直到接收到任务(在步骤S201中为否)。
在步骤S202中,机器人110R判定在自身的周围是否检测出成为任务的对象的用户A。例如,RGB摄像头110ca、110cd、和/或、红外线摄像头110cc、110cf对周围进行拍摄,通过图像识别来判定在运算部110b拍摄到的图像中是否映照出用户A。在检测出用户A的情况下(在步骤S202中为是),进入接下来的步骤S203。在没有检测出用户A的情况下(在步骤S202中为否),进入步骤S214。该情况下,在步骤S214中,由于机器人110R在机器人110R的周围无法检测出用户A而将任务不可实施这一情况向B公司服务器111发送。
接着,在步骤S203中,机器人110R判定搭载于机器人110R的电池(未图示)的剩余量是否是足够执行任务的充分的量。例如,任务所需的电量的信息也可以是机器人110R的运算部110b基于任务的内容而估算。或者,该信息也可以预先包含于在步骤201中接收到的指示信息之中。运算部110b从内置于电池的电池管理IC取得电池的剩余量的信息,判定电池的剩余量是否超过任务所需的耗电量。在电池的剩余量充分的情况下(在步骤S203中为是),进入下一个步骤S205。在电池的剩余量不足的情况下(在步骤S203中为否),进行电池的充电直到电池的剩余量超过任务所需的电量为止(步骤S204),返回至步骤S202。
此外,步骤S203例如也可以在步骤S201到步骤S202之间执行,也可以在后述的步骤S205到步骤S206之间执行。或者,也可以省略步骤S203。
在步骤S205中,机器人110R使用传感器110c检测用户A的位置。例如,使用RGB摄像头110ca、110cd、和/或、红外线摄像头110cc、110cf拍摄用户A,并使用测距传感器110cb、110ce测量从机器人110R到用户A为止的距离。由此,能够检测三维空间中的用户A的位置。或者,也可以使得通过与用户A穿戴在身上的可穿戴设备(未图示)通信,取得用户A的位置。既可以使得通过机器人110R的通信部110a接收到的电波强度来判定可穿戴设备发出的无线信号,也可以将可穿戴设备借助卫星定位系统等取得的当前位置信息向机器人110R发送或应答。
此外,步骤S205例如也可以与步骤S202的用户A的检测一起执行。
在步骤S206中,机器人110R向用户A的附近的区域(即附近区域)移动。附近区域是包含用户的当前位置的预定的区域。附近区域例如既可以被设定为从用户A的当前位置起预定的距离以内的区域,也可以被设定为根据映照出用户A的图像而推定的用户A的视野内的区域。机器人110R驱动可动部110e例如,4条腿110ea、110eb、110ec、110ed,自主地向用户A的附近区域移动。
在步骤S207中,机器人110R执行用于对用户A催促运动的手势(gesture)。这样的手势例如可以是用于机器人110R将想要散步的意愿向用户A传达的手势。作为手势例,可以列举将线束(harness),绳(lead)等的散步所需的器具搬到附近区域内来的动作、用前腿110ea、110eb触摸用户A的身体的动作、使主体110i前倾而伸长后腿110ec、110ed的动作、在附近区域内走来走去的动作。这些动作通过对腿110ea、110eb、110ec、110ed进行驱动的致动器、和/或、控制使机器人110R的外形、姿势变更的其他致动器而实现。在步骤S207中,机器人110R除了手势以外还使用影像声音输出部110g,或取代手势而使用影像声音输出部110g,来提示用于对用户A催促运动的消息。
此外,步骤S207例如也可以与步骤S206的移动动作并行执行。
在步骤S208中,机器人110R判定是否检测到用户A的应答。例如,机器人110R使用RGB摄像头110ca、110cd、和/或、红外线摄像头110cc、110cf,由运算部110b来监视用户A的姿势的变化,在(i)用户A的姿势的变化的大小超过了预定的阈值的情况下,在满足(ii)判定为用户A的姿势是表示特定的意思表示的姿势(pose)(例如竖起大拇指)的情况,(iii)基于用户A的面部表情,感情推定的确定性超过了预定的阈值的情况,(iv)判定为用户A的姿势的时间的变化是表示特定的意思表示的手势(例如,点头或摇头)的情况中的至少1个的情况下,判定为检测出用户A的应答。或者,机器人110R使用麦克风110cg、110ch、110ci、110cj监视用户A说话的声音,在用户A的说话声音的音量超过了预定的阈值的情况下,判定为检测到用户A的应答。各个阈值例如被设定为能看作用户A进行了明确的意思表示的等级(level)。在检测到用户A的应答的情况下(在步骤S208中为是),进入接下来的步骤S210。
在没有检测到用户A的应答的情况下(在步骤S208中为否),在步骤S209中,判定从执行手势起是否经过了预定时间。在没有经过预定时间的情况下(在步骤S209中为否),返回步骤S205(或步骤S207)。由此,机器人110R将催促用户A运动的动作在预定时间反复执行,直到检测到来自用户A的应答为止。此时,既可以将用于催促用户A运动的手势的大小随着时间经过或反复次数,阶段性增大,也可以将通过影像声音输出部110g提示的消息的表现,随着时间经过或反复次数,阶段性增强。
在没有检测到用户A的应答的情况下(在步骤S208中为否)且经过了预定时间的情况下(在步骤S209中为是),进入步骤S214。该情况下,在步骤S214中,由于没有检测到来自用户A的应答而将任务的实施未达成这一情况向B公司服务器111发送。
在步骤S210中,判定用户A的应答是否包含对机器人110R的手势的肯定的回答、或、进行从机器人110R催促的运动这一意愿的表明。例如,在由步骤S208检测出的用户A的应答是用户A的身体动作的情况下,机器人110R也可以参照将人的动作模式和其指示的含义进行了关联而得到的数据库,判定用户A的身体动作是否包含肯定的回答或对运动的意愿(意向)的表明。例如,在由步骤S208检测到的用户A的应答是用户A的说话的情况下,机器人110R也可以使用声音识别AI(未图示),判定用户A的说话内容是否包含有肯定的回答或对运动的意愿的表明。在用户A的应答包含有肯定的回答或对运动的意愿的表明的情况下(在步骤S210中为是),进入接下来的步骤S211。在用户A的应答不包含肯定的回答或对运动的意愿的表明的情况下、或包含否定的回答的情况下(在步骤S210中为否),进入步骤S214。该情况下,在步骤S214中,由于无法从用户A得到肯定的回答,所以将任务的实施并未达成这一情况向B公司服务器111发送。
在步骤S211中,机器人110R执行与用户A的运动相应的行动(action)。在用户A进行散步或跑步(running)的情况下,机器人110R与用户A同行而进行步行或跑步。例如,机器人110R一边使用RGB摄像头110ca、110cd、测距传感器110cb、110ce、红外线摄像头110cc、110cf、以及麦克风110cg、110ch、110ci、110cj感测用户A及其周围、以及自身的周围的状况,一边驱动腿110ea、110eb、110ec、110ed的致动器,与用户A同行而进行移动。步骤S211中的机器人110R的行动(action)不限于机器人110R的身体动作,例如也可以包含使用影像声音输出部110g提示基于图像、声音的消息的动作。另外,步骤S211中的预定的行动(action)不仅是对于运动中的用户A的行动(action),还可以包含对于要开始运动的用户A的行动(action)。例如,机器人110R也可以通过向离开用户A的附近的区域的方向移动,来引导用户A,由此使用户A开始散步。此外,在步骤S211中,机器人110R既可以按预先决定的任务内容执行预定的行动(action),也可以一边与B公司服务器111、智能手机100等的外部的计算机彼此通信,一边执行行动(action)。在后者的情况下,例如,在用户A的运动中,将表示用户A的状态的状态数据定期的或不定期地向外部计算机发送,并接受基于此而决定的行动计划(action plan)。
在步骤S212中,机器人110R判定用户A是否结束了运动。例如,机器人110R也可以使用RGB摄像头110ca、110cd、和/或、红外线摄像头110cc、110cf监视用户A的身体的活动,在用户A的身体的活动低于预定的阈值的状态持续了预定期间的情况下,判定为用户A结束了运动。或者,机器人110R也可以使用麦克风110cg、110ch、110ci、110cj监视用户A说话的声音,在机器人110R从用户A接收到传达运动的结束这一意思表示的情况下,判定为用户A结束了运动。在判定为用户A结束了运动的情况下(在步骤S212中为是),进入接下来的步骤S213。在判定为用户A继续运动的情况下(在步骤S212中为否),返回步骤S211,执行与用户A的运动相应的行动(action)。
在步骤S213中,机器人110R将表示结束了任务的实施这一情况的结束通知向B公司服务器111发送。结束通知也可以包含用户A实施的运动中的运动量的信息。
通过以上,机器人110R完成从对用户A的运动的引导到用户A的运动结束的报告为止的一系列处理。
图14表示本公开的实施方式的机器人执行的动作的一例。图14描绘了场景I到场景VI。
例如,场景I与图13中的步骤S201对应,场景II与图13中的步骤S206对应,场景III以及IV与图13中的步骤S207~S209对应,场景V与图13中的步骤S208以及S210对应,场景VI与图13中的步骤S211对应。
场景I表示运动不足的用户A、与用户A不同的用户B、以及用户A利用着的机器人110R位于用户A的自宅内的场景。此时,机器人110R在容易环视室内的位置、或、由用户A指定的位置待机。在该例中,机器人110R待机着的位置设为位于包含用户A及其周边的附近区域(图中的虚线)的外侧。
在场景I中,机器人110R的运算部110b从B公司服务器111接收到对用户A的运动请求。该运动请求例如既可以由A公司服务器101发送,由B公司服务器111转送,也可以基于A公司服务器101发送的运动请求,由B公司服务器111新生成。
或者,运动请求也可以从能够与机器人110R通信的外部计算机发送。例如,可以不经由B公司服务器111从A公司服务器101向机器人110R发送,也可以从安装于用户A的智能手机的A公司的APP或B公司的APP向机器人110R发送。或者,运动请求也可以是由机器人110R的运算部110b正在执行的程序基于使用传感器110c感测到用户A的状态的结果而发行。
场景II表示机器人110R感测用户A的位置,基于该结果向用户A的附近的区域内自主移动的场景。机器人110R例如也可以在移动前,确定用户A正在从事的活动,基于所确定的活动内容判定必要紧急度。
场景III是机器人110R在附近区域内进行着引导用户A去散步的动作的场景。机器人110R根据接收到的运动请求,使用扬声器110ge、110gf输出催促用户A散步的声音和/或驱动可动部110e进行引导用户A散步的姿态(动作)。在该例中,机器人110R一边双脚步行,一边做出面向用户A一方的姿态(动作),一边使用声音招呼“去散步吧!”。此外,机器人110R既可以在进入附近区域内后进行引导运动的动作,也可以一边进行劝说运动的动作一边进入附近区域内。
在该例中,机器人110R示出了仿佛自身持有想要运动的愿望一样的举止动作。由此,能够刺激用户A对利他行动的欲望(欲求)。进行利他行动的欲求可以例如可以列举,将机器人110R识别为1个个体,想要实现其抱有的愿望的心情。其中,机器人110R进行的动作并不限定于此。例如,机器人110R也可以通过将与用户A相关的信息向用户A传达,刺激用户A的自我实现欲求。例如,为了刺激用户A想要以健康的身体精力充沛地继续生活的心情,也可以进行传达用户A的运动不足的状况及其健康上的缺点的动作。作为这样的动作例,可以列举机器人110R以四脚步行而静静靠近用户A,在进行“今天你的步数还是1000步。散步比较好哦”这一搭话的同时,当场进行踏步走这样的姿势(手势gesture)。
场景IV是从开始引导运动起预定时间以内没有从用户A检测到明确的应答的情况下,更积极地继续引导运动的场景。在该例中,机器人110R一边在用户A的周围来回活动,一边通过反复输出“想去!”的声音,继续向用户A传达想要散步之意。
场景V是用户A进行肯定的或否定的应答,机器人检测到该应答的场景。在该例中,用户A站起来,对机器人110R进行传达“那么,去吧”这一去散步的意思的回答。机器人110R利用传感器110c检测基于用户A的姿势的变化、移动、以及口头、手势的意思表示。例如,机器人110R根据由RGB摄像头110ca拍摄到的面部、全身的图像识别用户A,检测用户A的姿势(或骨骼)的变化,由此识别用户A的身体动作,判定用户A的应答是否是肯定的。或者,机器人110R例如根据由麦克风110cg拾取到的声音信息,判定用户A的应答是否是肯定的。
场景VI是用户A和机器人110R走出家开始散步的场景。机器人110R按照运动请求使用户A运动。机器人110R将用户A的运动状态、运动结果向运动请求的发送源报告。
此外,在此作为用户A的运动例,列举了散步,但是本公开并不限定于此。机器人110R既可以带着用户去慢跑、游泳、高尔夫、网球等,也可以使用户A进行使用了位于自宅内的室内跑步练习器(room runner),健身摩托车、哑铃等运动器具的运动。例如,机器人110R也可以根据用户A的有无运动史、有无运动器具、当时的天气等,选择并建议应向用户A催促的运动。
产业上的可利用性
根据本公开,能够安全地实现请求或直接地控制其他公司机器所保有的传感器、运动能力。由此,从迄今为止的仅网络空间的信息流通,到将网络空间和物理空间融合,任何人都能够通过软件,从网络空间到在物理空间中进行某些向实际空间的作用,作为多种多样的产业性利用的基础技术而备受期待。
标号说明
100 智能手机
100a 通信部
100b 运算部
100c 传感器
100d 存储器
100e 操作部
100f 影像声音输出部
101 A公司服务器
101a 通信部
101b 运算部
101c 存储器
110,110R机器人
110a 通信部
110b 运算部
110c 传感器
110ca,110cd RGB摄像头
110cb,110ce测距传感器
110cc,110cf红外线摄像头
110cg,110ch,110ci,110cj麦克风
110d 存储器
110e 可动部
110ea,110eb,110ec,110ed腿
110f 声音输出部
110g 影像声音输出部
110ga,110gb,110gc,110gd显示器
110ge,110gf扬声器
110h照明部
110ha,110hb照明单元
110i 主体
111 B公司服务器
111a 通信部
111b 运算部
111c存储器

Claims (14)

1.一种机器人的控制方法,
从位于所述机器人的外部的计算机,接收向所述机器人指示催促用户运动的指示信息,
经由搭载于所述机器人的光学传感器,检测所述用户的当前位置,
控制所述机器人的至少一对车轮或腿,使所述机器人移动至包含所述用户的当前位置的预定区域内,
控制所述机器人所包含的至少1个致动器,使所述机器人执行催促所述用户运动的手势,
经由搭载于所述机器人的所述光学传感器或麦克风,监视所述用户的举动,
基于所述监视的结果,控制所述机器人所包含的所述至少1个致动器,伴随所述用户的运动而驱动所述机器人。
2.根据权利要求1所述的控制方法,
伴随所述用户的运动的所述机器人的驱动,在所述用户的举动包含有对所述机器人的所述手势的肯定的应答、或进行所述运动的意愿的表明的情况下被执行。
3.根据权利要求1或2所述的控制方法,
所述用户的运动包括:所述用户因步行或跑步而移动,
伴随所述用户的运动的所述机器人的驱动包括:控制所述至少一对车轮或腿,与移动的所述用户同行而使所述机器人移动。
4.根据权利要求3所述的控制方法,
伴随所述用户的运动的所述机器人的驱动还包括:控制所述至少一对车轮或腿,一边向离开所述预定区域的方向引导所述用户,一边催促所述用户开始移动。
5.根据权利要求3或4所述的控制方法,
催促所述用户运动的手势是所述机器人向所述用户传达想要散步的意愿的手势。
6.根据权利要求1至5中任一项所述的控制方法,
所述用户的举动的监视包括:经由所述光学传感器检测所述用户的姿势的变化。
7.根据权利要求1至5中任一项所述的控制方法,
监视所述用户的举动包括:经由所述麦克风,取得所述用户说话的声音信息,对该声音信息执行声音识别。
8.根据权利要求1至7中任一项所述的控制方法,
催促所述用户运动的手势被反复执行,直到检测到所述用户对该手势的应答为止。
9.根据权利要求1至8中任一项所述的控制方法,
在开始所述机器人的向所述预定区域内的移动之前,检测搭载于所述机器人的电池的剩余量,
在所述电池的剩余量比驱动所述机器人所需的电量多的情况下,使所述机器人的移动开始。
10.根据权利要求1至9中任一项所述的控制方法,进一步,
经由所述光学传感器或所述麦克风,监视正在运动的所述用户的举动,
在判断为所述用户结束了运动之后,将表示所述用户的运动结束了这一情况的结束通知向所述计算机发送。
11.根据权利要求1至10中任一项所述的控制方法,进一步,
将表示所述计算机执行向所述机器人的指示所需的紧急度的必要紧急度信息向所述计算机发送,
所述指示信息在应催促所述用户运动的紧急度满足所述所需的紧急度的情况下,被从所述计算机发送至所述机器人。
12.根据权利要求1至11中任一项所述的控制方法,
所述计算机是经由所述机器人和网络能够通信的服务器或信息通信终端。
13.一种机器人,具备:
处理器;
存储器,保存了用于使所述处理器执行权利要求1至12中任一项所述的控制方法的程序;
主体;
所述至少一对腿或车轮;
所述至少1个致动器;以及
所述光学传感器以及所述麦克风中的至少一方。
14.一种使权利要求1至12中任一项所述的控制方法在搭载于所述机器人的处理器中执行的程序。
CN202180060695.0A 2020-12-10 2021-12-03 机器人的控制方法、机器人、以及程序 Active CN116234664B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2020-205321 2020-12-10
JP2020205321 2020-12-10
JP2021-086327 2021-05-21
JP2021086327 2021-05-21
PCT/JP2021/044440 WO2022124226A1 (ja) 2020-12-10 2021-12-03 ロボットの制御方法、ロボット、及び、プログラム

Publications (2)

Publication Number Publication Date
CN116234664A true CN116234664A (zh) 2023-06-06
CN116234664B CN116234664B (zh) 2024-05-24

Family

ID=81973242

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202180029309.1A Active CN115427126B (zh) 2020-12-10 2021-07-08 机器人控制方法以及信息提供方法
CN202180060695.0A Active CN116234664B (zh) 2020-12-10 2021-12-03 机器人的控制方法、机器人、以及程序

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202180029309.1A Active CN115427126B (zh) 2020-12-10 2021-07-08 机器人控制方法以及信息提供方法

Country Status (5)

Country Link
US (2) US20230105048A1 (zh)
EP (2) EP4260920A1 (zh)
JP (5) JP7113270B1 (zh)
CN (2) CN115427126B (zh)
WO (2) WO2022123817A1 (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010140119A (ja) * 2008-12-09 2010-06-24 Tokyo Metropolitan Univ ユーザ健康維持活性化支援及び見守りシステム
CN101795831A (zh) * 2007-09-06 2010-08-04 奥林巴斯株式会社 机器人控制系统、机器人、程序以及信息存储介质
JP2010246676A (ja) * 2009-04-14 2010-11-04 Nec Corp 運動支援システム、運動支援方法およびプログラム
CN109153127A (zh) * 2016-03-28 2019-01-04 Groove X 株式会社 执行迎接行为的行为自主型机器人
US20190138019A1 (en) * 2016-07-11 2019-05-09 Groove X, Inc. Autonomously acting robot whose activity amount is controlled
CN110014432A (zh) * 2018-01-10 2019-07-16 松下知识产权经营株式会社 交互装置、交互方法、交互程序以及机器人
CN111736585A (zh) * 2019-03-19 2020-10-02 松下知识产权经营株式会社 机器人以及机器人的控制方法
US20210283516A1 (en) * 2018-12-14 2021-09-16 Groove X, Inc. Robot that wears clothes

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4232627B2 (ja) * 2003-12-26 2009-03-04 日本ビクター株式会社 ネットワークロボット及びその制御方法
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
JP5800184B2 (ja) * 2011-07-14 2015-10-28 日本電気株式会社 情報処理システム、ユーザの行動促進方法、情報処理装置及びその制御方法と制御プログラム
US8961371B2 (en) 2011-10-07 2015-02-24 Sultan Ventures LLC Systems and methods for enabling exercise equipment to communicate with a network
US9599632B2 (en) * 2012-06-22 2017-03-21 Fitbit, Inc. Fitness monitoring device with altimeter
US9526420B2 (en) 2012-10-26 2016-12-27 Nortek Security & Control Llc Management, control and communication with sensors
JP6009904B2 (ja) 2012-10-26 2016-10-19 ホーチキ株式会社 防災警報システム
US10512407B2 (en) * 2013-06-24 2019-12-24 Fitbit, Inc. Heart rate data collection
WO2016004396A1 (en) * 2014-07-02 2016-01-07 Christopher Decharms Technologies for brain exercise training
JP6590180B2 (ja) * 2014-08-08 2019-10-16 公立大学法人首都大学東京 サービス利用情報共有システム
US20160071096A1 (en) * 2014-09-08 2016-03-10 Andrew Rosca Method and System for Securing Cryptocurrency Wallet
US9924293B2 (en) * 2014-10-17 2018-03-20 Ca, Inc. Mobile applications incorporating mobile-based transactions detection and monitoring means
JP2016209233A (ja) * 2015-05-07 2016-12-15 セイコーエプソン株式会社 生体情報処理システム、サーバーシステム、生体情報処理装置及び生体情報処理方法
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
US11589758B2 (en) * 2016-01-25 2023-02-28 Fitbit, Inc. Calibration of pulse-transit-time to blood pressure model using multiple physiological sensors and various methods for blood pressure variation
US20190147721A1 (en) * 2016-03-30 2019-05-16 Live Care Corp. Personal emergency response system and method for improved signal initiation, transmission, notification/annunciation, and level of performance
WO2017199662A1 (ja) 2016-05-20 2017-11-23 Groove X株式会社 自律行動型ロボット及びコンピュータプログラム
JP6844124B2 (ja) 2016-06-14 2021-03-17 富士ゼロックス株式会社 ロボット制御システム
JP6844135B2 (ja) * 2016-07-05 2021-03-17 富士ゼロックス株式会社 移動ロボットおよび移動制御システム
JP6468274B2 (ja) * 2016-12-08 2019-02-13 カシオ計算機株式会社 ロボット制御装置、生徒ロボット、教師ロボット、学習支援システム、ロボット制御方法及びプログラム
US11267121B2 (en) * 2018-02-13 2022-03-08 Casio Computer Co., Ltd. Conversation output system, conversation output method, and non-transitory recording medium
US20210023704A1 (en) * 2018-04-10 2021-01-28 Sony Corporation Information processing apparatus, information processing method, and robot apparatus
CN109605389A (zh) * 2018-12-28 2019-04-12 西安艾润物联网技术服务有限责任公司 引导机器人的管理方法及装置
US11602853B2 (en) 2019-06-28 2023-03-14 University Of Denver Therapeutic social robot

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101795831A (zh) * 2007-09-06 2010-08-04 奥林巴斯株式会社 机器人控制系统、机器人、程序以及信息存储介质
JP2010140119A (ja) * 2008-12-09 2010-06-24 Tokyo Metropolitan Univ ユーザ健康維持活性化支援及び見守りシステム
JP2010246676A (ja) * 2009-04-14 2010-11-04 Nec Corp 運動支援システム、運動支援方法およびプログラム
CN109153127A (zh) * 2016-03-28 2019-01-04 Groove X 株式会社 执行迎接行为的行为自主型机器人
US20190138019A1 (en) * 2016-07-11 2019-05-09 Groove X, Inc. Autonomously acting robot whose activity amount is controlled
CN110014432A (zh) * 2018-01-10 2019-07-16 松下知识产权经营株式会社 交互装置、交互方法、交互程序以及机器人
US20210283516A1 (en) * 2018-12-14 2021-09-16 Groove X, Inc. Robot that wears clothes
CN111736585A (zh) * 2019-03-19 2020-10-02 松下知识产权经营株式会社 机器人以及机器人的控制方法

Also Published As

Publication number Publication date
JP7178579B2 (ja) 2022-11-28
JP7357260B2 (ja) 2023-10-06
JPWO2022124226A1 (zh) 2022-06-16
JP7113270B1 (ja) 2022-08-05
EP4260920A1 (en) 2023-10-18
CN115427126A (zh) 2022-12-02
US20230105048A1 (en) 2023-04-06
JP2023179479A (ja) 2023-12-19
EP4260921A1 (en) 2023-10-18
JP2023015132A (ja) 2023-01-31
CN115427126B (zh) 2023-12-26
CN116234664B (zh) 2024-05-24
US11942216B2 (en) 2024-03-26
US20230294294A1 (en) 2023-09-21
WO2022124226A1 (ja) 2022-06-16
JPWO2022123817A1 (zh) 2022-06-16
JP2023179478A (ja) 2023-12-19
WO2022123817A1 (ja) 2022-06-16

Similar Documents

Publication Publication Date Title
US10777048B2 (en) Methods and apparatus regarding electronic eyewear applicable for seniors
US9922236B2 (en) Wearable eyeglasses for providing social and environmental awareness
Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
US10024667B2 (en) Wearable earpiece for providing social and environmental awareness
US10024678B2 (en) Wearable clip for providing social and environmental awareness
KR20200091839A (ko) 커뮤니케이션 장치, 커뮤니케이션 로봇 및 컴퓨터가 판독 가능한 기록 매체
CN103561652B (zh) 用于辅助患者的方法和系统
WO2017199662A1 (ja) 自律行動型ロボット及びコンピュータプログラム
JP2019522300A (ja) 精神障害の療法のためのモバイルおよびウェアラブルビデオ捕捉およびフィードバックプラットフォーム
WO2019207896A1 (ja) 情報処理システム、情報処理方法、および記録媒体
WO2015108882A1 (en) Smart necklace with stereo vision and onboard processing
JP7375770B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN116234664B (zh) 机器人的控制方法、机器人、以及程序
US20230129746A1 (en) Cognitive load predictor and decision aid
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature
Mansouri Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
KR101769512B1 (ko) 휴먼케어 디바이스
JP2023123555A (ja) 日常生活を記録する自律行動型ロボット

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant