CN107636696A - 多用户交互方法、装置及陪护机器人 - Google Patents

多用户交互方法、装置及陪护机器人 Download PDF

Info

Publication number
CN107636696A
CN107636696A CN201680016196.0A CN201680016196A CN107636696A CN 107636696 A CN107636696 A CN 107636696A CN 201680016196 A CN201680016196 A CN 201680016196A CN 107636696 A CN107636696 A CN 107636696A
Authority
CN
China
Prior art keywords
split screen
robot
orientation
screen display
attending
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680016196.0A
Other languages
English (en)
Other versions
CN107636696B (zh
Inventor
张绚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Royole Technologies Co Ltd
Royole Corp
Original Assignee
Shenzhen Royole Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Royole Technologies Co Ltd filed Critical Shenzhen Royole Technologies Co Ltd
Publication of CN107636696A publication Critical patent/CN107636696A/zh
Application granted granted Critical
Publication of CN107636696B publication Critical patent/CN107636696B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

一种多用户交互方法,包括:检测陪护机器人(50)的用户数量及用户相对于所述陪护机器人(50)的方位;根据所述用户数量及方位,将所述陪护机器人(50)的显示屏(55)划分多个分屏显示区域;通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。采用该办法,可以实现所述陪护机器人(50)与多个用户之间的同步交互,降低陪护机器人(50)的功耗和生产成本,并提升陪护机器人(50)的整体性能。还公开了一种多用户交互装置和一种陪护机器人。

Description

多用户交互方法、装置及陪护机器人
技术领域
本发明涉及人机交互领域,尤其涉及一种多用户交互方法、一种多用户交互装置及一种陪护机器人。
背景技术
随着家用设备的不断智能化,消费者的智能化服务需求也在不断提升。近年来,通过将机器人应用从工业领域迁移至家居服务、医疗康复、教育娱乐等领域,市场上出现了各种形式的陪护机器人,为给消费者带来了更智能、更便利的生活体验。陪护机器人与用户之间的部分信息交互需要通过显示屏实现,例如,通过在陪护机器人的头部或者身体上镶嵌一块触控显示屏,从而可以接收用户输入的信息,并显示对应的输出信息,以实现信息交互。然而,这种交互方式在同一时间只能实现与单个用户之间的信息交互。当有多个用户同时使用时,则需要通过驱动机器人整体转动或者部分转动以使触控显示屏朝向对应的用户。驱动机器人转动需要消耗大量的电能,而且如果是部分转动的方式,例如头部转动,则需要在机器人上设置转动机构,随着使用时间和次数的不断增加,转动机构会存在损耗,进而导致机器人故障,不利于提升陪护机器人的整体性能。
发明内容
鉴于现有技术中存在的上述问题,本发明实施例提供一种多用户交互方法、一种多用户交互装置及一种陪护机器人,以实现陪护机器人与多个用户之间的同步交互,降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
一种多用户交互方法,包括:
检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
其中,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述方法还包括:
检测所述用户相对于所述陪护机器人的姿态;
根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
其中,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:
通过每一个所述分屏显示区域分别接收不同用户的输入信息;
对每一个用户的输入信息单独进行处理;并
通过多个所述分屏显示区域分别为不同用户显示输出信息。
一种多用户交互装置,包括:
检测单元,用于检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
分屏单元,用于根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
交互单元,用于通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
其中,所述分屏单元包括:
数量确定子单元,用于根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
位置确定子单元,用于根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
分屏处理子单元,用于在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
其中,所述数量确定子单元,还用于根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
所述分屏处理子单元,还用于在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
其中,所述检测单元,还用于检测所述用户相对于所述陪护机器人的姿态;
所述分屏单元,还用于根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
其中,所述交互单元包括:
输入子单元,用于通过每一个所述分屏显示区域分别接收不同用户的输入信息;
处理子单元,用于对每一个用户的输入信息单独进行处理;并
输出子单元,用于通过多个所述分屏显示区域分别为不同用户显示输出信息。
一种陪护机器人,包括主体和头部,所述陪护机器人还包括处理器、存储器、显示屏及多个传感器;所述显示屏和所述多个传感器环绕所述主体或所述头部设置;所述处理器与所述存储器、所述显示屏及所述多个传感器电性连接,所述处理器用于调用存储于所述存储器中的可执行程序代码,并执行如下操作:
通过所述多个传感器检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
其中,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述操作还包括:
通过所述传感器检测所述用户相对于所述陪护机器人的姿态;
根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
其中,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:
通过每一个所述分屏显示区域分别接收不同用户的输入信息;
对每一个用户的输入信息单独进行处理;并
通过多个所述分屏显示区域分别为不同用户显示输出信息。
所述多用户交互方法、装置及陪护机器人,通过检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位,并将所述陪护机器人的显示屏划分多个分屏显示区域,进而通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,从而可以实现陪护机器人与多个用户之间的同步交互,降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍。
图1是本发明实施例提供的多用户交互方法的第一流程示意图;
图2是本发明实施例提供的多用户交互方法的第二流程示意图;
图3是本发明实施例提供的多用户交互方法的第三流程示意图;
图4是本发明实施例提供的多用户交互装置的结构示意图;
图5是本发明实施例提供的陪护机器人的结构示意图;
图6是本发明实施例提供的陪护机器人的第一种使用场景示意图;
图7是本发明实施例提供的陪护机器人的第二种使用场景示意图;
图8是本发明实施例提供的陪护机器人的第三种使用场景示意图;
图9是本发明实施例提供的陪护机器人的第四种使用场景示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,在本发明一个实施例中,提供一种多用户交互方法,其可以应用于陪护机器人中,以实现所述陪护机器人与多个用户之间的同步交互,降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
所述多用户交互至少包括如下步骤:
步骤S11:检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
步骤S13:根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
步骤S15:通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
其中,所述陪护机器人可以包括主体和头部,以及环绕所述主体或所述头部设置的显示屏及多个传感器。所述显示屏用于与用户交互,在本实施例中,所述显示屏为柔性触控显示屏,其可以接收用户的输入信息,并显示对应的输出信息。所述多个传感器用于检测所述陪护机器人的用户数量及用户相对于所述陪护机器人的方位。可以理解,所述多个传感器可以按照预设的方位等间距地环绕所述主体或所述头部设置且位于同一水平面上,从而可以检测位于所述陪护机器人不同方位的用户数量,并统计所有方位的用户数量。
在本实施例中,所述传感器可以为图像传感器,每一个所述图像传感器对应于一个方位,且相邻的两个图像传感器对应的方位之间无缝连接,从而可以通过所述多个图像传感器获取所述陪护机器人四周的全景图像,进而通过图像处理即可获取每一个方位的用户数量及所有用户数量。其中,所述每一个所述图像传感器对应的方位对应于每一个所述图像传感器的最大成像角度所能覆盖的方向和范围,例如,假设一个所述图像传感器的最大成像角度为90度,则通过在所述陪护机器人的主体或头部按照90度的间距设置四个所述图像传感器,即可覆盖所述陪护机器人的所有方位。
所述陪护机器人还包括处理器和存储器,所述处理器与所述存储器、所述显示屏及所述多个传感器电性连接,所述处理器用于根据所述多个传感器检测到的用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,对用户的输入信息进行处理以生成对应的输出信息,并控制所述多个分屏显示区域进行分别显示。在本实施例中,可以通过每一个所述分屏显示区域分别接收不同用户的输入信息;并通过所述处理器对每一个用户的输入信息单独进行处理;进而通过多个所述分屏显示区域分别为不同用户显示输出信息。所述存储器用于存储系统数据及用户数据,例如,所述陪护机器人的操作系统或运行程序,用户自定义参数等。
请参阅图2,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
步骤S131:根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
步骤S133:根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
步骤S135:在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
在本实施例中,所述第一方向为水平方向。由于所述显示屏环绕所述陪护机器人的头部或主体设置,从而可以通过所述显示屏与围绕所述陪护机器人的用户进行交互。同时,由于所述显示屏提供给位于不同方位的用户的视角是有限的,例如,所述显示屏位于所述陪护机器人左侧部分显示的内容只有同样位于所述陪护机器人左侧的用户才能看到,因此需要根据所述方位的数量,在水平环绕所述陪护机器人的头部或主体的方向上,将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域,以通过所述多个第一分屏显示区域分别与位于不同方位的用户进行交互。可以理解,每一个所述方位的用户数量可以为一个或多个。所述预设可视角度为每一个所述方位的用户从不同的视角清晰地观察到所述分屏显示区域内显示的所有内容的角度。
通过在将所述显示屏环绕所述陪护机器人的头部或主体设置,并根据所述陪护机器人的不同用户所处的方位的不同,将所述显示屏划分为对应于所述方位数量的所述多个第一分屏显示区域,进而通过所述多个第一分屏显示区域分别与对应方位的用户进行交互,在实现多用户同步交互的同时,无需驱动所述陪护机器人转动,从而有利于降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
步骤S137:根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
步骤S139:在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
可以理解,当位于所述陪护机器人其中一个方位的用户数量大于一个时,要实现所述陪护机器人与每一个用户之间的单独交互,则需要对所述方位对应的所述第一分屏显示区域进一步划分为多个第二分屏显示区域,并通过所述多个第二分屏显示区域分别与位于该方位的多个用户进行交互。在本实施例中,所述第二方向为垂直方向。可以理解,由于每一个方位对应的所述第一分屏显示区域的大小是根据“每一个所述方位的用户从不同的视角能够清晰地观察到所述分屏显示区域内显示的所有内容”的条件而设定的,且所述显示屏在垂直方向上的弧度要远小于水平方向的弧度,即在垂直方向上所述第一分屏显示区域显示的所有内容均能被位于该方位的所有用户清晰地观察到,因此,在将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域,可以直接根据所述方位的用户数量,将所述第一分屏显示区域等分为对应数量的第二分屏显示区域。
请参阅图3,在本发明一个实施例中,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述方法还包括:
步骤S14:检测所述用户相对于所述陪护机器人的姿态,并根据所述用户相对于所述陪护机器人的姿态控制所述分屏显示区域调整显示方向。
在本实施例中,所述传感器还用于进行人脸识别,以根据人脸识别的结果,检测所述用户相对于所述陪护机器人的姿态,进而由所述处理器控制所述用户对应的分屏显示区域调整显示方向,以使所述分屏显示区域的显示方向与所述用户相对于所述陪护机器人的姿态相一致,从而提升用户体验。其中,所述用户相对于所述陪护机器人的姿态可以为站姿或者卧姿,例如,当所述用户躺在床上,而所述陪护机器人站立在床边与所述用户进行交互时,所述用户相对于所述陪护机器人的姿态为卧姿,此时,可控制所述用户对应的分屏显示区域将显示方向调整为与所述用户的视线方向相同,从而提升所述用户在躺着观看所述分屏显示区域上的内容时的舒适度。
请参阅图4,在本发明一个实施例中,还提供一种多用户交互装置40,包括:
检测单元41,用于检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
分屏单元43,用于根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
交互单元45,用于通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
其中,所述分屏单元43包括:
数量确定子单元431,用于根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
位置确定子单元433,用于根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
分屏处理子单元435,用于在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
其中,所述数量确定子单元431,还用于根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
所述分屏处理子单元435,还用于在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
其中,所述检测单元41,还用于检测所述用户相对于所述陪护机器人的姿态;
所述分屏单元43,还用于根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
其中,所述交互单元45包括:
输入子单元451,用于通过每一个所述分屏显示区域分别接收不同用户的输入信息;
处理子单元453,用于对每一个用户的输入信息单独进行处理;并
输出子单元455,用于通过多个所述分屏显示区域分别为不同用户显示输出信息。
可以理解,本实施例中所述的多用户交互装置40的各组成单元的功能及其具体实现还可以参照图1-图3所示方法实施例中的相关描述,此处不再赘述。
请参阅图5,在本发明一个实施例中,还提供一种陪护机器人50,包括主体51、头部53及环绕所述主体51或所述头部53设置的显示屏55及多个传感器57。所述显示屏55用于与用户交互,在本实施例中,所述显示屏55为柔性触控显示屏,其可以接收用户的输入信息,并显示对应的输出信息。所述多个传感器57用于检测所述陪护机器人50的用户数量及用户相对于所述陪护机器人50的方位。可以理解,所述多个传感器57可以按照预设的方位等间距地环绕所述主体51或所述头部53设置且位于同一水平面上,从而可以检测位于所述陪护机器人50不同方位的用户数量,并统计所有方位的用户数量。在本实施例中,所述传感器57可以为图像传感器。
所述陪护机器人50还包括处理器58和存储器59,所述处理器58与所述存储器59、所述显示屏55及所述多个传感器57电性连接,所述处理器58用于根据所述多个传感器57检测到的用户数量及方位,将所述显示屏55划分多个分屏显示区域,对用户的输入信息进行处理以生成对应的输出信息,并控制所述多个分屏显示区域进行分别显示。所述存储器59用于存储系统数据及用户数据,例如,所述陪护机器人50的操作系统或运行程序,用户自定义参数等。在本实施例中,所述存储器59还用于存储用于实现所述多用户交互装置40的可执行程序代码,所述处理器58用于调用存储于所述存储器59中的可执行程序代码,并执行如下操作:
通过所述多个传感器57检测陪护机器人50的用户数量及用户相对于所述陪护机器人50的方位;
根据所述用户数量及方位,将所述陪护机器人的显示屏55划分多个分屏显示区域;
通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
请参阅图6,在一种使用场景中,所述陪护机器人50的四周可包括多个用户,例如用户A和用户B。其中,所述用户A位于所述陪护机器人50的第一方位,所述用户B位于所述陪护机器人50的第二方位,所述第一方位与所述第二方位相背。通过所述传感器57分别检测出所述用户A和所述用户B的方位之后,所述陪护机器人50将所述显示屏55划分为与所述第一方位和所述第二方位对应的两个第一分屏显示区域551,其中一个所述第一分屏显示区域551用于与所述用户A进行交互,另一个所述第一分屏显示区域551用于与所述用户B进行交互,且两个所述第一分屏显示区域551之间相互独立显示,即两个所述第一分屏显示区域551显示的内容可以不相同。
可以理解,所述陪护机器人50并不限于如图6所示的将所述显示屏55划分为两个所述第一分屏显示区域551,还可以根据所述方位的数量将所述显示屏55划分为多个相互独立的第一分屏显示区域551,所述多个第一分屏显示区域551沿水平方向环绕所述陪护机器人50的主体51或所述头部53间隔设置。在本实施例中,所述多个第一分屏显示区域551沿水平方向环绕所述陪护机器人50的头部53间隔设置,如图7所示。
其中,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
请参阅图8,在一种使用场景中,当所述陪护机器人50的一个方位包括多个用户时,还可以将该方位对应的第一分屏显示区域551在第二方向上划分为与该方位的用户数量相对应的多个第二分屏显示区域553。在本实施例中,所述第二方向为垂直方向,所述陪护机器人50的一个方位包括两个用户,该方位赌赢的第一分屏显示区域551在垂直方向上被划分为两个第二分屏显示区域553,从而可以通过所述两个第二分屏显示区域553分别与位于该方位的两个用户进行交互。其中,所述两个第二分屏显示区域553的大小相同。
其中,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述操作还包括:
通过所述传感器57检测所述用户相对于所述陪护机器人50的姿态;
根据所述用户相对于所述陪护机器人50的姿态,控制所述分屏显示区域调整显示方向。
请参阅图9,在一种使用场景中,所述传感器57还用于进行人脸识别,以根据人脸识别的结果,检测所述用户相对于所述陪护机器人50的姿态,进而由所述处理器58控制所述用户对应的分屏显示区域551调整显示方向,以使所述分屏显示区域551的显示方向与所述用户相对于所述陪护机器人50的姿态相一致,从而提升用户体验。其中,所述用户相对于所述陪护机器人50的姿态可以为站姿或者卧姿。当所述传感器57检测到当前分屏显示区域551对应方位的用户相对于所述陪护机器人50的姿态为站姿时,所述分屏显示区域551的显示方向如图9(a)所示,即所述分屏显示区域551显示的图像的方向与所述用户站立时的视线方向相一致。当所述传感器57检测到当前分屏显示区域551应方位的用户相对于所述陪护机器人50的姿态为卧姿时,则通过所述处理器58控制该分屏显示区域551将显示方向调整至与所述用户卧倒时的视线方向相同,如图9(b)所示。
其中,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:
通过每一个所述分屏显示区域分别接收不同用户的输入信息;
对每一个用户的输入信息单独进行处理;并
通过多个所述分屏显示区域分别为不同用户显示输出信息。
可以理解,本实施例中所述的陪护机器人50的各组成部分的功能及其具体实现还可以参照图1-图3所示方法实施例中的相关描述,此处不再赘述。
所述多用户交互方法、装置及陪护机器人,通过检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位,并将所述陪护机器人的显示屏划分多个分屏显示区域,进而通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,从而可以实现陪护机器人与多个用户之间的同步交互,降低陪护机器人的功耗和生产成本,并提升陪护机器人的整体性能。
以上所揭露的仅为本发明的较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。

Claims (15)

1.一种多用户交互方法,其特征在于,所述方法包括:
检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
2.如权利要求1所述的方法,其特征在于,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
3.如权利要求2所述的方法,其特征在于,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
4.如权利要求1-3任意一项所述的方法,其特征在于,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述方法还包括:
检测所述用户相对于所述陪护机器人的姿态;
根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
5.如权利要求1-3任意一项所述的方法,其特征在于,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:
通过每一个所述分屏显示区域分别接收不同用户的输入信息;
对每一个用户的输入信息单独进行处理;并
通过多个所述分屏显示区域分别为不同用户显示输出信息。
6.一种多用户交互装置,其特征在于,所述装置包括:
检测单元,用于检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
分屏单元,用于根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
交互单元,用于通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
7.如权利要求6所述的装置,其特征在于,所述分屏单元包括:
数量确定子单元,用于根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
位置确定子单元,用于根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
分屏处理子单元,用于在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
8.如权利要求7所述的装置,其特征在于,所述数量确定子单元,还用于根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
所述分屏处理子单元,还用于在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
9.如权利要求6-8任意一项所述的装置,其特征在于,所述检测单元,还用于检测所述用户相对于所述陪护机器人的姿态;
所述分屏单元,还用于根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
10.如权利要求6-8任意一项所述的装置,其特征在于,所述交互单元包括:
输入子单元,用于通过每一个所述分屏显示区域分别接收不同用户的输入信息;
处理子单元,用于对每一个用户的输入信息单独进行处理;并
输出子单元,用于通过多个所述分屏显示区域分别为不同用户显示输出信息。
11.一种陪护机器人,包括主体和头部,其特征在于,所述陪护机器人还包括处理器、存储器、显示屏及多个传感器;所述显示屏和所述多个传感器环绕所述主体或所述头部设置;所述处理器与所述存储器、所述显示屏及所述多个传感器电性连接,所述处理器用于调用存储于所述存储器中的可执行程序代码,并执行如下操作:
通过所述多个传感器检测陪护机器人的用户数量及用户相对于所述陪护机器人的方位;
根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域;
通过所述多个分屏显示区域同时与位于不同方位的用户进行交互。
12.如权利要求11所述的陪护机器人,其特征在于,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,包括:
根据所述方位的数量,计算在第一方向上需要划分的第一分屏显示区域的数量;
根据预设可视角度,计算每一个所述方位对应的第一分屏显示区域的位置和大小;
在第一方向上将所述显示屏划分为与所述方位的数量相对应的多个第一分屏显示区域。
13.如权利要求12所述的陪护机器人,其特征在于,所述根据所述用户数量及方位,将所述陪护机器人的显示屏划分多个分屏显示区域,还包括:
根据每一个所述方位的用户数量,计算在第二方向上需要划分的第二分屏显示区域的数量;
在第二方向上将所述方位对应的第一分屏显示区域划分为与所述方位的用户数量相对应的多个第二分屏显示区域。
14.如权利要求11-13任意一项所述的陪护机器人,其特征在于,所述将所述陪护机器人的显示屏划分多个分屏显示区域之后,通过所述多个分屏显示区域同时与位于不同方位的用户进行交互之前,所述操作还包括:
通过所述传感器检测所述用户相对于所述陪护机器人的姿态;
根据所述用户相对于所述陪护机器人的姿态,控制所述分屏显示区域调整显示方向。
15.如权利要求11-13任意一项所述的陪护机器人,其特征在于,所述通过所述多个分屏显示区域同时与位于不同方位的用户进行交互,包括:
通过每一个所述分屏显示区域分别接收不同用户的输入信息;
对每一个用户的输入信息单独进行处理;并
通过多个所述分屏显示区域分别为不同用户显示输出信息。
CN201680016196.0A 2016-06-16 2016-06-16 多用户交互方法、装置及陪护机器人 Active CN107636696B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2016/086073 WO2017214947A1 (zh) 2016-06-16 2016-06-16 多用户交互方法、装置及陪护机器人

Publications (2)

Publication Number Publication Date
CN107636696A true CN107636696A (zh) 2018-01-26
CN107636696B CN107636696B (zh) 2021-04-06

Family

ID=60662941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680016196.0A Active CN107636696B (zh) 2016-06-16 2016-06-16 多用户交互方法、装置及陪护机器人

Country Status (5)

Country Link
US (1) US11023034B2 (zh)
EP (1) EP3473388A4 (zh)
JP (1) JP2019514136A (zh)
CN (1) CN107636696B (zh)
WO (1) WO2017214947A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110377377A (zh) * 2019-06-06 2019-10-25 北京梧桐车联科技有限责任公司 显示方法及装置、电子设备及存储介质
WO2019214216A1 (zh) * 2018-05-08 2019-11-14 歌尔股份有限公司 智能多媒体设备及其显示方法
WO2020056658A1 (zh) * 2018-09-20 2020-03-26 深圳市柔宇科技有限公司 显示控制方法及显示装置
CN110978005A (zh) * 2019-12-12 2020-04-10 贵州电力交易中心有限责任公司 一种电力交易大厅接待机器人联动大屏系统
WO2020124383A1 (zh) * 2018-12-18 2020-06-25 深圳市柔宇科技有限公司 显示控制方法、电子设备及计算机可读存储介质
CN111387710A (zh) * 2020-04-02 2020-07-10 深圳创维-Rgb电子有限公司 一种积木桌、智能积木桌设备及其控制方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197818A (ja) * 2019-05-31 2020-12-10 コニカミノルタ株式会社 画像形成装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050240310A1 (en) * 2002-07-25 2005-10-27 Yulun Wang Medical tele-robotic system
CN102760024A (zh) * 2011-04-26 2012-10-31 鸿富锦精密工业(深圳)有限公司 屏幕图像旋转方法及系统
CN104777997A (zh) * 2014-01-13 2015-07-15 Lg电子株式会社 显示设备及其操作方法
CN105190477A (zh) * 2013-03-21 2015-12-23 索尼公司 用于在增强现实环境中的用户交互的头戴式显示装置
CN205201537U (zh) * 2015-11-04 2016-05-04 上海拓趣信息技术有限公司 陪护机器人

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1435765A (zh) 2002-01-26 2003-08-13 网乐电子科技(深圳)有限公司 宽带网络视听机及其闪记忆内存启动方法
JP5058335B2 (ja) * 2008-04-10 2012-10-24 パイオニア株式会社 画面表示システム及び画面表示プログラム
JP2010157115A (ja) 2008-12-26 2010-07-15 Fujitsu Ltd 商品販売装置
JP5617448B2 (ja) * 2010-08-31 2014-11-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2012144667A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Method and electronic device for gesture recognition
US9003318B2 (en) * 2011-05-26 2015-04-07 Linden Research, Inc. Method and apparatus for providing graphical interfaces for declarative specifications
JP5957892B2 (ja) * 2012-01-13 2016-07-27 ソニー株式会社 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP6257329B2 (ja) * 2012-01-13 2018-01-10 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
WO2013183110A1 (ja) * 2012-06-04 2013-12-12 株式会社Pfu 情報処理装置、方法およびプログラム
WO2013183109A1 (ja) * 2012-06-04 2013-12-12 株式会社Pfu 情報処理装置、方法およびプログラム
JP5807115B2 (ja) * 2012-06-04 2015-11-10 株式会社Pfu 情報処理装置、方法およびプログラム
CN103365620A (zh) 2013-06-03 2013-10-23 陈飞生 一种可分屏显示的智能移动终端
JP6098435B2 (ja) * 2013-08-22 2017-03-22 ソニー株式会社 情報処理装置、記憶媒体、および制御方法
JP2016045784A (ja) 2014-08-25 2016-04-04 東芝テック株式会社 注文登録処理装置及び注文登録処理プログラム
CN104765905B (zh) 2015-02-13 2018-08-03 上海同筑信息科技有限公司 基于bim的平面图和第一视角分屏同步显示方法和系统
US10360876B1 (en) * 2016-03-02 2019-07-23 Amazon Technologies, Inc. Displaying instances of visual content on a curved display
KR102498364B1 (ko) * 2016-03-24 2023-02-10 삼성전자주식회사 전자 장치 및 전자 장치에서의 정보 제공 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050240310A1 (en) * 2002-07-25 2005-10-27 Yulun Wang Medical tele-robotic system
CN102760024A (zh) * 2011-04-26 2012-10-31 鸿富锦精密工业(深圳)有限公司 屏幕图像旋转方法及系统
CN105190477A (zh) * 2013-03-21 2015-12-23 索尼公司 用于在增强现实环境中的用户交互的头戴式显示装置
CN104777997A (zh) * 2014-01-13 2015-07-15 Lg电子株式会社 显示设备及其操作方法
CN205201537U (zh) * 2015-11-04 2016-05-04 上海拓趣信息技术有限公司 陪护机器人

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019214216A1 (zh) * 2018-05-08 2019-11-14 歌尔股份有限公司 智能多媒体设备及其显示方法
WO2020056658A1 (zh) * 2018-09-20 2020-03-26 深圳市柔宇科技有限公司 显示控制方法及显示装置
CN112639676A (zh) * 2018-09-20 2021-04-09 深圳市柔宇科技股份有限公司 显示控制方法及显示装置
WO2020124383A1 (zh) * 2018-12-18 2020-06-25 深圳市柔宇科技有限公司 显示控制方法、电子设备及计算机可读存储介质
CN113168823A (zh) * 2018-12-18 2021-07-23 深圳市柔宇科技股份有限公司 显示控制方法、电子设备及计算机可读存储介质
CN110377377A (zh) * 2019-06-06 2019-10-25 北京梧桐车联科技有限责任公司 显示方法及装置、电子设备及存储介质
CN110978005A (zh) * 2019-12-12 2020-04-10 贵州电力交易中心有限责任公司 一种电力交易大厅接待机器人联动大屏系统
CN111387710A (zh) * 2020-04-02 2020-07-10 深圳创维-Rgb电子有限公司 一种积木桌、智能积木桌设备及其控制方法

Also Published As

Publication number Publication date
JP2019514136A (ja) 2019-05-30
US20200327634A1 (en) 2020-10-15
EP3473388A4 (en) 2020-01-29
WO2017214947A1 (zh) 2017-12-21
EP3473388A1 (en) 2019-04-24
US11023034B2 (en) 2021-06-01
CN107636696B (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
CN107636696A (zh) 多用户交互方法、装置及陪护机器人
US11092999B2 (en) Wearable electronic device and display method of wearable electronic device
KR102310130B1 (ko) 착용 가능한 전자 장치
CN205809842U (zh) 压力检测装置、触控设备及电子终端
CN104699380B (zh) 一种信息处理方法及电子设备
CN107831937A (zh) 一种触摸传感器及显示装置
CN103915041A (zh) 柔性显示屏曲面自动调节装置和方法
CN103809866B (zh) 一种操作模式切换方法和电子设备
CN106201207B (zh) 一种虚拟现实交互方法及装置
CN107395958A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN108550325B (zh) 局部透明显示屏和智能设备
CN106877528A (zh) 无线电力接收器和用于控制该无线电力接收器的方法
CN107368251A (zh) 一种控制方法及电子设备
CN104536682A (zh) 单手操作移动终端的信息采集方法、操作方法及移动终端
CN101535921A (zh) 用于在设备上自适应地定向显示图像的系统
CN204667202U (zh) 一种可自动调整角度的智能电视
KR20200139296A (ko) 단말 및 단말 제어 방법
CN106325635A (zh) 控制触摸板的方法
CN105573626A (zh) 终端显示界面的显示方法及装置
CN104298351B (zh) 一种信息处理方法及穿戴式电子设备
US10936093B2 (en) Position detection sensor and position detection module
CN106462328A (zh) 信息处理装置、信息处理方法和程序
CN113272888B (zh) 用于根据外部光改变显示特性的电子装置及其方法
CN109976588A (zh) 一种应用于智能交互平板的数据纠正方法和装置
CN103474050A (zh) 图像显示设备及图像显示方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Shenzhen City, Guangdong province 518058 Keyuan Road, Nanshan District science and Technology Park No. 15 Science Park Sinovac A4-1501

Applicant after: Shenzhen Ruoyu Technology Co.,Ltd.

Address before: Shenzhen City, Guangdong province 518058 Keyuan Road, Nanshan District science and Technology Park No. 15 Science Park Sinovac A4-1501

Applicant before: SHENZHEN ROYOLE TECHNOLOGIES Co.,Ltd.

GR01 Patent grant
GR01 Patent grant