CN115335795A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN115335795A
CN115335795A CN202180021722.3A CN202180021722A CN115335795A CN 115335795 A CN115335795 A CN 115335795A CN 202180021722 A CN202180021722 A CN 202180021722A CN 115335795 A CN115335795 A CN 115335795A
Authority
CN
China
Prior art keywords
virtual object
interaction
display
user
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180021722.3A
Other languages
English (en)
Inventor
野村英祐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN115335795A publication Critical patent/CN115335795A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

根据该技术的信息处理装置包括控制单元。控制单元使头戴式显示器的第一显示单元以增强现实(AR)方式显示虚拟对象,检测关于虚拟对象的用户交互,所述交互通过交互装置执行,以及根据交互使交互装置的第二显示单元显示与虚拟对象有关的图像。

Description

信息处理装置、信息处理方法和程序
技术领域
本技术涉及用于向用户呈现以增强现实(AR)方式显示的虚拟对象的技术。
背景技术
近年来,用于在真实世界的真实空间中叠加和显示虚拟对象的增强现实(AR)技术已经变得广为人知。
例如,以下专利文献1描述了配备有AR技术的头戴式显示器。当在用户佩戴头戴式显示器的情况下以AR方式显示虚拟对象时,可以使用户在虚拟对象如同是存在于真实空间中的真实对象的那样来感知虚拟对象。
[引用列表]
[专利文献]
专利文献1:日本专利申请特许公开第2017-120550号
发明内容
[技术问题]
在这样的领域中,需要一种向用户呈现可以在头戴式显示器上显示的虚拟对象的新方法。
鉴于上述情况,提供了一种向用户呈现可以在头戴式显示器上显示的虚拟对象的新方法。
[问题的解决方案]
根据本技术的信息处理装置包括:控制单元。控制单元使头戴式显示器的第一显示单元以增强现实(AR)方式显示虚拟对象,检测关于虚拟对象的用户交互,该交互通过交互装置执行,以及根据交互使交互装置的第二显示单元显示与虚拟对象有关的图像。
结果,可以提供一种向用户呈现可以在头戴式显示器上显示的虚拟对象的新方法。
在信息处理装置中,交互装置可以包括成像单元,以及控制单元可以将虚拟对象AR显示在第二显示单元上,并且检测由成像单元对AR显示的虚拟对象进行成像的操作作为交互。
在信息处理装置中,控制单元可以检测移动交互装置靠近虚拟对象的操作作为交互。
在信息处理装置中,移动操作可以是将交互装置保持在虚拟对象上方的操作。
在信息处理装置中,控制单元可以根据佩戴头戴式显示器的用户与AR显示的虚拟对象之间的距离来改变交互。
在信息处理装置中,在用户与虚拟对象之间的距离超过预定阈值的情况下,控制单元可以检测成像操作作为交互。
在信息处理装置中,在用户与虚拟对象之间的距离为预定阈值或更小的情况下,控制单元可以检测移动操作作为交互。
在信息处理装置中,在用户与虚拟对象之间的距离为预定阈值或更小的情况下,控制单元可以检测移动操作和成像操作二者作为交互。
在信息处理装置中,控制单元可以在第一显示单元中与虚拟对象对应的位置处AR显示用于提醒用户交互的提醒用户界面。
在信息处理装置中,在多个提醒用户界面被AR显示在第一显示单元上并且提醒用户界面的显示区域与其他提醒用户界面的显示区域交叠的情况下,控制单元可以调整提醒用户界面的AR显示位置。
在信息处理装置中,在第一显示单元上AR显示的虚拟对象的显示区域与第二显示单元交叠的情况下,控制单元可以在与第二显示单元交叠的区域中隐藏虚拟对象。
在信息处理装置中,在第一显示单元上AR显示的虚拟对象的显示区域与第二显示单元交叠的情况下,控制单元可以隐藏整个对应的虚拟对象。
在信息处理装置中,在多个虚拟对象已经被AR显示在第二显示单元上的情况下,控制单元可以使第二显示单元AR显示用于使用户选择要成像的虚拟对象的选择用户界面。
在信息处理装置中,交互装置可以是可以被用户握持的移动装置或者可以被用户的手或手臂佩戴的可穿戴装置。
一种根据本技术的信息处理方法包括:使头戴式显示器的第一显示单元AR显示虚拟对象;检测关于虚拟对象的用户交互,该交互通过交互装置执行;以及根据交互使交互装置的第二显示单元显示与虚拟对象有关的图像。
一种根据本技术的程序使计算机执行以下处理:使头戴式显示器的第一显示单元AR显示虚拟对象;检测关于虚拟对象的用户交互,该交互通过交互装置执行;以及根据交互使交互装置的第二显示单元显示与虚拟对象有关的图像。
附图说明
[图1]图1是示出根据本技术的第一实施方式的信息处理系统的图。
[图2]图2是示出信息处理系统的内部配置的框图。
[图3]图3是示出诸如由HMD进行的AR显示的处理的图。
[图4]图4是示出当已经执行了关于虚拟对象的交互时的处理的流程图。
[图5]图5是示出确定虚拟对象是否已经由智能电话进行成像的处理的流程图。
[图6]图6是示出确定用户是否已经选择了成像模式的处理的流程图。
[图7]图7是示出当虚拟对象根据需要在HMD中隐藏时的处理的流程图。
[图8]图8是示出当已经针对虚拟对象AR显示了保持UI时的示例的图。
[图9]图9是示出当已经针对虚拟对象AR显示了成像UI时的示例的图。
[图10]图10是示出选择UI的示例的图。
[图11]图11是示出在由HMD AR显示的虚拟对象和由智能电话AR显示的虚拟对象看起来不自然的情况下的示例的图。
[图12]图12是示出在HMD的显示单元中虚拟对象与智能电话的显示单元之间的交叠区域已经被隐藏的情况下的示例的图。
[图13]图13是示出在成像模式下已经隐藏了与智能电话的显示单元交叠的整个虚拟对象的情况下的示例的图。
具体实施方式
在下文中,将参照附图描述根据本技术的实施方式。
<<第一实施方式>>
<整体构造和各个单元的构造>
图1是示出根据本技术的第一实施方式的信息处理系统100的图。图2是示出信息处理系统100的内部构造的框图。
如图1和图2中所示,根据第一实施方式的信息处理系统100包括HMD(头戴式显示器)10和智能电话(交互装置)20。
如图1和图2中所示,HMD 10包括HMD主体11、控制单元1、存储单元2、显示单元3、成像单元4、惯性传感器5、操作单元6和通信单元7。
HMD主体11附接至用户的头部并且被使用。HMD主体11包括前部12、设置在前部12的右侧上的右镜腿部分13、设置在前部12的左侧上的左镜腿部分14以及附接至前部12的下侧的玻璃部分15。
显示单元3是透视型显示单元并且被设置在玻璃部分15的表面上。显示单元3根据控制单元1的控制执行虚拟对象30的AR显示。注意,显示单元3可以是非透视型显示单元。在这种情况下,通过在显示单元3上显示以下图像来执行AR显示,该图像通过将虚拟对象30叠加在由成像单元4当前拍摄的图像上而获得。
成像单元4是例如相机,并且包括诸如CCD(电荷耦合器件)传感器和CMOS(互补金属氧化物半导体)传感器的图像传感器和诸如图像形成透镜的光学系统。成像单元4向外设置在前部12的外表面上,对存在于用户的视线方向上的对象进行成像,以及将通过成像获得的图像信息输出至控制单元1。两个成像单元4沿横向方向以预定间隔设置在前部12中。注意,成像单元4被设置的位置和成像单元4的数目可以适当地改变。
惯性传感器5包括检测沿三轴方向的加速度的加速度传感器和检测绕三轴的角速度的角速度传感器。惯性传感器5向控制单元1输出通过检测获得的沿三轴方向的加速度和绕三轴的角速度作为惯性信息。
在该实施方式中,惯性传感器5的检测轴是三轴,但是检测轴可以是一轴或两轴。此外,在该实施方式中,尽管两种类型的传感器被用做惯性传感器5,但是一种类型或者三种或更多种类型的传感器可以用作惯性传感器5。注意,惯性传感器5的其他示例包括速度传感器和角度传感器。这同样也适用于智能电话20的惯性传感器25。
操作单元6是例如各种类型(例如按压型和接近型)的操作单元,检测用户的操作以及将检测到的操作输出至控制单元1。尽管在图1中所示的示例中操作单元6被设置在左镜腿部分14的前侧上,但是设置操作单元6的位置可以是任何位置,只要其易于用户操作即可。
通信单元7与智能电话20或除智能电话20之外的外部装置(例如,PC(个人计算机)或网络上的服务器设备)进行有线或无线通信。
控制单元1基于存储在存储单元2中的各种程序执行各种操作,并且整体地控制HMD 10的相应单元。注意,控制单元1的处理将在下面的操作的描述栏中详细描述。
控制单元1由硬件或者硬件和软件的组合来实现。硬件被配置为控制单元1的部分或全部。该硬件的示例包括CPU(中央处理单元)、GPU(图形处理单元)、DSP(数字信号处理器)、FPGA(现场可编程门阵列)、ASIC(专用集成电路)以及上述中的两个或更多个的组合。这同样也适用于智能电话20中的控制单元21。
存储单元2包括用于存储控制单元1的处理所需的各种程序和各种类型的数据的非易失性存储器,以及用作控制单元1的工作区域的易失性存储器。注意,各种程序可以从诸如光盘和半导体存储器的便携式记录介质读取,或者可以从网络上的服务器设备下载。
智能电话20包括外壳31、控制单元21、存储单元22、显示单元23、成像单元24、惯性传感器25、操作单元26、通信单元27、扬声器28和麦克风29。
外壳31具有用户可以用一只手握持它的尺寸。显示单元23被设置在外壳31的前表面上,并且听筒32被设置在外壳31的前表面上显示单元23上方的位置处。此外,按钮型操作单元33被设置在外壳10的前表面上显示单元13下方的位置处。注意,尽管未示出,但是电话端口、连接器等也可以被设置在外壳10上。
显示单元23包括例如液晶显示器或EL(电致发光)显示器。显示单元23根据控制单元21的控制在屏幕上显示各种图像。
成像单元24是例如相机,并且包括诸如CCD传感器和CMOS传感器的图像传感器和诸如图像形成透镜的光学系统。成像单元24朝向外壳31的背表面侧设置,对存在于外壳的背表面侧上的对象进行成像以及将通过成像获得的图像信息输出至控制单元21。
惯性传感器25包括检测沿三轴方向的加速度的加速度传感器和检测绕三轴的角速度的角速度传感器。惯性传感器25向控制单元21输出通过检测获得的沿三轴方向的加速度和绕三轴的角速度作为惯性信息。
操作单元26包括例如按钮型操作单元33、设置在显示单元23中的接近传感器等。操作单元26检测用户的操作并且将检测到的操作输出至控制单元21。
通信单元27执行与另一电话的呼叫通信。此外,通信单元7与HMD 10和除HMD 10之外的外部装置(PC或网络上的服务器设备)进行有线或无线通信。
扬声器28包括数字/模拟转换器、放大器等。扬声器28对从控制单元21输入的用于呼叫的语音数据执行数字/模拟转换处理和放大处理,并且通过听筒32输出语音。
麦克风29包括模拟/数字转换器等。麦克风29将经由电话端口从用户输入的模拟语音数据转换成数字语音数据,并且将获得的数字语音数据输出至控制单元21。输出至控制单元21的数字语音数据被编码并且然后经由通信单元27传送。
控制单元21基于存储在存储单元22中的各种程序来执行各种操作,并且整体地控制智能电话20的相应单元。注意,控制单元21的处理将在下面的操作的描述栏中详细描述。
存储单元22包括用于存储控制单元21的处理所需的各种程序和各种类型的数据的非易失性存储器,以及用作控制单元21的工作区域的易失性存储器。注意,各种程序可以从诸如光盘和半导体存储器的便携式记录介质读取,或者可以从网络上的服务器设备下载。
<该实施方式中的方法>
接下来,将简要描述向用户呈现该实施方式中使用的虚拟对象30的方法(对于虚拟对象30,参见图8和图9)。
在HMD 10中,在执行虚拟对象30的AR显示的情况下,正常情况下,通常预先确定虚拟对象30在真实世界中所处的位置。因此,在佩戴HMD 10的用户对某个虚拟对象30感兴趣并且想要详细了解该虚拟对象30的情况下,他/她需要待在原地并且保持看着注视虚拟对象30的方向。
此外,目前市场上已经有HMD,但是AR显示的分辨率通常较低,并且通常不适于更真切地注视用户感兴趣的虚拟对象30。
为此,在该实施方式中,提供了一种向用户呈现可以在HMD 10上AR显示的虚拟对象30的新方法。典型地,在该实施方式中,使用如下方法:在已经关于可以在HMD 10上AR显示的虚拟对象30与智能电话20执行了交互的情况下,在智能电话20上显示虚拟对象30(与该虚拟对象30有关的图像)。
在该方法中,通过当佩戴HMD 10的用户对虚拟对象30感兴趣时执行关于虚拟对象30与智能电话20的交互,在智能电话20上显示虚拟对象30(与该虚拟对象30有关的图像)。因此,用户不需要待在原地并且保持用HMD 10注视虚拟对象30。此外,目前,智能电话20通常具有比HMD 10更高的分辨率,并且因此适于更真切地注视用户感兴趣的虚拟对象30。
<操作的描述>
接下来,将描述HMD 10的控制单元1和智能电话20的控制单元21的处理。在此处的描述中,首先,将描述由HMD 10和智能电话20进行的自身位置估计以及自身位置估计中的公共坐标系。
“自身位置估计和公共坐标系”
在激活之后,HMD 10的控制单元1基于来自成像单元4的图像信息和来自惯性传感器5的惯性信息通过SLAM(即时定位与地图构建)估计自身位置和姿势。类似地,在激活之后,智能电话20的控制单元21基于来自成像单元24的图像信息和来自惯性传感器25的惯性信息,通过SLAM(即时定位与地图构建)估计自身位置和姿势。
在此处的描述中,已经描述了图像信息和惯性信息二者用于自身位置和姿势的估计的情况,图像信息和惯性信息之一可以用于自身位置和姿势的估计。
此外,在激活之后,HMD 10的控制单元1估计用户的头部的位置和姿势(头部跟踪)。
在这种情况下,HMD 10的控制单元1通过将HMD 10的位置与用户的头部的中心位置之间的偏移量添加至HMD 10的位置和姿势来估计用户的头部的位置和姿势。例如,将通过预先执行的针对多个用户的测试获得的平均值用作HMD 10的位置与用户的头部的中心位置之间的偏移量,并且该平均值作为偏移量存储在存储单元中。
注意,假设用户的头部的位置和姿势与HMD 10的位置和姿势基本上相同,则HMD10的位置和姿势可以按原样用作用户的头部的位置和姿势。
在该实施方式中,为了利用公共坐标系表示HMD 10、智能电话20和用户的头部中的每一个的位置和姿势以及表示相对位置和姿势,单独使用以下1.至3.方法或者组合使用以下1.至3.方法中的两种或更多种。
1.使用SLAM的定位功能。HMD 10和智能电话20各自保持描述真实空间中的三维信息的地图数据,并且地图数据由公共坐标系表示(各项地图数据是相同的或各项地图数据的一部分是公共的)。HMD 10和智能电话20各自使用地图数据估计自身位置和姿势。在这种情况下,在地图数据中记录的真实空间中的任意地点中定义的坐标系是公共坐标系。
2.通过由HMD 10和智能电话20中的一个装置的成像单元4或24对另一装置进行成像,该一个装置估计该另一装置相对于该一个装置本身的相对位置和姿势。在这种情况下,估计相对位置和姿势的该一个装置的坐标系是公共坐标系。注意,为了使其更容易地识别该另一装置相对于该一个装置的位置和姿势,可以将图像可识别的特征点(例如,自身发光的红外LED图案(LED:发光二极管)或对象可识别的纹理)提供给该另一装置。
3.HMD 10和智能电话20各自通过成像单元4或24对布置在真实空间中的特征点(例如,标记或地标)进行成像以估计相对于特征点的位置和姿势。在这种情况下,以特征点定义的坐标系是公共坐标系。注意,在多个特征点之间的相对位置和姿势已知的情况下,可以在真实空间中布置多个特征点。
“交互”
接下来,将描述涉及与智能电话20关于虚拟对象30的交互的处理。
[由HMD 10等进行的AR显示]
在此处的描述中,首先,将描述诸如由HMD 10进行的AR显示的处理。图3是示出诸如由HMD 10进行的AR显示的处理的图。注意,图3中所示的处理由“HMD 10”的控制单元1执行。
首先,HMD 10的控制单元1基于通过由HMD 10的成像单元4进行成像获得的图像信息来识别HMD 10的周围环境,并且基于环境识别结果在HMD 10的显示单元3上AR显示虚拟对象30(步骤101)。
注意,短语在HMD 10上“AR显示虚拟对象30”意指在HMD 10的显示单元3上显示虚拟对象30,从而使用户在虚拟对象如同是存在于真实空间中的真实对象的那样感知虚拟对象30(同样适用于下面描述的提醒UI 31的AR显示)。
对于HMD 10中的AR显示方法,可以使用基于位置的AR或者可以使用基于视觉的AR。替选地,可以使用基于位置的AR和基于视觉的AR的组合。
在基于位置的AR中,HMD 10的控制单元1基于GPS(全球定位系统)、惯性传感器等的信息来AR显示虚拟对象30。在基于视觉的AR中,HMD 10的控制单元1基于通过由HMD 10的成像单元4进行成像获得的图像信息来识别HMD 10前面的真实空间以AR显示虚拟对象30。作为基于视觉的AR,可以使用标记型基于视觉的AR,或者可以使用无标记型基于视觉的AR。
在使用标记型基于视觉的AR的情况下,在真实空间中布置AR标记并且该AR标记被HMD 10识别以在对应于AR标记的位置处AR显示虚拟对象30。另一方面,在使用无标记型基于视觉的AR的情况下,识别存在于真实空间中的对象,并且关于所识别的对象来AR显示虚拟对象30。
当在HMD 10的显示单元3上AR显示虚拟对象30时,HMD 10的控制单元1从AR显示的虚拟对象30中选择一个虚拟对象30(步骤102)。然后,HMD 10的控制单元1计算用户(头部)与所选择的虚拟对象30之间的距离D1(步骤103)。
接下来,HMD 10的控制单元1确定用户(头部)与虚拟对象30之间的距离D1是否等于或小于第一阈值Th1(步骤104)。在距离D1等于或小于第一阈值Th1(步骤104中为是),即用户与虚拟对象30之间的距离较短的情况下,HMD 10的控制单元1将虚拟对象30分类为保持目标对象(holding-over target object)30a(步骤105)。保持目标对象30a是作为保持智能电话20的交互的目标的虚拟对象30。
接下来,HMD 10的控制单元1在HMD 10的显示单元3上与保持目标对象30a对应的位置处显示作为提醒UI 31(UI:用户界面)的保持UI 31a(步骤106)。
在此,提醒UI 31是在HMD 10的显示单元3上与虚拟对象30对应的位置处AR显示的UI,并且是用于提醒用户与智能电话20的关于虚拟对象30的交互的UI。
保持UI 31a是一种提醒UI 31并且是提醒用户将智能电话20保持在虚拟对象30(保持目标对象30a)上方的UI。
图8是示出已经针对虚拟对象30(保持目标对象30a)AR显示了保持UI 31a时的示例的图。图8中所示的保持UI 31a包括围绕立方虚拟对象30(保持目标对象30a)的球体、位于球体上方的向下箭头以及位于箭头上方的文本“触摸”。注意,保持UI 31a可以是任何形式,只要可以提醒用户将智能电话20(交互装置)保持在虚拟对象30上方即可。
返回至图3,在步骤104中,在用户(头部)与虚拟对象30之间的距离D1超过第一阈值Th1的情况下(步骤104中为否),即在用户(头部)与虚拟对象30之间的距离较长的情况下,HMD 10的控制单元1进行到步骤107。在步骤107中,HMD 10的控制单元1确定用户(头部)与虚拟对象30之间的距离D1是否等于或小于第二阈值Th2。
在距离D1等于或小于第二阈值Th2的情况下(步骤107中为是),HMD 10的控制单元1将虚拟对象30分类为成像目标对象30b(步骤108)。成像目标对象30b是作为由智能电话20进行成像的交互的目标的虚拟对象30。
接下来,HMD 10的控制单元1在与成像目标对象30b对应的位置处在HMD 10的显示单元3上AR显示成像UI 31b(步骤108)。成像UI 31b是一种提醒UI 31并且是提醒用户通过智能电话20对虚拟对象30(成像目标对象30b)进行成像的UI。
图9是示出已经针对虚拟对象30(成像目标对象30b)AR显示了成像UI 31b时的示例的图。图9中所示的成像UI 31b包括位于立方虚拟对象30(成像目标对象30b)上方的气泡和位于气泡内部的相机的标记。注意,成像UI 31b可以是任何形式,只要可以提醒用户利用智能电话20(交互装置)对虚拟对象30进行成像即可。
返回至图3,在AR显示关于虚拟对象30的保持UI 31a或成像UI 31b(步骤106或步骤109)之后,HMD 10的控制单元1进行到下一步骤110。在步骤110中,HMD 10的控制单元1将虚拟对象30的分类(保持目标对象30a或成像目标对象30b)和虚拟对象30的坐标位置通知智能电话20。
在将这些信息通知智能电话20之后,HMD 10的控制单元1进行到下一步骤111。类似地,在步骤107中用户(头部)与虚拟对象30之间的距离D1超过第二阈值Th2的情况下,HMD10的控制单元1处理进行到步骤111,而不执行就关于虚拟对象30的提醒UI 31的分类和处理。
也就是说,在该实施方式中,在HMD 10上AR显示的虚拟对象30中,距用户太远的虚拟对象30未被分类为保持目标对象30a或成像目标对象30b,并且提醒UI 31不显示。注意,可以将具有超过第一阈值Th1的距离D1的所有虚拟对象30分类为成像目标对象30b。
注意,在虚拟对象30被AR显示在HMD 10上的以下描述的中,将未被分类为保持目标对象30a或成像目标对象30b的虚拟对象30称为未分类的虚拟对象。在该实施方式中,该未分类的虚拟对象不是交互的目标。
在步骤111中,HMD 10的控制单元1确定用户(头部)与虚拟对象30之间的距离D1尚未确定的虚拟对象30是否剩余。在距离D1尚未确定的虚拟对象30剩余的情况下(步骤111中为是),HMD 10的控制单元1返回至步骤102,选择剩余虚拟对象30中的一个虚拟对象30以及执行步骤103和后续步骤的处理。
同时,在已经针对所有虚拟对象30完成距离D1的确定的情况下(步骤111中为是),HMD 10的控制单元1确定当从用户观看时AR显示的提醒UI 31(保持UI 31a和成像UI 31b)是否交叠(步骤112)。在提醒UI 31(保持UI 31a和成像UI 31b)彼此交叠的情况下(步骤112中为是),HMD 10的控制单元1调整提醒UI 31的位置使得提醒UI 31彼此不交叠(步骤113)。
在提醒UI 31的位置的调整中,HMD 10的控制单元1可以移动彼此交叠的提醒UI31中的例如存在于后面的提醒UI 31。此外,在虚拟对象30是诸如自然自主移动的字符的对象的情况下,HMD 10的控制单元1可以通过例如在移动对象的同时移动对应的提醒UI 31来防止提醒UI 31彼此交叠。
在此,上面提及的第一阈值Th1是用于将虚拟对象30分类为保持目标对象30a和成像目标对象30b的阈值。在考虑到握持智能电话20的用户的可到达距离的情况下适当地设置该第一阈值Th1。
此外,上面提及的第二阈值Th2是用于将虚拟对象30分类为成像目标对象30b和未分类的虚拟对象30(不是交互的目标的虚拟对象30)的阈值。作为该第二阈值Th2,使用在HMD 10的环境中可识别的距离,具体地,可以由HMD 10的成像单元4测量的最长距离。结果,可以在自身位置估计或环境识别中发生误识别以及错误地测量距虚拟对象30的距离D1的情况下防止不合适的虚拟对象30成为交互目标。
此外,由于实际测量的最长距离根据周围环境(例如到室内墙壁的距离和到室外建筑物区域中的建筑物的外墙的距离)而改变,所以第二阈值Th2可以根据由环境确定的最长距离而改变。
注意,第一阈值Th1和第二阈值Th2可以由用户通过用户的定制而可改变。
[与智能电话20的交互]
接下来,将描述用户已经执行与智能电话20关于虚拟对象30的交互时的处理。图4是示出已经执行了关于虚拟对象30的交互时的处理的流程图。注意,图4中所示的处理由“智能电话20”的控制单元21执行。
在该实施方式中,作为交互,使用如下操作的两种类型的交互:将智能电话20保持在虚拟对象30上方的操作(移动智能电话20靠近虚拟对象30)以及由智能电话20对虚拟对象30进行成像的操作。注意,作为关于虚拟对象30的交互,可以使用另一方法,例如将智能电话20指向虚拟对象30的方向的操作。
首先,智能电话20的控制单元21确定是否存在保持目标对象30a(步骤201)。注意,从HMD 10向智能电话20通知保持目标对象30a的存在(参见图3中的步骤110)。
在存在保持目标对象30a的情况下(步骤201中为是),智能电话20的控制单元21确定用户是否已经将智能电话20保持在保持目标对象30a上方(移动智能电话20靠近保持目标对象30a)(步骤202)。
关于智能电话20是否已经被保持的确定,首先,智能电话20的控制单元21基于智能电话20的自身位置和保持目标对象的位置来确定智能电话20与保持目标对象30a之间的距离D2。注意,保持目标对象30a的位置从HMD 10提供(参见图3中的步骤110)。
当确定智能电话20与保持目标对象30a之间的距离D2时,智能电话20的控制单元21确定该距离D2是否等于或小于第三阈值Th3持续预定时间T1或更长。当满足该条件时,智能电话20的控制单元21确定用户已经将智能电话20保持在保持目标对象30a上方。另一方面,在不满足该条件的情况下,智能电话20的控制单元21确定用户没有将智能电话20保持在保持目标对象30a上方。
如果预定时间T1缩短,则尽管保持确定所需的时间缩短但是错误确定增加。另一方面,如果预定时间T1延长,则尽管错误确定减少但是确定所需的时间变长。作为预定时间T1,在考虑到这些事项的情况下适当地设置适当的值。
此外,如果第三阈值Th3延长,则即使当保持目标对象30a至智能电话20的距离较长时执行保持确定,错误确定也增加。另一方面,如果第三阈值Th3缩短,则尽管错误确定减少,但是只要不移动智能电话20靠近保持目标对象30a,则不执行保持确定。作为第三阈值T3,在考虑到这些事项的情况下适当地设置适当的值。注意,第三阈值Th3可以与图8中所示的球体的半径一样大。
注意,预定时间T1和第三阈值Th3可以根据智能电话20的自身位置估计的精度而改变。例如,在使用具有高精度的自身位置估计的的智能电话20的情况下,预定时间T1和第三阈值Th3可以缩短。相反,在使用具有低精度的自身位置估计的智能电话20的情况下,预定时间T1和第三阈值Th3可以延长。
此外,预定时间T1和第三阈值Th3可以由用户通过用户的定制可改变。
在步骤201中,在不存在保持目标对象30a的情况下(步骤201中为否),智能电话20的控制单元21进行到步骤203。类似地,在尽管存在保持目标对象30a但是智能电话20没有保持在保持目标对象30a上方的情况下(步骤202中为否),智能电话20的控制单元21进行到步骤203。
在步骤203中,智能电话20的控制单元21确定是否存在成像目标对象30b。注意,从HMD 10向智能电话20通知成像目标对象30b的存在(参见图3中的步骤110)。
在存在成像目标对象30b的情况下(步骤203中为是),智能电话20的控制单元21确定用户是否已经通过智能电话20对成像目标对象30b进行了成像(步骤204)。下面将参照图5详细描述是否已经对成像目标对象30b进行成像的确定。
在不存在成像目标对象30b的情况下(步骤203中为否),智能电话20的控制单元21返回至步骤201。类似地,在尽管存在成像目标对象30b但是尚未通过智能电话20对成像目标对象30b进行成像的情况下(步骤204中为否),智能电话20的控制单元21返回至步骤201。
在步骤202中,在用户已经将智能电话20保持在保持目标对象30a上方的情况下(步骤202中为是),智能电话20的控制单元21进行到步骤205。类似地,在步骤204中,在用户已经通过智能电话20对成像目标对象30b进行了成像的情况下(步骤204中为是),智能电话20的控制单元21进行到步骤205。
在步骤205中,智能电话20的控制单元21确定虚拟对象30已经被用户指定。然后,智能电话20的控制单元21在智能电话20的显示单元23上显示与指定的虚拟对象30有关的图像(步骤206)。
注意,在智能电话20上的短语“显示虚拟对象30(与虚拟对象30有关的图像)”意指虚拟对象30(与虚拟对象30有关的图像)被简单地显示在智能电话20的显示单元23上,而与真实空间无关。
与虚拟对象30有关的图像包括虚拟对象30自身的图像、指示虚拟对象30的有关信息的图像或其组合。虚拟对象30的有关信息是例如在虚拟对象30是字符的情况下的字符的名称、尺寸、强度、属性等。虚拟对象30的有关信息可以是任何信息,只要其是与虚拟对象30有关的信息即可。
虚拟对象30可以通过由用户利用智能电话20操作与虚拟对象30有关的图像而可编辑。
在此,在该实施方式中,如下面将描述的,通过多个虚拟对象30的批量成像(参见图5:步骤310中为是)同时地指定多个虚拟对象30(成像目标对象30b)。在这种情况下,例如,与多个指定的虚拟对象30有关的图像被同时地显示在智能电话20的显示单元23上。替选地,与多个指定的虚拟对象30有关的图像随着时间针对虚拟对象30中的每一个按顺序显示。
注意,在该实施方式中,在用户与虚拟对象30之间的距离D1等于或小于第一阈值Th1的情况下检测保持操作作为交互,并且在距离D1超过第一阈值Th1的情况下检测成像操作作为交互。另一方面,用户与虚拟对象30之间的距离D1等于或小于第一阈值Th1,可以检测保持(移动靠近)操作和成像操作二者作为交互。
在这种情况下,用户可以通过保持交互或成像交互来指定存在于用户的可到达距离内的虚拟对象30。
在这种情况下,作为HMD 10上的提醒UI 31,可以同时AR显示保持UI 31a和成像UI31b二者,或者可以随时间交替地切换保持UI 31a和成像UI 31b。
[虚拟对象30是否已经被成像的确定]
接下来,将描述虚拟对象30(成像目标对象30b)是否已经由智能电话20成像的确定。也就是说,将描述图4中的步骤204。
图5是示出确定虚拟对象30(成像目标对象30b)是否已经由智能电话20成像的处理的流程图。注意,图5中所示的处理由“智能电话20”的控制单元21执行。
首先,智能电话20的控制单元21确定用户是否已经选择了成像模式(步骤301)。下面将参照图6详细描述是否已经选择了成像模式的确定。
在用户尚未选择成像模式的情况下(步骤301中为否),智能电话20的控制单元21确定成像目标对象30b尚未由用户进行成像(步骤302)。在这种情况下,图4中的步骤204中的确定为“否”。
另一方面,在用户已经选择了成像模式的情况下(步骤301中为是),智能电话20的控制单元21在智能电话20的显示单元23上显示由智能电话20的成像单元26拍摄的图像以开始成像模式(步骤303)。
接下来,智能电话20的控制单元21通知HMD 10开始成像模式(步骤304)。接下来,智能电话20的控制单元21基于智能电话20的自身位置和成像目标对象30b的位置来确定成像目标对象30b是否存在于智能电话20的成像单元26的成像视角内(步骤305)。注意,成像目标对象30b的位置是从HMD 10提供的(参见图3中的步骤110)。
在成像目标对象30b不存在于成像视角内的情况下(步骤305中为否),智能电话20的控制单元21进行到步骤313。另一方面,在成像目标对象30b存在于成像视角内的情况下(步骤305中为是),智能电话20的控制单元21进行到下一步骤306。
在步骤306中,智能电话20的控制单元21在智能电话20的显示单元23上AR显示成像目标对象30b(也参见图9)。由于智能电话20与HMD 10一起使用公共坐标系,因此智能电话20的控制单元21能够在距HMD 10没有任何偏离的情况下在智能电话20的显示单元23上AR显示成像目标对象30b。
在此,关于智能电话20的短语“AR显示虚拟对象30(成像目标对象30b)”意指在智能电话20的显示单元23上显示通过将虚拟对象30叠加在由智能电话20的成像单元26当前拍摄的图像上而获得的图像,从而使用户在虚拟对象30如同是存在于真实地点中的真实对象的那样来感知虚拟对象30(这同样适用于选择UI 32的AR显示)。
在该实施方式中,关于智能电话20,术语“AR显示”虚拟对象30和术语“显示”虚拟对象30(与虚拟对象30有关的图像)具有不同的含义。此外,使用了术语“显示”虚拟对象30(与虚拟对象30有关的图像),不包括“AR显示”虚拟对象30的含义。
注意,在该实施方式中,三种类型的虚拟对象30即保持目标对象30a、成像目标对象30b和未分类的虚拟对象中的仅成像目标对象30b被AR显示在智能电话20的显示单元23上。
同时,除了成像目标对象30b之外,可以在智能电话20的显示单元23上AR显示保持目标对象30a或未分类的虚拟对象30。然而,在智能电话20的显示单元23上AR显示仅成像目标对象30b的情况下,用户可以容易地了解成像目标,这在这一点上是有利的。
当成像目标对象30b被AR显示在智能电话20的显示单元23上时,然后智能电话20的控制单元21对智能电话20上AR显示的成像目标对象30b的数目进行计数(步骤307)。然后,智能电话20的控制单元21确定成像目标对象30b的数目是否为一个(步骤308)。
在智能电话20上AR显示的成像目标对象30b的数目为两个或更多个的情况下(步骤308中为否),智能电话20的控制单元21确定多个成像目标对象30b的批量成像的选项是否有效(步骤310)。例如,该批量成像的选项可以通过由用户操作智能电话20而在有效与无效之间切换。
在智能电话20上AR显示的成像目标对象30b的数目为一个的情况下(步骤308中为是),智能电话20的控制单元21进行到步骤309。类似地,在智能电话20上AR显示的成像目标对象30b的数目为两个或更多个但是批量成像的选项有效的情况下(步骤310中为是),智能电话20的控制单元21进行到步骤309。
在步骤309中,智能电话20的控制单元21确定用户是否已经执行了成像目标对象30b的成像操作。由用户进行的成像操作包括例如由用户操作在智能电话20的显示单元23上显示的快门按钮。此外,由用户进行的成像操作包括由用户操作(例如,轻敲操作)智能电话20的显示单元23上AR显示的成像目标对象30b。
在步骤310中,在多个成像目标对象30b的批量成像的选项无效的情况下(步骤310中为否),智能电话20的控制单元21进行到步骤311。在步骤311中,智能电话20的控制单元21在与成像目标对象30b对应的位置处在智能电话20的显示单元23上AR显示选择UI 32。选择UI 32是用于使用户从多个成像目标对象30b中选择要成像的成像目标对象30b的UI。
图10是示出选择UI 32的示例的图。在图10中所示的示例中,示出了在围绕成像目标对象30b的矩形虚线被AR显示为针对三个立方成像目标对象30b中的每一个的选择UI 32的情况下的示例。此外,在图10中所示的示例中,示出了在显示单元上显示建议通过轻敲从由四边形虚线包围的成像目标对象30b中选择一个成像目标对象的字符的情况下的示例。
注意,选择UI 32可以是任何形式,只要其能够建议使用户从多个成像目标对象30b中选择要成像的成像目标对象30b即可。
返回至图5,在步骤311中,当选择UI 32被AR显示在智能电话20的显示单元23上时,智能电话20的控制单元21进行到下一步骤312。在步骤312中,智能电话20的控制单元21确定用户是否已经执行了基于选择UI 32的成像目标对象30b的选择操作(步骤)。基于选择UI 32的成像目标对象30b的选择操作是例如在智能电话20的显示单元23上的轻敲或触摸目标的操作,但是可以采用各种操作作为该选择操作。
在步骤309中,在用户已经执行了成像目标对象30b的成像操作的情况下(步骤309中为是),智能电话20的控制单元21进行到步骤314。类似地,在步骤312中,在用户已经执行了基于选择UI 32的选择操作的情况下(步骤312中为是),智能电话20的控制单元21进行到步骤314。
在步骤314中,智能电话20的控制单元21确定成像目标对象30b是否已经由用户进行成像。在这种情况下,图4中的步骤204中的确定为“是”。
在步骤309中,在用户尚未执行成像目标对象30b的成像操作的情况下(步骤309中为否),智能电话20的控制单元21进行到步骤313。类似地,在步骤312中,在用户尚未执行基于选择UI 32的选择操作的情况下(步骤312中为否),智能电话20的控制单元21进行到步骤313。注意,同样在如上所述成像目标对象30b不存在于智能电话20的成像单元26的成像视角内的情况下(步骤305中为否),智能电话20的控制单元21进行到步骤313。
在步骤313中,智能电话20的控制单元21确定是否已经满足了成像模式的结束条件。成像模式的结束条件包括用户已经选择了结束成像模式的条件和用户没有操作智能电话20持续预定时间段的条件,并且当满足这两个条件之一时确定已经满足了结束条件。
在尚未满足成像模式的结束条件的情况下(步骤313中为否),智能电话20的控制单元21返回至步骤305,并且再次执行步骤305和后续步骤的处理。
另一方面,在已经满足了成像模式的结束条件的情况下(步骤313中为是),智能电话20的控制单元21确定成像目标对象30b尚未由用户进行成像(步骤315)。在这种情况下,图4中的步骤204中的确定为“否”。
在步骤314中,在确定已经对成像目标对象30b进行了成像的情况下,智能电话20的控制单元21进行到步骤316。类似地,在步骤315中,在确定成像目标对象30b尚未被成像的情况下,智能电话20的控制单元21进行到步骤316。
在步骤316中,智能电话20的控制单元21通过结束在智能电话20的显示单元23上显示由智能电话20的成像单元26拍摄的图像来结束成像模式。然后,智能电话20的控制单元21通知HMD 10结束成像模式(步骤317)并且结束处理。
[是否已经选择了成像模式的确定]
接下来,将描述用户是否已经选择了成像模式的确定。即,将描述图5中的步骤301。
图6是示出确定用户是否已经选择了成像模式的处理的流程图。注意,图6中所示的处理由“智能电话20”的控制单元执行。
首先,智能电话20的控制单元21确定智能电话20是否正被用户使用(步骤401)。在智能电话20未被使用的情况下(步骤401中为否),智能电话20的控制单元21确定智能电话20是否已经从睡眠状态激活(步骤402)。
在步骤401中,在智能电话20正被使用的情况下,智能电话20的控制单元21进行到步骤403。类似地,在步骤402中,在智能电话20已经从睡眠状态激活的情况下(步骤402中为是)(例如,在用户看到HMD 10的提醒UI 31,从口袋中取出智能电话20,并且从睡眠状态激活智能电话20的情况下),智能电话20的控制单元21进行到步骤403。
在步骤403中,智能电话20的控制单元21通知用户可以开始成像模式。可以使用任何方法作为该通知方法。其示例包括可以在智能电话20的显示单元23上显示指示成像模式的字符的方法以及通过来自扬声器的语音提供这样的通知的方法。
当进行了成像模式可行的通知时,然后智能电话20的控制单元21基于该通知确定用户是否已经选择了成像模式的开始(步骤404)。可以使用任何方法来确定是否已经选择了成像模式的开始。其示例包括以下方法。
例如,智能电话20的控制单元21在智能电话20的显示单元23上显示用于选择成像模式的开始的UI,并且基于用户是否已经操作(例如,轻按)该UI来确定是否已经选择了成像模式的开始。此外,例如,智能电话20的控制单元21基于是否已经经由麦克风从用户输入了指示开始成像模式的语音来确定是否已经选择了成像模式的开始。
在步骤402中,在智能电话20尚未从睡眠状态激活的情况下(步骤402中为否),智能电话20的控制单元21进行到步骤405。类似地,在步骤404中,在尚未选择成像模式的开始的情况下(步骤404中为否),智能电话20的控制单元21进行到步骤405。
在步骤405中,智能电话20的控制单元21确定用户是否已经执行了成像有关的操作。成像有关的操作是例如直接激活智能电话的成像单元26的操作或者直接按压成像按钮(在机械成像按钮被专门设置在移动装置上的情况下)的操作。
在步骤404中,在用户已经选择了成像模式的开始的情况下(步骤404中为是),智能电话20的控制单元21进行到步骤406。类似地,在步骤405中,在用户已经执行了成像有关的操作的情况下(步骤405中为是),智能电话20的控制单元21进行到步骤406。
在步骤406中,智能电话20的控制单元21确定用户已经选择了成像模式。在这种情况下,在图5中的步骤301中,确定为“是”。
在步骤405中,在用户尚未执行成像有关的操作的情况下(步骤405中为是),智能电话20的控制单元21进行到步骤407。
在步骤407中,智能电话20的控制单元21确定用户尚未选择成像模式。在这种情况下,在图5中的步骤301中,确定为“否”。
[虚拟对象30的隐藏控制]
在此,在该实施方式中,执行了由HMD 10进行的虚拟对象30的AR显示的隐藏控制。首先,将描述执行该隐藏控制的原因。
在该实施方式中,虚拟对象30被AR显示在HMD 10的显示单元3上,并且同时,在成像模式下,虚拟对象30(成像目标对象30b)也被AR显示在智能电话20的显示单元23上。在这种情况下,如果不采取措施,则由HMD 10AR显示的虚拟对象30和由智能电话20AR显示的虚拟对象30从用户的视点看起来彼此交叠并且在某些情况下看起来不自然。
图11是示出在由HMD 10AR显示的虚拟对象30和由智能电话20AR显示的虚拟对象30看起来不自然的情况下的示例的图。
在图11中所示的示例中,吊灯的虚拟对象30被AR显示在HMD 10的显示单元3上。同时,在成像模式下,吊灯的虚拟对象30被AR显示在智能电话20的显示单元23上。
在HMD 10的显示单元3和智能电话20的显示单元23中,从用户的视点来看HMD 10的显示单元3存在于前侧。为此,从用户的视点来看,由HMD 10AR显示的吊灯的虚拟对象30看起来在由智能电话20AR显示的虚拟对象30的前侧上,从而导致看起来不自然。
在该实施方式中,为了以对用户来说自然的方式AR显示虚拟对象30,执行用于根据需要在HMD 10的显示单元3中隐藏虚拟对象30的控制。
图7是示出当虚拟对象30根据需要在HMD 10中隐藏时的处理的流程图。注意,图7中所示的处理由“HMD 10”的控制单元1执行。
如图7中所示,首先,HMD 10的控制单元1确定是否已经从智能电话20进行了成像模式的开始的通知(步骤501)。注意,在智能电话20中当成像模式开始时从智能电话20进行成像模式的开始的通知(图5中的步骤304)。
接下来,HMD 10的控制单元1基于HMD 10的自身位置和智能电话20的位置来估计智能电话20中的显示单元23相对于HMD 10的相对位置(步骤502)。注意,在该实施方式中,由于使用了上面提及的公共坐标系,因此HMD 10的控制单元1能够准确地确定智能电话20的显示单元23的位置。
接下来,HMD 10的控制单元1确定当从用户观看时由HMD 10AR显示的虚拟对象30(成像目标对象30b)的显示区域与智能电话20的显示单元23是否彼此交叠(步骤503)。
在虚拟对象30的显示区域与智能电话20的显示单元23彼此交叠的情况下(步骤503中为是),HMD 10的控制单元1在HMD 10的显示单元3中隐藏虚拟对象30的交叠区域(步骤504)。
图12是示出在HMD 10的显示单元3中虚拟对象30与智能电话20的显示单元23之间的交叠区域已经被隐藏的情况下的示例的图。在如图12中所示的示例中,在HMD 10的显示单元3上AR显示的吊灯的下侧上的部分与智能电话20的显示单元23交叠。为此,在HMD 10中吊灯的下侧上的部分被部分地隐藏。
返回至图7,当执行隐藏虚拟对象30的交叠区域的处理时,HMD 10的控制单元1返回至步骤505。类似地,在步骤503中,在虚拟对象30的显示区域与智能电话20的显示单元23彼此不交叠的情况下(步骤503中为否),HMD 10的控制单元1进行到步骤505。
在步骤505中,HMD 10的控制单元1确定是否已经从智能电话20进行了成像模式的结束的通知。注意,当在智能电话20中结束成像模式时,从智能电话20进行成像模式的结束的通知(参见图5中的步骤317)。
在尚未从智能电话20进行成像模式的结束的通知的情况下(步骤505中为否),HMD10的控制单元1返回至步骤502并且再次估计智能电话20的显示单元23的位置。另一方面,在已经从智能电话20进行成像模式的结束的通知的情况下(步骤505中为是),HMD 10的控制单元1结束虚拟对象30的隐藏控制以执行正常的AR显示(步骤506)并且结束处理。
在此处的描述中,在成像模式下,已经描述了以下情况:当在HMD 10的显示单元3上AR显示的虚拟对象30的显示区域与智能电话20的显示单元23交叠时,在交叠区域中的虚拟对象30被隐藏。同时,在成像模式下,当虚拟对象30的显示区域与智能电话20的显示单元23交叠时,可以隐藏整个对应的虚拟对象30。
图13是示出在成像模式下已经隐藏了与智能电话20的显示单元23交叠的整个虚拟对象30的情况下的示例的图。在图13中所示的示例中,示出了以下情况:由于在成像模式下,由于在HMD 10上AR显示的吊灯的下侧上的部分与智能电话20的显示单元23交叠,因此整个吊灯被隐藏。
<效果等>
如上所述,在该实施方式中,虚拟对象30被AR显示在HMD 10的显示单元3上,检测用户通过智能电话20(交互装置)对虚拟对象30的交互,并且根据交互在智能电话20的显示单元23上显示与虚拟对象30有关的图像。
结果,在该实施方式中,当佩戴HMD 10的用户对虚拟对象30感兴趣并且通过智能电话20执行对虚拟对象30的交互时,在智能电话20上显示与虚拟对象30有关的图像。然后,用户可以通过注视智能电话20上显示的虚拟对象30的图像来获取关于虚拟对象30的信息。
因此,当用户对虚拟对象30感兴趣时,他/她无需待在原地并且通过HMD 10保持注视虚拟对象30。此外,目前,智能电话20通常具有比HMD 10更高的分辨率,并且因此可以说是适于更真切地注视用户感兴趣的虚拟对象30。
此外,在该实施方式中,检测移动智能电话20靠近虚拟对象30的操作,特别地,保持操作,作为交互。在此,目前,将智能电话20保持在某物上方的操作是通常用于公共交通中的车费的支付和购物的支付的操作。为此,将智能电话20保持在虚拟对象30上方的操作也被认为是用户的自然交互,并且因此,这样的保持交互被认为是可由用户在没有不适感的情况下自然地接受。
此外,在该实施方式中,由智能电话20的成像单元26对智能电话20的显示单元23上AR显示的虚拟对象30进行成像的操作被检测为交互。目前,利用智能电话20对感兴趣的真实对象(建筑物、人、QR码等)进行成像的操作是常用的操作。为此,利用智能电话20对虚拟对象30进行成像的操作也被认为是用户的自然交互,并且因此,这样的成像交互被认为是可由用户在没有不适感的情况下自然地接受。
在此,作为比较,假设用户执行通过手直接触摸由HMD 10AR显示的虚拟对象30的交互。虚拟对象30通常在没有物理线索(physical clue)的地方中,例如在空气中AR显示。因此,在这种情况下,存在用户难以执行诸如直接触摸虚拟对象30的物理交互的问题。此外,在该方法的情况下,由于如果在HMD 10的成像单元4的成像视角内没有捕获到手则不能执行通过手识别的交互的确定,因此可以执行交互的范围受到限制。
另一方面,在该实施方式中,由于智能电话20被手握持并且保持在虚拟对象30上方,因此与通过手直接触摸虚拟对象30的情况相比,存在相对容易地执行交互的优点。此外,在该实施方式中,由于利用智能电话20对虚拟对象30进行成像,因此与通过手直接触摸虚拟对象30的情况相比,存在容易地执行交互的优点。此外,在该实施方式中,不需要在HMD10的成像单元4的成像视角内捕获手,并且因此,可以执行交互的范围较少受到限制。
此外,在该实施方式中,交互根据佩戴HMD 10的用户与AR显示的虚拟对象30之间的距离D1而改变。结果,可以根据距离D1适当地改变交互。
此外,在该实施方式中,在用户与虚拟对象30之间的距离D1等于或小于第一阈值Th1的情况下,检测保持操作(移动靠近操作)作为交互。另一方面,在用户与虚拟对象30之间的距离D1超过第一阈值Th1的情况下,检测成像操作作为交互。
结果,当虚拟对象30在距用户的可到达距离内时,保持操作被用作交互,而当虚拟对象30不在距用户的可到达距离内时,成像操作被用作交互。如上所述,在该实施方式中,可以根据用户与虚拟对象30之间的距离D1适当地改变交互。
此外,在用户与虚拟对象30之间的距离D1等于或小于第一阈值Th1的情况下,可以检测保持(移动靠近)操作和成像操作二者作为交互。在这种情况下,用户可以通过保持交互或成像交互来指定存在于距用户可到达距离内的虚拟对象30。
此外,在该实施方式中,提醒用户交互的提醒UI 31被AR显示在HMD 10的显示单元3中与虚拟对象30对应的位置处。结果,用户可以通过视觉地识别提醒UI 31来容易地识别可以执行的交互以及应该执行什么交互。
此外,在该实施方式中,在多个提醒用户UI被AR显示在HMD 10的显示单元3上并且提醒UI 31的显示区域与其他提醒UI 31的显示区域交叠的情况下,调整提醒UI 31的AR显示位置。结果,可以以易于看到的方式将提醒UI 31呈现给用户。
此外,在该实施方式中,在成像模式下,在HMD 10的显示单元3上AR显示的虚拟对象30的显示区域与智能电话20的显示单元23交叠的情况下,在与智能电话20的显示单元23交叠的区域中隐藏虚拟对象30。结果,可以防止在HMD 10上AR显示的虚拟对象30看起来在由智能电话20AR显示的虚拟对象30的前侧,从而导致看起来不自然。
此外,在成像模式下,在HMD 10的显示单元3上AR显示的虚拟对象30的显示区域与智能电话20的显示单元23交叠的情况下,可以隐藏整个对应的虚拟对象30。同样以这种形式,类似地,可以防止这样的看起来不自然。此外,用户可以专注于利用智能电话20对虚拟对象30进行成像。
此外,在这种形式的情况下,由于无需准确地确定在HMD 10中HMD 10的虚拟对象30与智能电话20的显示单元23之间的交叠区域,因此可以减少处理负荷。此外,在这种形式的情况下,当不能准确地测量HMD 10与智能电话20之间的相对位置关系并且不能准确地估计交叠区域时(而在该实施方式中,由于使用了上面提及的公共坐标系,因此可以准确确定交叠区域)也是有效的。
此外,在该实施方式中,在成像模式下,在多个虚拟对象30被AR显示在智能电话20的显示单元23上的情况下,用于使用户选择要成像的虚拟对象30的选择UI 32被AR显示在智能电话20的显示单元23上。结果,用户可以通过基于选择UI 32的选择操作容易地从多个虚拟对象30中选择任意虚拟对象30,并且可以防止选择错误发生。
<<各种修改示例>>
在以上描述中,已经描述了在HMD 10的显示单元3上实际AR显示的虚拟对象30是智能电话20的交互目标的情况(参见步骤101至步骤111)。同时,由于存在于HMD 10周围而可以在HMD 10上AR显示的虚拟对象30(例如,存在于距HMD 10某个距离内的虚拟对象30)可以是智能电话20交互的目标,而与HMD 10的显示单元3是否被实际AR显示无关。
在这种情况下,例如,用户可以通过将智能电话20保持在虚拟对象30上方(移动智能电话20靠近虚拟对象30)来指定虚拟对象30,而无需通过HMD 10看向虚拟对象30的方向。此外,在这种情况下,即使用户没有通过HMD 10看向虚拟对象30的方向,当智能电话20被指向虚拟对象30的方向时虚拟对象30也被AR显示在智能电话20上,并且用户可以通过对虚拟对象30进行成像来指定虚拟对象30。
在以上描述中,智能电话20已经被描述为用于用户执行交互的交互装置的示例。另一方面,交互装置不限于智能电话20。典型地,交互装置仅需要是可以被用户保持的移动装置或者可以被用户的手或手臂佩戴的可穿戴装置。
可以被用户保持的移动装置的示例包括除智能电话20之外的移动电话、平板PC(个人计算机)、便携式游戏机和便携式音乐播放器。可以被用户的手或手臂佩戴的可穿戴装置的示例包括手表型(腕带型)、戒指型和手套型可穿戴装置。
在以上描述中,已经描述了HMD 10的控制单元1执行图3和图7中所示的处理并且交互装置的控制单元21执行图4至图6中所示的处理的情况。同时,图3至图7中所示的处理可以由HMD 10的控制单元1和交互装置的控制单元21之一来执行。
作为示例,将描述由交互装置的控制单元21执行图3中所示的处理的情况。在这种情况下,首先,交互装置的控制单元21从HMD 10接收HMD 10的成像单元4中的图像信息以识别HMD 10的周围环境,并且基于环境识别结果指示HMD 10在HMD 10的显示单元3上AR显示虚拟对象30(步骤101)。
接下来,交互装置的控制单元21选择一个虚拟对象30(步骤102)并且计算用户(头部)与虚拟对象30之间的距离D1(步骤103)。关于计算距离D1所需的用户的位置,例如,与由HMD 10估计的自身位置有关的信息从HMD 10获取,并且交互装置的控制单元21基于该信息获得用户的位置。
接下来,交互装置的控制单元21将用户与虚拟对象30之间的距离D1与第一阈值Th1和第二阈值Th2进行比较,以确定虚拟对象30的分类(步骤104和步骤107)。然后,交互装置指示HMD 10针对每个分类来AR显示对应的提醒UI 31(步骤106和步骤109)。
然后,交互装置的控制单元21对所有虚拟对象30执行诸如距离D1的计算和分类的处理(步骤111中为是),并且在提醒UI 31彼此交叠的情况下(步骤112中为是)指示HMD 10调整提醒UI 31的位置(步骤113)。
此外,作为示例,将描述由HMD 10的控制单元1执行图4中所示的处理的情况。在这种情况下,首先,HMD 10的控制单元1在存在保持目标对象30a的情况下(步骤201中为是)确定用户是否已经将交互装置保持在保持目标对象30a上方(步骤202)。在这种情况下,由于需要智能电话20的位置信息,因此HMD 10的控制单元1仅需要从智能电话20获取由智能电话20估计的自身位置的信息。
此外,HMD 10的控制单元1在存在成像目标对象30b的情况下(步骤203中为是)确定用户是否已经通过交互装置对成像目标对象30b进行了成像(步骤204)。在这种情况下,由于需要与用户通过交互装置的成像操作有关的信息,因此HMD 10的控制单元1仅需要从智能电话20获取与成像操作有关的信息。
在保持交互或成像交互的情况下(步骤202中为是和步骤204中为是),HMD 10的控制单元1确定虚拟对象30已经被指定(步骤205)。然后,HMD 10的控制单元1指示智能电话20在智能电话20的显示单元23上显示与虚拟对象30有关的图像(步骤206)。
此外,图3至图7中所示的处理可以不由头戴式显示器或交互装置执行,而是由能够与这些装置通信的外部装置的控制单元执行。该外部装置的示例包括各种PC,例如台式PC和膝上型PC,以及网络上的服务器设备。
在此,“信息处理装置”意指包括执行图3至图7中所示的各种类型的处理的控制单元等的设备。为此,在头戴式显示器执行所有主要处理的情况下,单独的头戴式显示器可以被视为一个信息处理装置。类似地,在交互装置执行所有主要处理的情况下,单独的交互装置也可以被视为一个信息处理装置。类似地,诸如网络上的服务器设备的外部装置执行所有主要处理,单独的外部装置也可以被视为一个信息处理装置。
此外,在头戴式显示器、交互装置和外部装置中的至少两个或更多个装置共享并执行处理的情况下,包括共享和执行处理的两个或更多个装置的整个系统可以是被视为一个信息处理装置。注意,在上面提及的第一实施方式中,头戴式显示器和交互装置(智能电话20)共享并执行处理,并且因此,包括这两个装置的整个信息处理系统100被视为第一实施方式中的一个信息处理装置。
本技术还可以采用以下配置。
(1)一种信息处理装置,包括:
控制单元,该控制单元使头戴式显示器的第一显示单元以AR(增强现实)方式显示虚拟对象,检测关于虚拟对象的用户交互,该交互通过交互装置执行,以及根据交互使交互装置的第二显示单元显示与虚拟对象有关的图像。
(2)根据以上(1)所述的信息处理装置,其中
交互装置包括成像单元,以及
控制单元将虚拟对象AR显示在第二显示单元上,并且检测由成像单元对被AR显示的虚拟对象进行成像的操作作为交互。
(3)根据以上(2)所述的信息处理装置,其中
控制单元检测移动交互装置靠近虚拟对象的操作作为交互。
(4)根据以上(3)所述的信息处理装置,其中
移动操作是将交互装置保持在虚拟对象上方的操作。
(5)根据以上(3)或(4)所述的信息处理装置,其中
控制单元根据佩戴头戴式显示器的用户与AR显示的虚拟对象之间的距离来改变交互。
(6)根据以上(5)所述的信息处理装置,其中
在用户与虚拟对象之间的距离超过预定阈值的情况下,控制单元检测成像的操作作为交互。
(7)根据以上(6)所述的信息处理装置,其中
在用户与虚拟对象之间的距离为预定阈值或更小的情况下,控制单元检测移动操作作为交互。
(8)根据以上(6)所述的信息处理装置,其中
在用户与虚拟对象之间的距离为预定阈值或更小的情况下,控制单元检测移动操作和成像操作二者作为交互。
(9)根据以上(1)至(8)中任一项所述的信息处理装置,其中
控制单元在第一显示单元中在与虚拟对象对应的位置处AR显示用于提醒用户交互的提醒用户界面。
(10)根据以上(9)所述的信息处理装置,其中
在多个提醒用户界面被AR显示在第一显示单元上并且提醒用户界面的显示区域与其他提醒用户界面的显示区域交叠的情况下,控制单元调整提醒用户界面的AR显示位置。
(11)根据以上(2)所述的信息处理装置,其中
在第一显示单元上AR显示的虚拟对象的显示区域与第二显示单元交叠的情况下,控制单元在与第二显示单元交叠的区域中隐藏虚拟对象。
(12)根据以上(2)所述的信息处理装置,其中
在第一显示单元上AR显示的虚拟对象的显示区域与第二显示单元交叠的情况下,控制单元隐藏整个对应的虚拟对象。
(13)根据以上(2)所述的信息处理装置,其中
在多个虚拟对象已经被AR显示在第二显示单元上的情况下,控制单元使第二显示单元AR显示用于使用户选择要成像的虚拟对象的选择用户界面。
(14)根据以上(1)至(13)中任一项所述的信息处理装置,其中
交互装置是能够被用户保持的移动装置或者能够被用户的手或手臂佩戴的可穿戴装置。
(15)一种信息处理方法,包括:
使头戴式显示器的第一显示单元AR显示虚拟对象;
检测关于虚拟对象的用户交互,该交互通过交互装置执行;以及
根据交互使交互装置的第二显示单元显示与虚拟对象有关的图像。
(16)一种使计算机执行以下处理的程序:
使头戴式显示器的第一显示单元AR显示虚拟对象;
检测关于虚拟对象的用户交互,该交互通过交互装置执行;以及
根据交互使交互装置的第二显示单元显示与虚拟对象有关的图像。
[附图标记列表]
1、21 控制单元
2、22 存储单元
3、23 显示单元
4、24 成像单元
5、25 惯性传感器
6、16 操作单元
7、27 通信单元
10 HMD
20 智能电话
30 虚拟对象
31 提醒UI
32 选择UI
100 信息处理系统

Claims (16)

1.一种信息处理装置,包括:
控制单元,所述控制单元使头戴式显示器的第一显示单元以AR方式显示虚拟对象,检测关于所述虚拟对象的用户交互,所述交互通过交互装置执行,以及根据所述交互使所述交互装置的第二显示单元显示与所述虚拟对象有关的图像。
2.根据权利要求1所述的信息处理装置,其中,
所述交互装置包括成像单元,以及
所述控制单元将所述虚拟对象AR显示在所述第二显示单元上,并且检测由所述成像单元对被AR显示的所述虚拟对象进行成像的操作作为所述交互。
3.根据权利要求2所述的信息处理装置,其中,
所述控制单元检测移动所述交互装置靠近所述虚拟对象的操作作为所述交互。
4.根据权利要求3所述的信息处理装置,其中,
所述移动操作是将所述交互装置保持在所述虚拟对象上方的操作。
5.根据权利要求3所述的信息处理装置,其中,
所述控制单元根据佩戴所述头戴式显示器的用户与所述AR显示的虚拟对象之间的距离来改变所述交互。
6.根据权利要求5所述的信息处理装置,其中,
在所述用户与所述虚拟对象之间的所述距离超过预定阈值的情况下,所述控制单元检测所述成像操作作为所述交互。
7.根据权利要求6所述的信息处理装置,其中,
在所述用户与所述虚拟对象之间的所述距离为所述预定阈值或更小的情况下,所述控制单元检测所述移动操作作为所述交互。
8.根据权利要求6所述的信息处理装置,其中,
在所述用户与所述虚拟对象之间的距离为所述预定阈值或更小的情况下,所述控制单元检测所述移动操作和所述成像操作二者作为所述交互。
9.根据权利要求1所述的信息处理装置,其中,
所述控制单元在所述第一显示单元中在与所述虚拟对象对应的位置处AR显示用于提醒所述用户所述交互的提醒用户界面。
10.根据权利要求9所述的信息处理装置,其中,
在多个提醒用户界面被AR显示在所述第一显示单元上并且所述提醒用户界面的显示区域与其他提醒用户界面的显示区域交叠的情况下,所述控制单元调整所述提醒用户界面的所述AR显示位置。
11.根据权利要求2所述的信息处理装置,其中,
在所述第一显示单元上AR显示的所述虚拟对象的显示区域与所述第二显示单元交叠的情况下,所述控制单元在与所述第二显示单元交叠的区域中隐藏所述虚拟对象。
12.根据权利要求2所述的信息处理装置,其中,
在所述第一显示单元上AR显示的所述虚拟对象的显示区域与所述第二显示单元交叠的情况下,所述控制单元隐藏整个对应的虚拟对象。
13.根据权利要求2所述的信息处理装置,其中,
在多个所述虚拟对象已经被AR显示在所述第二显示单元上的情况下,所述控制单元使所述第二显示单元AR显示用于使所述用户选择要成像的虚拟对象的选择用户界面。
14.根据权利要求1所述的信息处理装置,其中,
所述交互装置是能够被所述用户保持的移动装置或者能够被所述用户的手或手臂佩戴的可穿戴装置。
15.一种信息处理方法,包括:
使头戴式显示器的第一显示单元AR显示虚拟对象;
检测关于所述虚拟对象的用户交互,所述交互通过交互装置执行;以及
根据所述交互使所述交互装置的第二显示单元显示与所述虚拟对象有关的图像。
16.一种使计算机执行以下处理的程序:
使头戴式显示器的第一显示单元AR显示虚拟对象;
检测关于所述虚拟对象的用户交互,所述交互通过交互装置执行;以及
根据所述交互使所述交互装置的第二显示单元显示与所述虚拟对象有关的图像。
CN202180021722.3A 2020-03-25 2021-03-10 信息处理装置、信息处理方法和程序 Pending CN115335795A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-054460 2020-03-25
JP2020054460A JP2021157277A (ja) 2020-03-25 2020-03-25 情報処理装置、情報処理方法及びプログラム
PCT/JP2021/009507 WO2021193062A1 (ja) 2020-03-25 2021-03-10 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
CN115335795A true CN115335795A (zh) 2022-11-11

Family

ID=77891475

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180021722.3A Pending CN115335795A (zh) 2020-03-25 2021-03-10 信息处理装置、信息处理方法和程序

Country Status (4)

Country Link
US (1) US20230141870A1 (zh)
JP (1) JP2021157277A (zh)
CN (1) CN115335795A (zh)
WO (1) WO2021193062A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11927756B2 (en) * 2021-04-01 2024-03-12 Samsung Electronics Co., Ltd. Method for providing augmented reality image and head mounted display device supporting the same
CN118215931A (zh) 2021-11-09 2024-06-18 三星电子株式会社 用于在电子装置和可穿戴电子装置之间提供与增强现实服务相关的内容的方法和装置
WO2024163210A1 (en) * 2023-01-31 2024-08-08 Qualcomm Incorporated Aperture fusion with separate devices

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5675755A (en) * 1995-06-07 1997-10-07 Sony Corporation Window system preventing overlap of multiple always-visible windows
JP5055402B2 (ja) * 2010-05-17 2012-10-24 株式会社エヌ・ティ・ティ・ドコモ オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
US10096161B2 (en) * 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP5940785B2 (ja) * 2011-09-14 2016-06-29 株式会社バンダイナムコエンターテインメント プログラムおよびゲーム装置
US20140168261A1 (en) * 2012-12-13 2014-06-19 Jeffrey N. Margolis Direct interaction system mixed reality environments
JP6304242B2 (ja) * 2013-04-04 2018-04-04 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US10884493B2 (en) * 2013-06-20 2021-01-05 Uday Parshionikar Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
US10254920B2 (en) * 2013-12-01 2019-04-09 Upskill, Inc. Systems and methods for accessing a nested menu
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2016033468A1 (en) * 2014-08-28 2016-03-03 Retailmenot, Inc. Reducing the search space for recognition of objects in an image based on wireless signals
US9767613B1 (en) * 2015-01-23 2017-09-19 Leap Motion, Inc. Systems and method of interacting with a virtual object
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10176642B2 (en) * 2015-07-17 2019-01-08 Bao Tran Systems and methods for computer assisted operation
WO2017096093A1 (en) * 2015-12-01 2017-06-08 Quantum Interface, Llc. Motion based interface systems and apparatuses and methods for making and using same using directionally activatable attributes or attribute control objects
US10338687B2 (en) * 2015-12-03 2019-07-02 Google Llc Teleportation in an augmented and/or virtual reality environment
US10334076B2 (en) * 2016-02-22 2019-06-25 Google Llc Device pairing in augmented/virtual reality environment
US20170287215A1 (en) * 2016-03-29 2017-10-05 Google Inc. Pass-through camera user interface elements for virtual reality
CN114995594A (zh) * 2016-03-31 2022-09-02 奇跃公司 使用姿势和多dof控制器与3d虚拟对象的交互
US10019131B2 (en) * 2016-05-10 2018-07-10 Google Llc Two-handed object manipulations in virtual reality
US10496156B2 (en) * 2016-05-17 2019-12-03 Google Llc Techniques to change location of objects in a virtual/augmented reality system
US10290152B2 (en) * 2017-04-03 2019-05-14 Microsoft Technology Licensing, Llc Virtual object user interface display
CN110785688B (zh) * 2017-04-19 2021-08-27 奇跃公司 可穿戴系统的多模式任务执行和文本编辑
JP6410874B1 (ja) * 2017-05-30 2018-10-24 株式会社タカラトミー Ar映像生成装置
WO2019010337A1 (en) * 2017-07-06 2019-01-10 Google Llc VOLUMETRIC MULTI-SELECTION INTERFACE FOR SELECTING MULTIPLE ENTITIES IN A 3D SPACE
US10809900B2 (en) * 2017-12-21 2020-10-20 Tangible Play, Inc. Detection of pointing object and activity object
US10540941B2 (en) * 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
WO2019236344A1 (en) * 2018-06-07 2019-12-12 Magic Leap, Inc. Augmented reality scrollbar
US11086124B2 (en) * 2018-06-13 2021-08-10 Reavire, Inc. Detecting velocity state of a device
US11055919B2 (en) * 2019-04-26 2021-07-06 Google Llc Managing content in augmented reality
US10984242B1 (en) * 2019-09-05 2021-04-20 Facebook Technologies, Llc Virtual proximity compass for navigating artificial reality environments
US20210097776A1 (en) * 2019-09-28 2021-04-01 Apple Inc. Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20210286502A1 (en) * 2020-03-16 2021-09-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US20240057095A1 (en) * 2022-08-10 2024-02-15 Qualcomm Incorporated Hybrid automatic repeat request (harq) acknowledgment (ack) resource indication for multi physical downlink shared channel (pdsch) grants

Also Published As

Publication number Publication date
JP2021157277A (ja) 2021-10-07
US20230141870A1 (en) 2023-05-11
WO2021193062A1 (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
US12094068B2 (en) Beacons for localization and content delivery to wearable devices
US20210405761A1 (en) Augmented reality experiences with object manipulation
CN107743604B (zh) 增强和/或虚拟现实环境中的触摸屏悬停检测
US20240296633A1 (en) Augmented reality experiences using speech and text captions
US8884874B1 (en) Digital device and control method thereof
EP3164785B1 (en) Wearable device user interface control
US20150123898A1 (en) Digital device and control method thereof
WO2021193062A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN108139805B (zh) 用于在虚拟现实环境中的导航的控制系统
US20240144611A1 (en) Augmented reality eyewear with speech bubbles and translation
KR20140090159A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
US20240212386A1 (en) Method for identifying user&#39;s real hand and wearable device therefor
US11195341B1 (en) Augmented reality eyewear with 3D costumes
CN110488972B (zh) 用于空间交互中的额外模态的面部跟踪
US20210406542A1 (en) Augmented reality eyewear with mood sharing
JP2015118442A (ja) 情報処理装置、情報処理方法およびプログラム
KR100749033B1 (ko) 두 눈에서 반사되는 빛을 추적하여 단말기를 조작하는방법, 및 그 장치
US20220253198A1 (en) Image processing device, image processing method, and recording medium
CN113243000A (zh) 用于增强现实对象的捕捉范围
CN114115544B (zh) 人机交互方法、三维显示设备及存储介质
US20210072832A1 (en) Contactless gesture control method, apparatus and storage medium
CN115698923A (zh) 信息处理装置、信息处理方法和程序
US20240289083A1 (en) Information processing system, information processing device, and image display device
US11762202B1 (en) Ring-mounted flexible circuit remote control

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination