CN110998673A - 信息处理装置、信息处理方法和计算机程序 - Google Patents

信息处理装置、信息处理方法和计算机程序 Download PDF

Info

Publication number
CN110998673A
CN110998673A CN201880048572.3A CN201880048572A CN110998673A CN 110998673 A CN110998673 A CN 110998673A CN 201880048572 A CN201880048572 A CN 201880048572A CN 110998673 A CN110998673 A CN 110998673A
Authority
CN
China
Prior art keywords
information processing
user
attraction
processing apparatus
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201880048572.3A
Other languages
English (en)
Inventor
近藤茜
深泽辽
新田慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN110998673A publication Critical patent/CN110998673A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

[问题]提供了信息处理装置、信息处理方法和程序。[解决方案]提供了信息处理装置,其包括:诱目区域指定单元,用于在用户的视野内指定能够相对容易地吸引用户的视觉注意力的诱目区域;以及显示控制区域,用于执行显示控制以在诱目区域中布置虚拟对象。

Description

信息处理装置、信息处理方法和计算机程序
技术领域
本公开内容涉及信息处理装置、信息处理方法和计算机程序。
背景技术
近年来,一种将虚拟对象叠加在真实空间上以呈现给用户的被称为增强现实(AR)的技术引起了关注。例如,通过使用投影仪或包括当被佩戴在用户的头部上时位于用户的眼睛前方的显示器的头戴式显示器(下文中,也称为“HMD”),使得虚拟对象能够在真实空间上叠加显示。
在这样的AR技术中,可以例如基于真实空间的信息来布置虚拟对象。例如,以下专利文献1公开了基于真实空间或存在于真实空间中的真实对象的位置信息来布置虚拟对象的技术。
引文列表
专利文献
专利文献1:WO 2014/162823
发明内容
技术问题
然而,在基于真实空间的信息来布置虚拟对象的这样的情况下,虚拟对象不一定被显示在用户期望的位置处,并且例如,在一些情况下,虚拟对象被显示在用户几乎找不到的位置处。
本公开内容提供了新颖的和改进的信息处理装置、信息处理方法和计算机程序,其能够使虚拟对象被显示在用户可以容易地找到的位置处。
问题解决方案
根据本公开内容,提供了一种信息处理装置,其包括:诱目区域指定单元,其被配置成在用户的视野中指定能够相对容易地吸引用户的视觉注意力的诱目区域;以及显示控制单元,其被配置成执行显示控制以在诱目区域中布置虚拟对象。
此外,根据本公开内容,提供了一种信息处理方法,其包括:在用户的视野中指定能够相对容易地吸引用户的视觉注意力的诱目区域;以及通过处理器执行显示控制以在诱目区域中布置虚拟对象。
此外,根据本公开内容,提供了一种计算机程序,其使得计算机执行:在用户的视野中指定能够相对容易地吸引用户的视觉注意力的诱目区域的功能;以及执行显示控制以在诱目区域中布置虚拟对象的功能。
发明的有益效果
如上所述,根据本公开内容,虚拟对象可以被显示在用户可容易地找到的位置处。
上述效果不是限制性的,并且除了上述效果,或者代替上述效果之外,还可以呈现本文公开的任何效果或者可以从本说明书中掌握的另外的效果。
附图说明
图1是用于说明根据本公开内容的实施方式的信息处理装置1的概述的图。
图2是示出根据实施方式的信息处理装置1的配置示例的框图。
图3是示出根据实施方式的信息处理装置1的操作示例的流程图。
图4是更详细地示出图3所示的步骤S40处的处理的流程图。
图5是用于说明在沿着注视点附近的边缘的诱目区域中布置虚拟对象的示例的说明图。
图6是用于说明在诱目区域中布置虚拟对象的另一示例的说明图。
图7是用于说明根据实施方式的第一变型的说明图。
图8是用于说明根据实施方式的第二变型的说明图。
图9是示出硬件配置示例的说明图。
具体实施方式
下面参照附图详细描述本公开内容的优选实施方式。在本说明书和附图中,具有基本上相同的功能配置的构成元件由相同的附图标记表示,并且将不再重复冗余的描述。
将按照以下顺序进行描述。
1.概述
2.配置
3.操作
4.将虚拟对象布置在诱目区域中的具体示例
4-1.第一具体示例
4-2.第二具体示例
5.变型
5-1.第一变型
5-2.第二变型
5-3.第三变型
6.硬件配置示例
7.结论
1.概述
首先,下面描述根据本公开内容的实施方式的信息处理装置的概述。图1是用于说明根据实施方式的信息处理装置1的概述的图。如图1所示,根据实施方式的信息处理装置1通过例如佩戴在用户U的头部上的眼镜型头戴式显示器(HMD)来实现。与佩戴时位于用户U的眼睛前方的眼镜镜片部分相对应的显示单元13可以是透射型或非透射型。信息处理装置1可以通过在显示单元13上显示虚拟对象来在用户U的视野中呈现虚拟对象。作为信息处理装置1的示例的HMD不限于向两只眼睛都呈现图像,而是可以只向一只眼睛呈现图像。例如,HMD可以是包括向置于其中的一只眼睛呈现图像的显示单元13的单眼型。
信息处理装置1包括布置在其中的向外摄像机110,该向外摄像机110对用户U的视线方向(即佩戴时用户的视野)进行成像。另外,尽管未在图1中示出,但是信息处理装置1还包括布置在其中的各种传感器,诸如当佩戴时对用户U的眼睛成像的向内摄像机和麦克风(在下文中称为麦克风(mic)”)。可以设置多个向外摄像机110和向内摄像机。
信息处理装置1的形状不限于图1所示的示例。例如,信息处理装置1可以是头带型(用绕头部的整个圆周卷绕的带子来佩戴的类型,在一些情况下,可以将带子布置成不仅穿过颞区而且穿过头顶部)HMD或头盔类型(头盔的面罩部分对应于显示器)HMD。信息处理装置1还可以由腕带型(例如,包括显示器或不包括显示器的智能手表)、头戴式耳机型(不具有显示器)、脖挂式耳机型(包括显示器或不包括显示器的脖子悬挂型)等的可穿戴装置来实现。
例如,在显示单元13是透射型的情况下,信息处理装置1可以基于通过向外摄像机110执行摄影而获得的真实空间的信息(用户的视野的示例)来执行显示控制以在真实空间中布置虚拟对象。
在这种情况下,取决于虚拟对象被布置的位置,在某些情况下,用户U几乎找不到虚拟对象。在虚拟对象是与操作输入相关的虚拟对象的情况下,取决于虚拟对象被布置的位置,可能用户U很难掌握与虚拟对象的距离感,并且可能难以进行操作输入或者可能导致误操作。
因此,根据实施方式的信息处理装置1实现虚拟对象的布置,使得用户可以容易地找到虚拟对象并掌握与虚拟对象的距离感。具体地,根据实施方式的信息处理装置1执行显示控制以将虚拟对象布置在用户的视野内(真实空间的一部分)可以相对容易地吸引用户的视觉注意力的诱目区域中。
2.配置
上面已经描述了根据实施方式的信息处理装置1的概述。随后,下面参照图2描述根据实施方式的信息处理装置1的配置。图2是示出根据实施方式的信息处理装置1的配置示例的框图。如图2所示,信息处理装置1包括传感器单元11、控制单元12、显示单元13、扬声器14、通信单元15、操作输入单元16和存储单元17。
传感器单元11
传感器单元11具有获取关于用户或外围环境的各种信息的功能。例如,传感器单元11包括向外摄像机110、向内摄像机111、麦克风112、陀螺仪传感器113、加速度传感器114、方位角传感器115、位置测量单元116和生物传感器117。本文描述的传感器单元11的示例仅是示例,并且实施方式不限于此。另外,可以设置多个传感器。
向外摄像机110和向内摄像机111中的每个都包括:由成像镜头、光圈、变焦镜头、聚焦镜头等构成的镜头系统;使该镜头系统执行聚焦操作或变焦操作的驱动系统;对由镜头系统获得的成像光进行光电转换以产生成像信号的固态成像元件阵列等。可以通过例如由电荷耦合器件(CCD)传感器阵列或互补金属氧化物半导体(CMOS)传感器阵列来实现固态成像元件阵列。
在实施方式中,期望设置向外摄像机110的视角和方向,以对在真实空间中与用户的视野相对应的区域进行成像。
麦克风112收集用户的语音和周围的环境声音,以作为语音数据输出至控制单元12。
陀螺仪传感器113通过例如三轴陀螺仪传感器来实现,并检测角速度(旋转速度)。
加速度传感器114通过例如三轴加速度传感器(也称为G传感器)来实现,并检测移动时的加速度。
方位角传感器115通过例如三轴地磁传感器(罗盘)来实现,并检测绝对方向(方位)。
位置测量单元116具有基于从外部获取的信号来检测信息处理装置1的当前位置的功能。具体地,位置测量单元116由全球定位系统(GPS)测量单元实现,例如,接收来自GPS卫星的无线电波,检测信息处理装置1所在的位置,并将检测到的位置信息输出至控制单元12。可替选地,代替GPS,位置测量单元116可以经由例如Wi-Fi(注册商标)、蓝牙(注册商标)、短距离通信等向/从蜂窝电话、PHS、智能电话等发送/接收数据来检测位置。
生物传感器117检测用户的生物信息。具体地,生物传感器117可以检测例如心跳、体温、出汗、血压、脉搏、呼吸、眨眼、眼动、注视时间、瞳孔直径大小、血压、脑电波、身体运动、姿势、皮肤温度、皮肤电阻、微振动(MV)、肌电位、血氧饱和度(SPO2)等。
控制单元12
控制单元12用作算术处理装置和控制装置,并且根据各种计算机程序控制信息处理装置1中的整个操作。如图2所示,根据实施方式的控制单元12用作识别单元120、诱目区域指定单元122、布置设置获取单元124和显示控制单元126。
识别单元120具有通过使用由传感器单元11感测的各种传感器信息来识别(或检测)关于用户的信息或关于外围情况的信息的功能。
例如,识别单元120可以识别用户的头部的位置和姿势(包括面部相对于身体的取向或倾斜)、用户的视线、用户的注视点等作为关于用户的信息。识别单元120可以基于用户的视线来检测用户的注视点。例如,在用户的视线保持在特定范围内达预定时间或更长的情况下,识别单元120可以将用户的视线之前的点(三维位置)检测为注视点。通过识别单元120执行的检测用户的注视点的方法不限于上述示例,并且可以使用各种已知方法。
识别单元120还可以识别用户的视野中的三维形状作为关于外围情况的信息。例如,在布置多个向外摄像机110的情况下,识别单元120可基于视差信息获得深度图像(距离图像),并识别用户的视野中的三维形状。即使在仅设置一个向外摄像机110的情况下,识别单元120也可以根据基于时间序列获取的图像来识别用户视野内的三维形状。
识别单元120还可以从用户的视野检测真实对象的边界面作为关于外围情况的信息。在本说明书中,“边界面(boundary surface)”的表述被用作包括例如真实对象与另一真实对象之间的表面、或者真实对象与不存在真实对象的空间之间的表面的表述。边界面可以是弯曲表面。
识别单元120可以从由向外摄像机110获取的图像中检测边界面,或者可以基于识别出的用户视野内的三维形状来检测边界面。例如,在用户的视野中的三维形状被表达为点群数据的情况下,识别单元120可以通过对点群数据执行聚类来检测边界面。通过识别单元120执行的检测边界面的方法不限于上述示例,并且可以使用各种已知方法。
识别单元120将识别出的关于用户的信息和关于外围情况的信息提供至诱目区域指定单元122和显示控制单元126。
诱目区域指定单元122在用户的视野中指定可以相对容易地吸引用户的视觉注意力的诱目区域。在本说明书中,“能够容易地吸引视觉注意力”可以被认为是指“具有能够容易地吸引人们注意力的视觉特性”。例如,诱目区域指定单元122可以基于通过识别单元120识别的信息来指定诱目区域。由诱目区域指定单元122指定的诱目区域被提供至显示控制单元126(稍后描述),并且显示控制单元126执行显示控制以将虚拟对象布置在诱目区域中。
例如,诱目区域指定单元122可以指定由识别单元120从视野中检测到的边界面上的诱目区域。显示控制单元126(稍后描述)执行显示控制以将虚拟对象布置在诱目区域中,使得利用上述配置可以将虚拟对象布置在边界面上。因此,利用该配置,与虚拟对象被布置在不存在真实对象的空间中的情况相比,用户可以容易地掌握与虚拟对象的距离感。
诱目区域指定单元122可以基于从视野中检测到的边界面的边缘来指定诱目区域。诱目区域指定单元122可以检测例如通过识别单元120检测到的边界面的端部作为边缘。由诱目区域指定单元122检测到的边缘可以具有线性形状或弯曲形状。诱目区域指定单元122可以从由向外摄像机110获取的图像中检测边缘,或者可以基于边界面的三维形状来检测边缘。边缘对于用户是诱目的,并且用户不容易看不到边缘,使得当基于边缘指定诱目区域时,呈现出使得用户不容易看不到布置在诱目区域中的虚拟对象的效果。
例如,诱目区域指定单元122可以将沿着边缘的区域指定为诱目区域,或者可以基于边缘和稍后描述的另外的元素的组合来指定诱目区域。
诱目区域指定单元122还可以基于由识别单元120检测到的用户的注视点来指定诱目区域。例如,在特定边界面上检测到用户的注视点的情况下,诱目区域指定单元122可以在注视点所位于的边界面上指定诱目区域。利用该配置,虚拟对象可以被布置在用户注视的边界面上,并且与虚拟对象被布置在用户未注视的边界面上的情况相比,使得用户能够容易地找到虚拟对象。
在特定边界面上检测到用户的注视点的情况下,诱目区域指定单元122可以检测注视点所位于的边界面的边缘。在注视点附近检测到边缘的情况下,诱目区域指定单元122可以将边界面上的沿着检测到的边缘的区域指定为诱目区域。在注视点附近检测到多个边缘的情况下,诱目区域指定单元122可以将边界面上的沿着最靠近注视点的边缘的区域指定为诱目区域。利用该配置,虚拟对象可以被布置在靠近用户的注视点并且可以相对容易地吸引用户的视觉注意力的区域中,并且使得用户能够更容易地找到虚拟对象。
在特定边界面上检测到用户的注视点但是在注视点附近没有检测到边缘的情况下,诱目区域指定单元122不一定指定诱目区域。
在没有检测到注视点的情况下、在检测到的注视点不位于任何边界面上的情况下、或者在注视点所位于的边界面不是优选边界面的情况下,诱目区域指定单元122可以通过如下所述的不使用注视点的方法来指定诱目区域。边界面不是优选边界面的情况是例如即使在边界面上指定诱目区域也难以将虚拟对象布置在诱目区域中的情况,并且可以是例如边界面的面积等于或小于预定阈值的情况。
例如,诱目区域指定单元122可以基于视野中的颜色信息来指定诱目区域。例如,可以从由向外摄像机110获取的图像中获取视野中的颜色信息。
例如,诱目区域指定单元122可以基于颜色信息指定指示容易吸引用户的视觉注意力的诱目分数,并且基于诱目分数来指定诱目区域。基于颜色信息来指定诱目分数的方法不受限制,并且例如,诱目区域指定单元122可以基于背景的颜色、颜色的大小、颜色的强度、颜色的持续时间、颜色的移动等来指定诱目分数。诱目区域指定单元122还可以指定诱目分数使得有颜色的诱目分数高于无颜色的诱目分数。诱目区域指定单元122还可以指定诱目分数使得接近白色的颜色的诱目分数高于接近黑色的颜色的诱目分数。诱目区域指定单元122还可以指定诱目分数使得暖颜色的诱目分数高于冷颜色的诱目分数。诱目区域指定单元122还可以指定诱目分数使得高饱和度颜色的诱目分数高于低饱和度颜色的诱目分数。
由诱目区域指定单元122执行的指定诱目分数的方法不限于基于颜色信息的指定方法。例如,诱目区域指定单元122可以基于上述边缘来指定诱目分数,或者可以指定诱目分数使得沿着边缘的区域的诱目分数变高。还可以通过组合基于上述颜色信息的指定方法和基于边缘的指定方法来指定诱目分数。
例如,诱目区域指定单元122可以针对识别单元120检测到的每个边界面指定上述诱目分数,并且指定边界面上具有最高诱目分数的诱目区域。利用该配置,虚拟对象可以被布置在用户的视野中最容易吸引用户的视觉注意力的边界面上,并且使得用户能够更容易地找到虚拟对象。
诱目区域指定单元122可以针对边界面上具有最高诱目分数的每个位置指定诱目分数,并且基于针对边界面上的每个位置指定的诱目分数来指定诱目区域。基于针对边界面上的每个位置指定的诱目分数来指定诱目区域的方法不受限制。可替选地,诱目区域指定单元122可以基于颜色信息,将沿着边缘的区域与以具有最高诱目分数的点为中心的预定范围的交叠区域指定为诱目区域。例如,诱目区域指定单元122可以将具有等于或大于预定阈值的诱目分数的区域与以具有最高诱目分数的点为中心的预定范围的交叠区域指定为诱目区域。
在具有最高诱目分数的边界面的诱目分数等于或小于预定阈值的情况下,或者在边界面上的各个位置的所有诱目分数等于或小于预定阈值的情况下,诱目区域指定单元122不一定指定诱目区域。
布置设置获取单元124获取与预先确定的虚拟对象的布置相关的设置(在下文,称为布置设置)的信息。布置设置获取单元124例如可以从存储单元17获取布置设置,或者也可以经由通信单元15从另一装置取得布置设置。布置设置获取单元124将获取的布置设置提供给显示控制单元126。
布置设置可以包括诸如虚拟对象的形状、数量、布置顺序、尺寸和布置方向、其尺寸是否可以改变、其布置方向是否可以改变等的信息。
显示控制单元126执行显示单元13的显示控制,例如基于布置设置,将虚拟对象布置在用户的视野内。例如,在诱目区域指定单元122指定诱目区域的情况下,显示控制单元126可以执行显示控制以将虚拟对象布置在诱目区域中。
在将虚拟对象布置在诱目区域中的情况下,显示控制单元126可以取决于诱目区域改变虚拟对象的尺寸,或者改变虚拟对象的布置方向。例如,显示控制单元126可以改变虚拟对象的尺寸以落入诱目区域内。可替选地,可以根据诱目区域的形状来改变虚拟对象的布置方向,并且可以在与诱目区域的形状相对应的布置方向上布置虚拟对象。例如,如上所述,在沿着边缘的区域被指定为诱目区域的情况下,虚拟对象可以沿着边缘布置。
显示控制单元126还可以根据包括在布置设置中的关于是否可以改变虚拟对象的大小的信息或者关于是否可以改变虚拟对象的布置方向的信息来布置虚拟对象。例如,在不能改变虚拟对象的大小的情况下,显示控制单元126可以在不改变虚拟对象的大小的情况下,不仅将虚拟对象布置在诱目区域中,而且将虚拟对象布置在诱目区域的外部。在不能改变虚拟对象的布置方向的情况下,显示控制单元126可以在基于布置设置预先设置的布置方向上布置虚拟对象,而不改变虚拟对象的布置方向。
显示控制单元126还可以在诱目区域指定单元122没有指定诱目区域的情况下布置虚拟对象。例如,在特定边界面上检测到用户的注视点、但是由于在注视点附近没有检测到边缘而没有指定诱目区域的情况下,显示控制单元126可以将虚拟对象布置在注视点附近。在诱目区域指定单元122未指定诱目区域的另一情况下,显示控制单元126可以将虚拟对象布置在用户的眼睛前方(例如,在视野的中心附近)。利用该配置,即使在未指定诱目区域的情况下,用户也能够容易地找到虚拟对象。
显示单元13
例如,显示单元13由使用全息光学技术执行显示的透镜单元(透射型显示单元的示例)、液晶显示(LCD)装置、有机发光二极管(OLED)装置等实现。显示单元13可以是透射型、透反射型或非透射型。
扬声器14
扬声器14根据通过控制单元12执行的控制来再现语音信号。
通信单元15
通信单元15是用于以有线或无线方式向另一装置发送数据/从另一装置接收数据的通信模块。例如,通信单元15使用方案诸如有线局域网(LAN)、无线LAN、无线上网(Wi-Fi)(注册商标)、红外通信、蓝牙(注册商标)和短距离/非接触通信直接或经由网络接入点来执行与外部装置的无线通信。
操作输入单元16
操作输入单元16由具有物理结构的操作构件诸如开关、按钮或杠杆来实现。
存储单元17
存储单元17存储用于上述控制单元12执行各个功能的计算机程序和参数。例如,存储单元17存储与虚拟对象相关的信息(也可以包含布置设置)。
以上,对根据实施方式配置的信息处理装置1进行了具体说明,但根据实施方式配置的信息处理装置1并不限制于图2所示的例子,例如,也可以将信息处理装置1的控制单元12的功能的至少一部分包括在经由通信单元15连接的另外的装置中。
3.操作
以上已经描述了根据实施方式的信息处理装置1的配置示例。随后,下面参照图3和图4说明根据实施方式的信息处理装置1的操作。图3是示出根据实施方式的信息处理装置1的操作示例的流程图。
如图3所示,首先,布置设置获取单元124从存储单元17或经由通信单元15从其他装置获取布置设置(S10)。
随后,由传感器单元11执行感测(S20),并且通过使用感测到的各种传感器信息来识别关于用户的信息或关于外围情况的信息(S30)。
随后,诱目区域指定单元122和显示控制单元126确定虚拟对象的布置(S40)。下面参照图4更详细地描述步骤S40的处理。图4是更详细地示出图3所示的步骤S40处的处理的流程图。
如果检测到注视点并且注视点位于优选边界面上(S402处为是),则诱目区域指定单元122在边界面上执行边缘检测(S404)。如果在注视点附近检测到边缘(S406处为是),则诱目区域指定单元122将沿着注视点附近的检测到的边缘的区域指定为诱目区域,并且显示控制单元126确定在诱目区域中布置虚拟对象(S408)。
另一方面,如果在注视点附近没有检测到边缘(S406处为否),则显示控制单元126确定将虚拟对象布置在注视点附近(S410)。
如果没有检测到注视点,或者如果注视点没有位于优选边界面上(S402处为否),则诱目区域指定单元122通过不使用注视点的方法来指定诱目区域(S412)。在步骤S412处,诱目区域指定单元122可以例如基于颜色信息或边缘来指定诱目区域。
如果在步骤S412处指定了诱目区域(S414处为是),则显示控制单元126确定将虚拟对象布置在诱目区域中(S416)。另一方面,如果在步骤S412处没有指定诱目区域(S414处为否),则显示控制单元126确定将虚拟对象布置在用户的眼睛前方(例如,在视野的中心附近)(S418)。
返回图3,将继续描述。如在步骤S40所确定的,显示控制单元126执行显示控制以布置虚拟对象,并使显示单元13显示虚拟对象(S50)。
4.将虚拟对象布置在诱目区域中的具体示例
以上已经描述了根据实施方式的信息处理装置1的操作。随后,根据实施方式,参照图5和图6,下面具体说明在诱目区域中布置虚拟对象的情况的示例。在图5和图6中,用户U佩戴如图1所示的眼镜型HMD的信息处理装置1,位于用户U的眼睛前方的信息处理装置1的显示单元13是透射型,并且由用户U在视觉上识别在显示单元13上显示的虚拟对象V11至V13,好像存在于真实空间中。
4-1.第一具体示例
图5是用于说明在沿着注视点附近的边缘的诱目区域中布置虚拟对象的示例的说明图。在图5所示的示例中,用户U的注视点G10位于桌子3的边界面B10上。通过诱目区域指定单元122指定沿着注视点G10附近的边缘E10的诱目区域R10,并且将虚拟对象V11至V13布置在诱目区域R10中。
虚拟对象V11至V13沿着存在于用户U的注视点G10附近的边缘E10布置,使得用户U可以容易地找到虚拟对象V11至V13,容易地掌握与其距离感,并且不容易失去其视线。
4-2.第二具体示例
图6是用于说明在诱目区域中布置虚拟对象的另一示例的说明图。在图6所示的示例中,桌子3A和桌子3B被包括在用户U的视野中。在识别单元120不能检测到注视点的情况下,或者在检测到的注视点没有位于优选边界面上的情况下,诱目区域指定单元122不使用注视点来指定诱目区域。
在图6所示的示例中,作为由诱目区域指定单元122为每个边界面指定诱目分数的结果,桌子3A的边界面B20具有最高诱目分数,使得由诱目区域指定单元122在边界面B20上指定诱目区域R20。虚拟对象V11至V13被布置在诱目区域R20中。
在边界面B20上,虚拟对象V11至V13被布置在可容易地吸引用户U的视觉注意力的诱目区域R20中,使得用户U可容易地找到虚拟对象V11至V13,并可容易地掌握与虚拟对象的距离感。在基于边缘指定诱目区域R20的情况下,在边缘附近指定诱目区域R20,并且用户U不太可能看不到虚拟对象V11至V13。
5.变型
以上已经描述了本公开内容的实施方式。下面描述实施方式的一些变型。以下描述的变型可以单独地应用于实施方式,或者可以彼此组合以应用于实施方式。每个变型可以代替实施方式中描述的配置来应用,也可以附加地应用于实施方式中描述的配置。
5-1.第一变型
使得能够由显示控制单元126显示的虚拟对象不限于静止的虚拟对象,并且可以包括动画。在这种情况下,显示控制单元126可以基于诱目区域来使得显示动画。下面参照作为第一变型的图7描述这样的示例。图7是用于说明本变型的说明图。
在图7所示的示例中,指定了沿着作为边界面的墙壁W30和作为边界面的地板F30之间的边缘的诱目区域R30。显示控制单元126将虚拟对象V11至V13布置在诱目区域R30中。另外,显示控制单元126使辅助虚拟对象V30作为闪烁动画显示在诱目区域R30中。通过该配置,用户能够更容易地找到虚拟对象V11至V13。
基于诱目区域的动画的显示不限于上述示例。例如,显示控制单元126可以使得显示在诱目区域中的特定位置处的具有开始位置的动画。
可以考虑将从注视点(例如,图7的示例中的注视点G30)附近的开始位置开始朝向待找到的虚拟对象的动画显示作为用于使用户找到虚拟对象的辅助虚拟对象。然而,在待找到的虚拟对象与注视点之间的距离较大的情况下,用户的视野的较大区域可能被动画覆盖。另一方面,在显示在诱目区域中的特定位置处具有开始位置的动画的情况下,即使利用不覆盖用户的视野的相对小的动画,也可以使用户找到虚拟对象。
5-2.第二变型
以上描述了将虚拟对象布置在注视点所位于的边界面上指定的诱目区域中的示例,但是本技术不限于此。例如,在用户的注视时间长于预定阈值的情况下,显示控制单元126可以将虚拟对象布置在除注视点所位于的边界面之外的位置处。以下参照图8描述这种作为第二变型的的示例。图8是用于说明本变型的说明图。
在图8所示的示例中,用户的注视点G40位于显示器4的边界面B40上,因此,诱目区域指定单元122可以沿着在注视点G40附近检测到的边缘E40指定诱目区域R40。
然而,在用户的注视时间长的情况下,用户集中地注视显示器4,使得如果将虚拟对象布置在显示器4的边界面B40上的诱目区域R40中,则虚拟对象可能成为用户的障碍。因此,在用户的注视时间长的情况下,显示控制单元126使虚拟对象不显示在诱目区域R40中而是显示在除边界面B40之外的位置会是有效的。例如,在用户的注视时间长的情况下,如图8所示,显示控制单元126将虚拟对象V11至V13沿着边缘E40布置在边界面B40的相对侧。利用该配置,虚拟对象V11至V13可以被布置在用户易于发现并且难以看不到的位置,同时避免对用户造成障碍。
5-3.第三变型
在以上描述中,描述了其中用户的视野是真实空间并且虚拟物体被布置在透射型的显示单元上的示例,但是本技术不限于此。
例如,在显示单元13为非透射型的情况下,还可通过在利用向外摄像机110进行拍摄而得到的真实空间的图像上显示待叠加的虚拟对象,来得到与上述同样的效果。此外,在显示单元13是投影仪的情况下,通过将虚拟对象投影到真实空间上,也可以实现与上述效果相同的效果。
可替选地,用户的视野可以是虚拟空间,并且该虚拟空间可以显示在非透射型的显示单元13上。在这种情况下,显示控制单元126执行对虚拟空间的显示控制。
在这种情况下,可以使用已经布置在虚拟空间中的虚拟对象来代替上述真实对象。例如,可以在已经布置的虚拟对象的边界面上指定诱目区域,并且可以在诱目区域中布置新的虚拟对象。
6.硬件配置
以上已经描述了本公开内容的实施方式。最后,下面参照图9描述根据实施方式的信息处理装置的硬件配置。图9是示出根据实施方式的信息处理装置1的硬件配置的示例的框图。根据实施方式的信息处理装置1执行的信息处理通过软件和硬件(下面描述)彼此协作来实现。
如图9所示,信息处理装置1包括中央处理单元(CPU)901、只读存储器(ROM)902、随机存取存储器(RAM)903和主机总线904a。信息处理装置1还包括桥接器904、外部总线904b、接口905、输入装置906、输出装置907、存储装置908、驱动器909、连接端口911、通信装置913和传感器915。代替或除了CPU 901之外,信息处理装置1还可以包括处理电路诸如DSP或ASIC。
CPU 901用作算术处理装置和控制装置,并且根据各种计算机程序控制信息处理装置1中的整个操作。CPU 901也可以是微处理器。ROM 902存储CPU 901使用的计算机程序、算术参数等。RAM 903临时存储用于执行CPU 901的计算机程序、由于CPU 901的执行而适当改变的参数等。CPU 901可以形成例如控制单元12。
CPU 901、ROM 902和RAM 903经由包括CPU总线等的主机总线904a彼此连接。主机总线904a经由桥接器904连接到外部总线904b,例如外围组件互连/接口(PCI)总线。主机总线904a、桥接器904和外部总线904b不必以分离的方式配置,并且这些功能可以作为一个总线来实现。
输入装置906例如由用户向其输入信息的装置实现,诸如鼠标、键盘、触摸面板、按钮、麦克风、开关和控制杆。例如,输入装置906也可以是利用红外线或其它无线电波的遥控装置,或者是支持信息处理装置1的操作的外部连接设备诸如蜂窝电话或PDA。输入装置906还可以包括例如输入控制电路,该输入控制电路基于用户使用上述输入单元输入的信息产生输入信号,并将该输入信号输出到CPU 901。信息处理装置1的用户可以通过操作输入装置906来输入各种数据或向信息处理装置1给出执行处理操作的指令。
输出装置907由能够在视觉上或听觉上向用户通知所获取的信息的装置形成。作为这样的装置,作为举例,显示装置为诸如CRT显示装置、液晶显示装置、等离子显示装置、EL显示装置、灯等,声音输出装置为诸如扬声器、耳机等、打印机装置等。例如,输出装置907输出通过由信息处理装置1执行的各种处理获得的结果。具体地,显示装置以各种格式诸如文本、图像、表格和图形来可视地显示通过由信息处理装置1执行的各种处理获得的结果。另一方面,语音输出装置将由再现的语音数据、音频数据等构成的音频信号转换为模拟信号以进行听觉输出。输出装置907可以例如形成显示单元13。
存储装置908是用于存储数据的装置,其形成为信息处理装置1的存储单元的示例。存储装置908例如由磁存储单元装置诸如HDD、半导体存储装置、光存储装置或磁光存储装置来实现。存储装置908可以包括存储介质、将数据记录在存储介质中的记录装置、从存储介质读出数据的读取装置、删除记录在存储介质中的数据的删除装置等。存储装置908存储由CPU 901执行的计算机程序、各种数据、从外部获取的各种数据等。上述存储装置908可以例如形成存储单元17。
驱动器909是用于存储介质的读取器/写入器,并且被并入信息处理装置1中,或者被外部地附接至其上。驱动器909读出记录在安装在其上的可移动存储介质诸如磁盘、光盘、磁光盘或半导体存储器中的信息,并将该信息输出到RAM 903。驱动器909还可以将信息写入可移动存储介质。
连接端口911是连接到外部装置的接口,例如,用于外部装置的连接端口,数据可以经由通用串行总线(USB)等被发送到该外部装置。
通信装置913是例如由通信装置等形成的通信接口以连接至网络920。通信装置913是例如用于有线或无线局域网(LAN)的通信卡、长期演进(LTE)、蓝牙(注册商标)或无线USB(WUSB)。通信设装置913还可以是用于光通信的路由器、用于非对称数字用户线路(ADSL)的路由器、用于各种通信的调制解调器等。通信装置913可以例如根据预定协议诸如TCP/IP,向因特网或另一通信装置发送/从因特网或另一通信装置接收信号等。通信装置913可以例如形成通信单元15。
传感器915是例如各种传感器,诸如加速度传感器、陀螺仪传感器、地磁传感器、光学传感器、声音传感器、范围传感器和力传感器。传感器915获取关于信息处理装置1本身的状态的信息,例如信息处理装置1的姿势和移动速度,以及关于信息处理装置1的外围环境的信息,例如信息处理装置1周围的亮度和噪声。传感器915还可以包括GPS传感器,该GPS传感器接收GPS信号以测量装置的纬度、经度和高度。传感器915可以形成例如传感器单元11。
网络920是从连接到网络920的装置发送的信息的有线或无线传输路径。例如,网络920可以包括公共网络诸如因特网、电话线网络和卫星通信网络、各种类型的局域网(LAN),包括Ethernet(注册商标)、广域网(WAN)等。网络920还可以包括专用网络,诸如互联网协议-虚拟专用网(IP-VPN)。
上面已经描述了可以实现根据实施方式的信息处理装置1的功能的硬件配置的示例。上述构成元件可以通过使用通用构件来实现,或者可以被实现为专用于每个构成元件的功能的硬件。因此,在每次实现实施方式时,可以取决于技术水平适当地改变要使用的硬件配置。
根据如上描述的实施方式,可以制作用于实现信息处理装置1的每个功能的计算机程序,并且该计算机程序可以在PC等上实现。也可以提供存储这种计算机程序的计算机可读记录介质。记录介质是例如磁盘、光盘、磁光盘和闪存。上述计算机程序可以例如经由网络分发,不必使用记录介质。
7.结论
如上所述,根据本公开内容的实施方式,虚拟对象可被显示在用户可容易地找到的位置处。
以上,参照附图详细说明了本公开内容的优选实施方式,但本公开内容的技术范围并不限于本文的示例。本公开内容的领域的普通技术人员可以明显地想到在权利要求中描述的技术思想的范围内的各种变体或变型的示例,并且显然的是,这些示例也被本公开内容的技术范围所涵盖。
例如,上述实施方式中的步骤不必根据本文作为流程图所描述的顺序在时间序列上来处理。例如,上述实施方式的处理中的步骤可以以与流程图中描述的顺序不同的顺序来处理,或者可以并行地处理。
本说明书中描述的效果仅仅是说明或示例,而不是限制。即,除了上述效果,或者代替上述效果之外,根据本公开内容的技术还可以根据本文的描述呈现出对本领域技术人员来说明显的另外的效果。
本公开内容的技术范围也涵盖以下配置。
(1)
一种信息处理装置,包括:
诱目区域指定单元,其被配置成指定在用户的视野中能够相对容易地吸引用户的视觉注意力的诱目区域;以及
显示控制单元,其被配置成执行显示控制以在诱目区域中布置虚拟对象。
(2)
根据(1)的信息处理装置,其中,诱目区域指定单元在从视野中检测到的边界面上指定诱目区域。
(3)
根据(2)的信息处理装置,其中,诱目区域指定单元基于从所述视野中检测到的边界面的边缘来指定诱目区域。
(4)
根据(3)的信息处理装置,其中,所述诱目区域指定单元还基于用户的注视点来指定诱目区域。
(5)
根据(4)的信息处理装置,其中,所述诱目区域指定单元在所述用户的注视点所位于的边界面上指定诱目区域。
(6)
根据(5)的信息处理装置,其中,在注视点的附近检测到边缘的情况下,诱目区域指定单元将沿着检测到的边缘的区域指定为诱目区域。
(7)
根据(6)的信息处理装置,其中,在用户的注视点的附近没有检测到边缘的情况下,显示控制单元将虚拟对象布置在注视点附近。
(8)
根据(4)至(7)中的任一项的信息处理装置,其中,在用户的注视时间长于预定阈值的情况下,显示控制单元将虚拟对象布置在除注视点所位于的边界面之外的位置处。
(9)
根据(2)至(8)中任一项的信息处理装置,其中,诱目区域指定单元基于视野内的颜色信息来指定所述诱目区域。
(10)
根据(2)至(9)中任一项的信息处理装置,其中,显示控制单元针对每个边界面指定指示吸引用户的视觉注意力的容易程度的诱目分数,并且在具有最高诱目分数的边界面上指定诱目区域。
(11)
根据(1)至(10)中任一项的信息处理装置,其中,显示控制单元在与诱目区域的形状相对应的布置方向上布置虚拟对象。
(12)
根据(1)至(11)中任一项的信息处理装置,其中,显示控制单元使得基于诱目区域使动画显示。
(13)
根据(1)至(12)中任一项信息处理装置,其中
用户的视野是真实空间,以及
显示控制单元执行与透射型的显示单元相关的显示控制。
(14)
根据(1)至(13)中任一项所述的信息处理装置,其中
用户的视野是虚拟空间,以及
显示控制单元执行与虚拟空间相关的显示控制。
(15)
一种信息处理方法,包括:
在用户的视野中指定能够相对容易地吸引用户的视觉注意力的诱目区域;以及
由处理器执行显示控制以在诱目区域中布置虚拟对象。
(16)
一种计算机程序,其使得计算机执行:
在用户的视野中指定能够相对容易地吸引用户的视觉注意力的诱目区域的功能;以及
执行在诱目区域中布置虚拟对象的显示控制的功能。
附图标记列表
1 信息处理装置
11 传感器单元
12 控制单元
13 显示单元
14 扬声器
15 通信单元
16 操作输入单元
17 存储单元
110 向外摄像机
111 向内摄像机
112 麦克风
113 陀螺仪传感器
114 加速度传感器
115 方位角传感器
116 位置测量单元
117 生物传感器
120 识别单元
122 诱目区域指定单元
124 布置设置获取单元
126 显示控制单元

Claims (16)

1.一种信息处理装置,包括:
诱目区域指定单元,其被配置成指定在用户的视野中能够相对容易地吸引所述用户的视觉注意力的诱目区域;以及
显示控制单元,其被配置成执行显示控制以在所述诱目区域中布置虚拟对象。
2.根据权利要求1所述的信息处理装置,其中,所述诱目区域指定单元在从所述视野中检测到的边界面上指定所述诱目区域。
3.根据权利要求2所述的信息处理装置,其中,所述诱目区域指定单元基于从所述视野中检测到的所述边界面的边缘来指定所述诱目区域。
4.根据权利要求3所述的信息处理装置,其中,所述诱目区域指定单元还基于所述用户的注视点来指定所述诱目区域。
5.根据权利要求4所述的信息处理装置,其中,所述诱目区域指定单元在所述用户的注视点所位于的所述边界面上指定所述诱目区域。
6.根据权利要求5所述的信息处理装置,其中,在所述注视点的附近检测到所述边缘的情况下,所述诱目区域指定单元将沿着所检测到的所述边缘的区域指定为所述诱目区域。
7.根据权利要求6所述的信息处理装置,其中,在所述用户的注视点的附近没有检测到所述边缘的情况下,所述显示控制单元将所述虚拟对象布置在所述注视点的附近。
8.根据权利要求4所述的信息处理装置,其中,在所述用户的注视时间长于预定阈值的情况下,所述显示控制单元将所述虚拟对象布置在除所述注视点所位于的所述边界面之外的位置处。
9.根据权利要求2所述的信息处理装置,其中,所述诱目区域指定单元基于所述视野内的颜色信息来指定所述诱目区域。
10.根据权利要求2所述的信息处理装置,其中,所述显示控制单元针对每个边界面指定指示吸引所述用户的视觉注意力的容易程度的诱目分数,并且在具有最高诱目分数的所述边界面上指定所述诱目区域。
11.根据权利要求1所述的信息处理装置,其中,所述显示控制单元在与所述诱目区域的形状相对应的布置方向上布置所述虚拟对象。
12.根据权利要求1所述的信息处理装置,其中,所述显示控制单元使得基于所述诱目区域使动画显示。
13.根据权利要求1所述的信息处理装置,其中
所述用户的视野是真实空间,以及
所述显示控制单元执行与透射型的显示单元相关的所述显示控制。
14.根据权利要求1所述的信息处理装置,其中
所述用户的视野是虚拟空间,以及
所述显示控制单元执行与虚拟空间相关的显示控制。
15.一种信息处理方法,包括:
在用户的视野中指定能够相对容易地吸引用户的视觉注意力的诱目区域;以及
由处理器执行显示控制以在所述诱目区域中布置虚拟对象。
16.一种计算机程序,其使得计算机执行:
在用户的视野中指定能够相对容易地吸引用户的视觉注意力的诱目区域的功能;以及
执行在所述诱目区域中布置虚拟对象的显示控制的功能。
CN201880048572.3A 2017-07-27 2018-05-10 信息处理装置、信息处理方法和计算机程序 Withdrawn CN110998673A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017145590A JP2019028603A (ja) 2017-07-27 2017-07-27 情報処理装置、情報処理方法、及びプログラム
JP2017-145590 2017-07-27
PCT/JP2018/018108 WO2019021573A1 (ja) 2017-07-27 2018-05-10 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
CN110998673A true CN110998673A (zh) 2020-04-10

Family

ID=65040125

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880048572.3A Withdrawn CN110998673A (zh) 2017-07-27 2018-05-10 信息处理装置、信息处理方法和计算机程序

Country Status (6)

Country Link
US (1) US20200159318A1 (zh)
JP (1) JP2019028603A (zh)
KR (1) KR20200031098A (zh)
CN (1) CN110998673A (zh)
DE (1) DE112018003820T5 (zh)
WO (1) WO2019021573A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11508130B2 (en) 2020-06-13 2022-11-22 Snap Inc. Augmented reality environment enhancement
US11630511B2 (en) 2020-12-31 2023-04-18 Snap Inc. Determining gaze direction to generate augmented reality content

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9317972B2 (en) * 2012-12-18 2016-04-19 Qualcomm Incorporated User interface for augmented reality enabled devices
EP2983137B1 (en) 2013-04-04 2019-05-22 Sony Corporation Information processing device, information processing method and program

Also Published As

Publication number Publication date
DE112018003820T5 (de) 2020-04-09
KR20200031098A (ko) 2020-03-23
WO2019021573A1 (ja) 2019-01-31
US20200159318A1 (en) 2020-05-21
JP2019028603A (ja) 2019-02-21

Similar Documents

Publication Publication Date Title
US10342428B2 (en) Monitoring pulse transmissions using radar
EP3294428B1 (en) Method for displaying augmented reality with privacy-sensitive consumer cameras coupled to augmented reality systems
US20200202161A1 (en) Information processing apparatus, information processing method, and program
US11487354B2 (en) Information processing apparatus, information processing method, and program
WO2015200419A1 (en) Detecting a primary user of a device
EP3759576B1 (en) A high-speed staggered binocular eye tracking systems
US11327317B2 (en) Information processing apparatus and information processing method
CN111213375B (zh) 信息处理装置、信息处理方法以及程序
US20200242842A1 (en) Information processing device, information processing method, and program
CN110998673A (zh) 信息处理装置、信息处理方法和计算机程序
US20200143774A1 (en) Information processing device, information processing method, and computer program
JP2020077271A (ja) 表示装置、学習装置、及び、表示装置の制御方法
US10948988B1 (en) Contextual awareness based on eye motion tracking by an eye-mounted system
US11240482B2 (en) Information processing device, information processing method, and computer program
US11908055B2 (en) Information processing device, information processing method, and recording medium
CN111566597A (zh) 信息处理设备、信息处理方法和程序
US20230281938A1 (en) Hardware-agnostic input framework for providing input capabilities at various fidelity levels, and systems and methods of use thereof
JP2020201723A (ja) 画像処理装置、ウェアラブルデバイス、画像処理プログラム、画像処理方法、オブジェクト認識装置、オブジェクト認識プログラムおよびオブジェクト認識方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200410

WW01 Invention patent application withdrawn after publication