CN111095364A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN111095364A
CN111095364A CN201880058233.3A CN201880058233A CN111095364A CN 111095364 A CN111095364 A CN 111095364A CN 201880058233 A CN201880058233 A CN 201880058233A CN 111095364 A CN111095364 A CN 111095364A
Authority
CN
China
Prior art keywords
real
virtual object
information processing
real space
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201880058233.3A
Other languages
English (en)
Inventor
近藤茜
深泽辽
新田慧
野田卓郎
杉原贤次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN111095364A publication Critical patent/CN111095364A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

[问题]为了提供一种信息处理装置、信息处理方法以及程序。[解决方案]提出了一种信息处理装置,包括显示控制单元,用于使得在真实空间中显示第一虚拟对象以便在与存在于真实空间中的真实对象基本相同的位置被视觉上感知,所述第一虚拟对象具有与真实空间的颜色信息对应的视觉特性并且具有与真实对象基本相同的形状。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开内容涉及信息处理装置、信息处理方法以及程序。
技术背景
近年来,通过将附加信息叠加到真实空间上来增强人类所感知的现实环境的增强现实(AR)技术已经被广泛使用,并且AR技术已经被应用于信息呈现。在AR技术中,呈现给用户的附加信息也被称为注释,并且可以使用各种形式的虚拟对象(例如文本、图标、图像或3D模型)来进行可视化。
例如,专利文献1公开了一种使用所谓的透视显示器(透射显示单元)透明地显示被叠加在用户正在观看的真实空间中的图像上的注释(虚拟对象)的技术。此外,专利文献1描述了在注释的一部分或全部落入可见范围之外的情况下显示指示注释的存在的通知(例如,注释的阴影)。
引用列表
专利文献
专利文献1:WO 2014/162825 A
发明内容
技术问题
然而,在上述AR技术中,当在透视显示器等上显示虚拟对象时,有时变得难以看到存在于真实空间中的真实对象。在这种情况下,例如,用户可能变得难以感觉好像虚拟对象存在于真实空间中,或者即使期望真实空间中存在的真实对象吸引注意力,用户也可能感觉难以看到真实对象。
鉴于上述问题,本公开内容提出了一种能够增强真实对象的可见性的信息处理装置、信息处理方法和程序。
针对问题的解决方案
根据本公开内容,提供了一种信息处理装置,包括:显示控制单元,被配置成在真实空间中显示第一虚拟对象以便在与存在于真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与真实空间的颜色信息对应的视觉特征,并且具有与真实对象基本相同的形状。
此外,根据本公开内容,提供了一种信息处理方法,包括:通过处理器在真实空间中显示第一虚拟对象以便在与存在于真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与真实空间的颜色信息相对应的视觉特征,并且具有与真实对象基本相同的形状。
此外,根据本公开内容,提供了一种使计算机实现以下功能的程序:在真实空间中显示第一虚拟对象以便在与存在于真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与真实空间的颜色信息对应的视觉特征,并且具有与真实对象基本相同的形状。
本发明的有益效果
如上所述,根据本公开内容,可以增强真实对象的可见性。
注意,上述效果不一定是限制性的。连同或者代替上述效果,可以实现本说明书中描述的任一种效果或者可以从本说明书中理解的其他效果。
附图说明
图1是描述根据本实施方式的信息处理装置1的概述的图。
图2是用于描述用于显示被适当地遮挡的内容对象的显示控制的说明图。
图3是示出根据实施方式的信息处理装置1的配置示例的框图。
图4是示出根据实施方式的信息处理装置1的操作示例的流程图。
图5是用于描述遮蔽对象具有与真实对象的亮度对应的亮度的示例的说明图。
图6是用于描述遮蔽对象具有与真实对象的纹理对应的纹理的示例的说明图。
图7是用于描述遮蔽对象具有与关于真实空间的亮度的信息对应的亮度的示例的说明图。
图8是用于描述内容对象具有与关于真实空间的色温的信息对应的颜色的示例的说明图。
图9是描述在真实空间中显示遮蔽对象的阴影和内容对象的阴影的示例的说明图。
图10是描述在真实空间中显示遮蔽对象的阴影和内容对象的阴影的情况的示例的说明图。
图11是用于描述基于真实对象与内容对象之间的位置关系来控制遮蔽对象的视觉特征的示例的说明图。
图12是用于描述基于是否可显示整个遮蔽对象来控制遮蔽对象的视觉特征的示例的说明图。
图13是用于描述关注对象具有与真实对象的纹理对应的纹理的示例的说明图。
图14是用于描述基于视线信息来控制遮蔽对象的视觉特征的示例的说明图。
图15是用于描述基于视线信息来控制遮蔽对象的视觉特征的示例的说明图。
图16是示出硬件配置的示例的框图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的优选实施方式。注意,在本说明书和附图中,具有基本相同的功能和结构的结构元件使用相同的附图标记表示,并且省略对这些结构元件的重复说明。
注意,将按如下顺序给出描述。
<<1.概述>>
<<2.配置>>
<<3.操作>>
<<4.显示控制的示例>>
<4-1.显示遮蔽对象和内容对象的示例>
<4-2.显示关注对象的示例>
<<5.硬件配置示例>>
<<6.结论>>
<<1.概述>>
首先,将描述根据本公开内容的第一实施方式的信息处理装置的概述。图1是描述根据本实施方式的信息处理装置1的概述的图。如图1所示,根据本实施方式的信息处理装置1例如由附接至用户U的头部的眼镜型头戴式显示器(HMD)来实现。当用户U佩戴信息处理装置1时与位于用户U的眼睛前方的眼镜透镜部对应的显示单元13可以是具有光透射性的所谓光学透视显示器。信息处理装置1可以通过在显示单元13上显示虚拟对象来呈现用户U的视觉范围内的虚拟对象。此外,作为信息处理装置1的示例的HMD不限于向双眼呈现图像的显示器,并且可以是仅向一只眼睛呈现图像的显示器。例如,HMD可以是包括向一只眼睛呈现图像的显示单元13的单眼显示器。
此外,信息处理装置1设置有向外摄像装置110,其当用户佩戴信息处理装置1时捕获在用户U的视线方向,也就是说用户的视野中的图像。此外,信息处理装置1可以设置有在图1中未示出的向内摄像装置以及诸如麦克风的各种传感器,该向内摄像装置当用户U佩戴信息处理装置1时捕获用户U的眼睛的图像。可以提供多个向外摄像装置110和多个向内摄像装置。
注意,信息处理装置1的形状不限于图1所示的示例。例如,信息处理装置1可以是头带式HMD(通过缠绕在头部的整个周围的带子附接,或者有时提供不仅穿过头部的侧面而且穿过头部的顶部的带子来附接),或者头盔式HMD(头盔的护目镜部分对应于显示单元13)。
此处,例如,在显示单元13具有光透射性的情况下,用户U可以在通过显示单元13观看真实空间的同时观看显示在显示单元13上的信息。因此,可以说在显示单元13上显示的虚拟对象被显示在真实空间中。
此外,可以执行使得用户U感觉好像虚拟对象存在于真实空间中的控制。例如,可以基于关于通过向外摄像装置110的图像捕获而获得的真实空间的信息,例如关于存在于真实空间中的真实对象的位置或形状的信息来控制虚拟对象的布置、形状等。
各种类型的虚拟对象可以被显示在显示单元13上。例如,虚拟对象可以是取决于由信息处理装置1提供的应用指示各种类型的内容的虚拟对象(在下文中,有时将被称为内容对象)。替选地,虚拟对象可以是存在于真实空间中的真实对象中的用于高亮显示期望吸引用户U的注意力的真实对象(下文中,有时将称为关注目标)的虚拟对象(下文中,有时将称为关注对象)。
注意,根据信息处理装置1提供的应用使用各种类型的关注目标,并且关注目标可以是例如指示用户在真实空间中所需的信息的真实对象。替选地,在提供了能够使用真实对象执行操纵的应用的情况下,关注目标可以是能够用于操纵的真实对象。
同时,在显示单元13上显示虚拟对象的情况下,用户U有时感觉难以看到真实对象。例如,在一些情况下,由于显示单元13比真实对象更明亮地(以更高的亮度)显示虚拟对象,感觉真实对象相对暗并且变得难以看到真实对象。此外,在一些情况下,如果显示关注对象以便与关注目标交叠以高亮显示关注目标,则变得相当难以看到关注目标。在下文中,将描述这两种情况的具体示例。
首先,将描述如下情况:由于显示单元13比真实对象更明亮地显示虚拟对象,感觉真实对象相对暗并且变得难以看到真实对象。当具有光透射性的显示单元13显示虚拟对象时,如果虚拟对象被暗地(以低亮度)显示,则由于与存在于显示单元13前面的真实空间的交叠而变得难以看到虚拟对象。因此,为了使虚拟对象清晰可见,期望明亮地(以高亮度)显示虚拟对象。
然而,在明亮地显示虚拟对象以使得虚拟对象清晰可见的情况下,用户U有时感觉到用于显示单元13显示虚拟对象的光比真实空间中的光更强。此外,与虚拟对象相比,在一些情况下感觉真实对象相对暗并且变得难以看到真实对象。此外,由于虚拟对象与真实空间之间的对比而引起虚拟对象与真实空间之间的边界有时突出。
此外,如果变得难以看到真实对象或者虚拟对象与真实空间之间的边界突出,则用户不太可能感觉到好像虚拟对象存在于真实空间中。具体地,在执行基于虚拟对象与真实对象之间的位置关系的显示控制以使用户感觉好像虚拟对象存在于真实空间中的情况下,难以看到真实对象并且甚至影响很大。
此处,将描述基于虚拟对象与真实对象之间的位置关系的显示控制。为了使用户U感觉好像虚拟对象存在于真实空间中,例如,期望显示真实对象和虚拟对象,以使得在真实空间中存在的真实对象与虚拟对象之间的边界处感觉不到奇怪的感觉。因此,例如,基于关于真实对象的位置和形状的信息,可以以下面的方式执行显示控制以适当地表示真实对象与虚拟对象之间的位置关系。更具体地,可以显示虚拟对象以使得遮挡当从用户U观看时存在于真实对象的后侧的部分。注意,因为这样的显示控制在显示上述内容对象的情况下是有效的,因此例如,将使用应用与内容对象有关的显示控制的示例情况给出下面的描述。然而,可以在显示另一虚拟对象的情况下类似地应用显示控制,并且还可以将下面使用内容对象作为示例描述的技术类似地应用于其他虚拟对象。
将参照图2描述用于基于真实对象与内容对象之间的位置关系显示被适当地遮挡的内容对象的显示控制的示例。图2是用于描述用于显示被适当地遮挡的内容对象的显示控制的说明图。
在图2所示的示例中,真实对象R1存在于真实空间中。图2所示的真实空间图像RS1是例如通过由图1所示的向外摄像装置110捕获真实空间的图像而获得的真实空间的捕获图像。此外,在图2所示的示例中,基于已经预存储或从外部设备获取的内容数据VD1来显示内容对象V1。
此处,以下面的方式执行显示控制以便适当地表示真实对象R1与内容对象V1之间的位置关系。更具体地,显示内容对象V1以使得遮挡当从用户U观看时存在于真实对象R1的后侧的部分。
首先,用于根据真实对象R1的形状和位置执行遮挡(遮蔽)的虚拟对象(下文中,将称为遮蔽对象)M1与内容对象V1一起被布置在虚拟空间中。然后,在显示单元13上显示在虚拟空间中的与用户U的视点位置对应的位置处执行渲染而获得的虚拟空间图像VS1。注意,可以基于关于真实空间的信息来控制内容对象V1的位置和形状,或者可以预设内容对象V1的位置和形状。
此处,在遮蔽对象M1遮挡内容对象V1的情况下,期望执行显示控制以使得在遮挡区域中可看见真实对象R1。通过该显示控制,可以使用户U感觉好像内容对象V1存在于真实空间中。在该示例中,因为真实对象R1看起来遮挡内容对象V1,因此用户U感觉好像内容对象V1存在于真实空间中的真实对象R1的后侧。
为了产生上述效果,例如,如图2所示遮蔽对象M1具有黑色。注意,在本公开内容中,将使用如下示例情况来给出描述:其中,显示单元13具有执行显示以使得与图像中包括的黑色区域对应的部分让光通过的规范。然而,该规范可以取决于显示设备而变化。例如,一些显示设备显示具有指示透明度的另一颜色的区域以便使光通过,或者基于指示透明区域的信息显示透明区域以便使光通过。在这种情况下,根据显示设备的规格,可以使用指示透明度的其他颜色或指示透明区域的信息来代替黑色。
此外,为了产生上述效果,期望遮蔽对象M1具有与真实对象R1相同的形状,并且被布置在虚拟空间中的与真实对象R1的位置对应的位置处。换言之,在虚拟空间图像VS1被显示在显示单元13上的情况下,期望显示遮蔽对象M1以与真实对象R1在完全相同的位置处交叠。
然而,遮蔽对象M1的形状和位置不必与真实对象R1的形状和位置严格相同,而可以基本相同。例如,遮蔽对象M1的形状可以是与真实对象R1的形状非常相似的形状。同样在这种情况下,在该规范中,遮蔽对象M1的形状被解释为与真实对象R1的形状基本相同。
图2示出了当在显示单元13上显示虚拟空间图像VS1时通过显示单元13获得的用户U的视野范围AR1。如上所述,在视野范围AR1中的与虚拟空间图像VS1中的黑色区域对应的区域中,假定看见真实空间。换言之,在如上所述的遮蔽对象M1具有黑色的情况下,在显示单元13中的区域中,显示遮蔽对象M1的区域使光通过,并且假定用户在视觉上识别出真实对象R1遮挡内容对象V1。
此处,如上所述,如果以高亮度显示内容对象V1以使内容对象V1清晰可见,则用户U感觉包括真实对象R1的真实空间相对暗。因此,当在图2所示的视野范围AR1中时,用户U变得难以看到真实对象R1。
如上所述,因为内容对象V1似乎被真实对象R1遮挡,因此用户U可以感觉到好像内容对象V1存在于真实空间中。然而,如果变得难以看到真实对象R1,则内容对象V1似乎没有被真实对象R1遮挡,并且用户不太可能感觉到好像内容对象V1存在于真实空间中。
随后,将给出以下情况的描述:如果显示关注对象以使其与关注目标交叠以用于高亮显示关注目标,则变得相当难看到关注目标。
作为用于将注意力聚焦在关注目标上的方法,例如,考虑执行改变关注目标的颜色的显示控制。在这样的显示控制中,具有与关注目标基本相同的形状的关注对象被显示在与关注目标基本相同的位置处。也就是说,关注对象被显示为与关注目标交叠。例如,通过在显示单元13上显示具有预定颜色的关注对象以便使其与关注目标交叠,将真实空间中的光和由显示单元13发射的光相加并且关注目标的颜色看起来改变。
同时,取决于关注目标和关注对象的颜色,通过显示关注对象以使其与关注目标交叠,可以变得相当难看到关注目标。例如,如果显示具有与关注目标的颜色大大不同的颜色的关注对象,则通过显示单元13观看的关注目标看起来具有低可见度的颜色,并且可能变得难以看到关注对象。此外,如果关注目标看起来具有与人类通常识别的关注目标的颜色完全不同的颜色,则感觉关注目标不自然并且可能变得难以看到关注目标。
因此,从上述情况的观点出发,最终设计了本公开内容的实施方式。与上述示例类似,根据本实施方式的信息处理装置1在真实空间中显示具有与真实对象基本相同的形状的第一虚拟对象(在上述示例中的遮蔽对象或关注对象)以便在与真实对象基本相同的位置处被观看。此时,根据本实施方式的信息处理装置1可以通过执行显示控制使得第一虚拟对象具有与真实空间的颜色信息对应的视觉特征来增强真实对象的可见性。在下文中,将详细描述根据本实施方式的具有这种效果的信息处理装置1的配置。
<<2.配置>>
图3是示出根据本实施方式的信息处理装置1的配置示例的框图。如图3所示,信息处理装置1包括传感器单元11、控制单元12、显示单元13、扬声器14、通信单元15、操纵输入单元16和存储单元17。
(传感器单元11)
传感器单元11具有获取(感测)关于用户或周围环境的各种类型的信息的功能。例如,传感器单元11包括向外摄像装置110、向内摄像装置111、麦克风112、陀螺仪传感器113、加速度传感器114、方位传感器115、位置测量单元116和生物传感器117。注意,在此处列出的传感器单元11的具体示例为示例,并且本实施方式不限于这些。此外,可以提供多个传感器作为每种类型的传感器。
向外摄像装置110和向内摄像装置111均包括包含成像透镜、光圈、变焦透镜、聚焦透镜等的透镜系统、使透镜系统执行聚焦操作和变焦操作的驱动系统、通过对由透镜系统获得的成像光进行光电转换来生成成像信号的固态图像传感器阵列等。例如,固态图像传感器阵列可以通过电荷耦合器件(CCD)传感器阵列或互补金属氧化物半导体(CMOS)传感器阵列来实现。
注意,在本实施方式中,期望设置向外摄像装置110的视场角和方向以便捕获与用户在真实空间中的视野范围对应的区域的图像。此外,可以设置多个向外摄像装置110。此外,向外摄像装置110可以包括可以通过感测获取深度图的深度摄像装置。
麦克风112收集用户的语音和周围环境声音,并且将所收集的语音和声音作为语音数据输出至控制单元12。
陀螺仪传感器113例如由三轴陀螺仪传感器实现,并且检测角速度(旋转速度)。
加速度传感器114例如由三轴陀螺仪传感器实现,并且检测移动时的加速度。
方位传感器115例如由三轴地磁传感器(罗盘)实现,并且检测绝对方向(方位角方向)。
位置测量单元116具有基于从外部获取的信号来检测信息处理装置1的当前位置的功能。具体地,例如,位置测量单元116由全球定位系统(GPS)定位单元实现、通过接收来自GPS卫星的无线电波来检测信息处理装置1所存在的位置,以及向控制部12输出检测到的位置信息。此外,位置测量单元116可以是通过除了GPS之外的例如Wi-Fi(注册商标)、蓝牙(注册商标)、与移动电话、个人手持电话系统(PHS)、智能电话等的发射和接收、近场通信等来检测位置的传感器。
生物传感器117检测用户的生物信息。具体地,例如,生物传感器117可以检测心率、体温、排汗、血压、脉搏、呼吸、眨眼、眼球移动、注视时间、瞳孔直径的大小、血压、脑波、身体运动、身体位置、皮肤温度、皮肤电阻、微振动(MV)、肌电位、血氧饱和度(SPO2)等。
(控制单元12)
控制单元12用作算术处理单元和控制设备,并且根据各种程序来控制信息处理装置1中的整体操作。此外,如图6所示,根据本实施方式的控制单元12用作识别单元122和显示控制单元124。
识别单元122具有基于由传感器单元11感测到的各种类型的传感器信息(感测结果),执行关于用户的信息或关于用户周围的真实空间的信息的识别(包括检测)的功能。
例如,基于通过向外摄像装置110执行的图像捕获而获得的真实空间的捕获图像,识别单元122可以三维地识别用户周围的真实空间并且进一步识别存在于真实空间中的真实对象。
在由识别单元122执行的真实空间的三维识别中,在向外摄像装置110包括多个摄像装置的情况下,例如,可以使用通过对由多个摄像装置获得的多个捕获图像执行立体匹配而获得的深度图。此外,可以由识别单元122通过基于时间序列捕获图像在帧之间关联从捕获图像检测到的特征点来执行对真实空间的三维识别。此外,在向外摄像装置110包括深度摄像装置的情况下,可以基于通过感测深度摄像装置而获得的距离图像来执行对真实空间的三维识别。
此外,识别单元122可以识别真实对象的形状。由识别单元122识别的真实对象的形状可以是真实空间中的三维形状,或者可以是捕获图像中的二维形状。例如,可以通过基于真实空间的三维识别结果分离真实对象来识别真实空间中的真实对象的三维形状。此外,可以使用例如已知的区域分割技术来识别真实对象在捕获图像中的二维形状。
此外,识别单元122可以识别AR标记和AR标记的形状,该AR标记是用于在AR技术中显示虚拟对象的真实对象。例如,基于存储在存储单元17中的关于AR标记的信息,识别单元122可以从通过向外摄像装置110执行的图像捕获而获得的捕获图像中识别出AR标记和AR标记的形状。因为可以将已知技术用于AR标记的识别,因此此处省略详细描述。
此处,基于通过向外摄像装置110执行的图像捕获而获得的真实空间的捕获图像,识别单元122可以识别真实空间中的光源并且获取关于光源的光源信息。光源信息可以包括例如关于真实空间的亮度或色温的信息。
此外,识别单元122可以将用户的视线识别为关于用户的信息,并且获取关于用户的视线的视线信息。例如,识别单元122可以通过分析由向内摄像装置111执行的图像捕获而获得的用户的眼睛的图像来识别用户的视线。视线信息可以包括例如关于用户的注视点的信息。例如,在用户的视线停留在固定范围内预定时间或更长的情况下,识别单元122可以将存在于用户的视线上的点检测为注视点。注意,关于用户的注视点的信息可以是关于真实空间中的三维位置的信息,或者可以是关于通过向外摄像装置110执行的图像捕获而获得的捕获图像在真实空间中的二维位置的信息。此外,识别单元122检测用户的注视点的方法不限于该示例,并且可以使用已知的各种方法来执行检测。
显示控制单元124控制由具有光学透射性的显示单元13执行的显示,并且在真实空间中显示虚拟对象。各种虚拟对象由显示控制单元124显示在真实空间中,并且显示控制单元124可以显示例如上面已经描述的内容对象、遮蔽对象和关注对象等。此外,如上所述,显示控制单元124可以通过在虚拟空间中布置虚拟对象并且在显示单元13上显示虚拟空间图像来在真实空间中显示虚拟对象,虚拟空间图像通过在虚拟空间中的与用户的视点位置对应的位置处执行渲染而获得。
如上所述,显示控制单元124可以例如显示取决于由信息处理装置1提供的应用的各种内容对象(稍后描述的第二虚拟对象的示例)。显示控制单元124例如可以基于应用的设置和关于由识别单元122识别出的真实空间的信息,来识别内容对象在真实空间中的位置。显示控制单元124显示真实空间中的内容对象以便在真实空间中的内容对象的位置处被观看。
此外,如上所述,为了使用户感觉好像虚拟对象(例如,内容对象)存在于真实空间中,显示控制单元124执行显示控制以使得适当地表示真实对象与虚拟对象之间的位置关系。因此,显示控制单元124在真实空间中显示具有与真实对象基本相同的形状的遮蔽对象(稍后描述的第一虚拟对象的示例),以便在与真实对象基本相同的位置处被观看。由于已经参照图2描述了显示控制,因此此处省略详细描述。然而,根据本实施方式的由显示控制单元124显示的遮蔽对象与参照图2描述的遮蔽对象M1的不同之处在于,遮蔽对象具有与真实空间的颜色信息对应的视觉特征。
此外,如上所述,显示控制单元124在真实空间中显示用于高亮显示期望吸引用户注意力的关注目标的关注对象(稍后描述的第一虚拟对象的示例)。如上所述,显示控制单元124在真实空间中显示具有与关注目标基本相同的形状的关注对象以便在与关注目标基本相同的位置处被观看。然而,根据本实施方式的由显示控制单元124显示的关注对象与上述关注对象的不同之处在于,关注对象具有与真实空间的颜色信息对应的视觉特征。
以这种方式,由显示控制单元124显示的遮蔽对象和关注对象至少部分地具有相似的特征。在下文中,在不需要在遮蔽对象与关注对象之间进行区分的情况下,有时将遮蔽对象和关注对象统称为第一虚拟对象。
显示控制单元124可以从通过由向外摄像装置110执行的图像捕获而获得的真实空间的捕获图像中获取真实空间的颜色信息。例如,真实空间的颜色信息可以包括由识别单元122基于捕获图像执行与光源有关的识别而获取的光源信息。
此外,真实空间的颜色信息可以包括例如关于真实对象的颜色信息。关于真实对象的颜色信息可以包括例如关于真实对象的亮度的亮度信息、关于色相的色相信息、关于饱和度的饱和度信息、关于纹理的纹理信息等。此外,真实对象的亮度信息、色相信息和饱和度信息均可以是经统计处理的信息,并且均可以是例如关于真实对象的平均亮度、平均色相或平均饱和度的信息。可以从捕获图像中获取关于真实对象的颜色信息。
第一虚拟对象的视觉特征可以包括例如与真实对象的亮度对应的亮度。换言之,显示控制单元124可以基于关于真实对象的亮度的亮度信息来显示第一虚拟对象以使其具有与真实对象的亮度对应的亮度。利用该配置,因为当从用户观看时,具有与真实对象的亮度对应的亮度的第一虚拟对象被显示为叠加在真实对象上,因此增强了真实对象的可见性。
此处,在显示控制单元124在真实空间中显示与第一虚拟对象不同的第二虚拟对象的情况下,期望第一虚拟对象的亮度低于第二虚拟对象的亮度以用于将真实空间与每个虚拟对象融合。因此,显示控制单元124可以显示第一虚拟对象和第二虚拟对象,以使得第一虚拟对象的亮度变得低于第二虚拟对象的亮度。
注意,第二虚拟对象例如可以是上述内容对象。换言之,如上所述,显示控制单元124基于真实对象与内容对象之间的位置关系来显示遮蔽对象(第一虚拟对象的示例)和内容对象(第二虚拟对象的示例)。
注意,参照图5,稍后将具体给出显示控制单元124将遮蔽对象显示为上述第一虚拟对象并且将内容对象显示为第二虚拟对象的示例的描述。
此外,第一虚拟对象的视觉特征不限于上述示例。例如,第一虚拟对象的视觉特征可以包括与真实对象的纹理对应的纹理。换言之,显示控制单元124可以基于真实对象的纹理信息显示第一虚拟对象,以使得第一虚拟对象具有与真实对象的纹理对应的纹理。注意,稍后将参照图6具体描述显示控制单元124将遮蔽对象显示为第一虚拟对象的示例。此外,稍后将参照图13具体描述显示控制单元124将作为第一虚拟对象的关注对象显示为第一虚拟对象的示例。
此外,第一虚拟对象的视觉特征可以包括与光源信息对应的亮度。例如,显示控制单元124可以基于光源信息显示第一虚拟对象,以使得第一虚拟对象具有与真实空间的亮度对应的亮度。具体地,在真实空间较暗的情况下,显示控制单元124可以显示第一虚拟对象以使得第一虚拟对象具有较高亮度。注意,稍后将参照图7具体描述显示控制单元124将遮蔽对象显示为第一虚拟对象的示例。
注意,显示控制单元124对光源信息的使用不限于该示例。显示控制单元124可以显示第二虚拟对象以便具有与光源信息对应的颜色。例如,显示控制单元124可以根据在光源信息中包括的关于色温的信息改变已经由应用最初设置的内容对象(第二虚拟对象的示例)的颜色。注意,稍后将参照图8具体描述显示控制单元124将内容对象显示为第二虚拟对象的示例。
此外,显示控制单元124可以在真实空间中显示第一虚拟对象的阴影和第二虚拟对象的阴影。阴影可以是基于在虚拟空间中设置的虚拟光源而生成(渲染)的阴影。注意,显示控制单元124可以基于真实空间的光源信息来设置虚拟光源,或者可以独立于真实空间的光源信息来设置虚拟光源。稍后将参照图9和图10具体地描述示例。
至此,已经描述了由显示控制单元124显示的第一虚拟对象和第二虚拟对象。显示控制单元124显示第一虚拟对象以使其具有上述视觉特征中的任一个或具有多个视觉特征的组合。
显示控制单元124可以动态地控制上述视觉特征中的第一虚拟对象的视觉特征。在下文中,将描述控制第一虚拟对象的视觉特征的若干示例。
显示控制单元124可以基于真实对象与内容对象之间的位置关系来控制遮蔽对象的视觉特征。
显示控制单元124可以基于真实对象与内容对象之间的位置关系来确定遮蔽对象是否遮挡内容对象的至少一部分。然后,在显示控制单元124显示遮蔽对象和内容对象使得遮蔽对象遮挡内容对象的至少一部分的情况下,显示控制单元124可以执行控制以使得视觉特征对于遮蔽对象中的每个区域不同。
例如,显示控制单元124可以控制遮蔽对象的视觉特征以使得遮蔽对象的被内容对象遮挡的第一区域具有第一视觉特征,并且遮蔽对象的排除第一区域的第二区域具有不同于第一视觉特征的第二视觉特征。注意,稍后将参照图11具体描述该示例。
此外,显示控制单元124可以取决于遮蔽对象是否遮挡内容对象的至少一部分来控制遮蔽对象的视觉特征。例如,显示控制单元124可以执行控制以使得遮蔽对象的视觉特征在遮蔽对象遮挡内容对象的至少一部分的情况与遮蔽对象不遮挡内容对象的情况之间不同。例如,在识别单元122识别出多个真实对象的情况下,如果增强了所有真实对象的可见性,则内容对象的可见性可能相对降低。在这种情况下,例如,显示控制单元124控制不遮挡内容对象的遮蔽对象的视觉特征以使得与遮蔽对象有关的真实对象的可见性没有改变或没有被过多增强。然后,显示控制单元124控制视觉特征以使得更多地增强与遮挡内容对象的遮蔽对象有关的真实对象的可见性。利用该配置,可以在不降低内容对象的可见性的情况下使用户感觉到好像内容对象存在于真实空间中。
此外,显示控制单元124可以基于是否可以显示整个第一虚拟对象以使得第一虚拟对象具有与真实对象基本相同的形状并在与真实对象基本相同的位置处被观看,来控制第一虚拟对象的视觉特征。稍后将参照图12具体描述该示例。
此外,显示控制单元124可以基于视线信息控制第一虚拟对象的视觉特征。例如,显示控制单元124可以基于在视线信息中包括的关于注视点的信息来识别用户在真实空间中的注视区域,并且基于注视区域来控制第一虚拟对象的视觉特征。
例如,显示控制单元124可以控制第一虚拟对象的视觉特征以使得第一虚拟对象的与注视区域对应的第三区域具有第三视觉特征,并且第一虚拟对象的排除第三区域的第四区域具有不同于第三视觉特征的第四视觉特征。注意,稍后将参照图14和图15具体地描述该示例。
(显示单元13)
显示单元13具有光透射性,并且例如由使用全息光学技术执行显示的透镜单元、液晶显示(LCD)设备、有机发光二极管(OLED)设备等来实现。
(扬声器14)
扬声器14根据控制单元12的控制再现声音信号。
(通信单元15)
通信单元15是用于以有线/无线方式与另一设备执行数据的发送和接收的通信模块。通信单元15使用诸如例如有线局域网(LAN)、无线LAN、无线保真(Wi-Fi,注册商标)、红外通信、蓝牙(注册商标)或近场通信/非接触通信的方法直接或经由网络接入点与外部设备进行无线通信。
(操纵输入单元16)
操纵输入单元16由具有物理结构的操纵构件(例如开关、按钮和控制杆)来实现。
(存储单元17)
存储单元17存储用于上述控制单元12执行功能的程序和参数。例如,存储单元17可以存储要用于识别单元122识别AR标志的关于AR标志的信息,以及关于要由显示控制单元124显示的内容对象的信息。
至此,已经具体描述了根据本实施方式的信息处理装置1的配置,但是根据本实施方式的信息处理装置1的配置不限于图3所示的示例。例如,信息处理装置1的控制单元12的功能的至少一部分可以存在于经由通信单元15连接的其他设备中。
<<3.操作>>
至此,已经描述了根据本实施方式的信息处理装置1的配置示例。随后,将参照图4描述根据本实施方式的信息处理装置1的操作示例。图4是示出根据本实施方式的信息处理装置1的操作示例的流程图。
如图4所示,首先,由传感器单元11执行感测,并且例如,向外摄像装置110通过捕获真实空间的图像来获取捕获图像(S12)。随后,基于在步骤S12中执行的感测结果,控制单元12的识别单元122对与用户有关的信息和与用户周围的真实空间有关的信息执行识别(S14)。
随后,显示控制单元124在虚拟空间中布置虚拟对象并且在虚拟空间中的与用户的视点位置对应的位置处执行渲染(S16)。然后,显示控制单元124在显示单元13上显示通过在步骤S16中的执行渲染而获得的虚拟空间图像(S18)。
在步骤S16中,根据本实施方式的显示控制单元124在虚拟空间中布置第一虚拟对象,该第一虚拟对象具有与真实空间的颜色信息对应的视觉特征,并且具有与真实对象基本相同的形状。此外,布置第一虚拟对象的位置对应于真实对象在真实空间中的位置。因此,如果在步骤S18中在显示单元13上显示通过在虚拟空间中的与用户的视点位置对应的位置处执行渲染而获得的虚拟空间图像,则在与真实对象基本相同的位置处观看第一虚拟对象。
<<4.显示控制的示例>>
至此,已经描述了根据本实施方式的信息处理装置1的操作示例。随后,将描述根据本实施方式的显示控制单元124的具体示例。在下文中,在参照图5至图12描述显示控制单元124显示遮蔽对象和内容对象的示例之后,将参照图13至图15描述显示控制单元124显示关注对象的示例。
<4-1.显示遮蔽对象和内容对象的示例>
如上所述,显示控制单元124将遮蔽对象显示为第一虚拟对象并且将内容对象显示为第二虚拟对象。在下文中,首先,将描述在显示控制单元124显示遮蔽对象和内容对象的情况下执行的显示控制的若干具体示例。
(遮蔽对象具有与真实对象的亮度对应的亮度的示例)
首先,将参照图5描述显示控制单元124显示具有与真实对象的亮度对应的亮度(视觉特征的示例)的遮蔽对象的示例。图5是用于描述遮蔽对象具有与真实对象的亮度对应的亮度的示例的说明图。
在图5所示的示例中,真实对象R11存在于真实空间中,并且识别单元122基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS11识别真实对象R11。此外,在图5所示的示例中,基于已经预存储或从外部设备获取的内容数据VD11来显示内容对象V11。
为了适当地表示真实对象R11与内容对象V11之间的位置关系,显示控制单元124将遮蔽对象M11与内容对象V11一起布置在虚拟空间中。因为与内容对象V11和遮蔽对象M11的位置和形状有关的控制与已经参照图2描述的与内容对象V1和遮蔽对象M1的位置和形状有关的控制类似,因此省略该描述。
此处,在图5所示的示例中布置在虚拟空间中的遮蔽对象M11与参照图2描述的遮蔽对象M1的不同之处在于遮蔽对象M11具有与真实对象的亮度对应的亮度(视觉特征的示例)。在图5所示的示例中,遮蔽对象M11具有比真实空间图像RS11中的真实对象R11的亮度更低(更暗)的亮度。
然而,在图5所示的示例中,与参照图2描述的遮蔽对象M1不同,遮蔽对象M11具有比黑色更高的亮度。因此,在通过渲染虚拟空间而获得的虚拟空间图像VS11被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR11中,真实对象R11在添加了遮蔽对象M11的亮度的状态下被用户观看。因此,用户变得更容易看到真实对象R11,并且因为内容对象V11看起来被真实对象R11遮挡,因此用户可以感觉到好像内容对象V11存在于真实空间中。
注意,在图5所示的示例中,遮蔽对象M11的亮度可以在整个遮蔽对象M11中是相同的亮度。此外,在这种情况下,遮蔽对象M11的亮度可以是低于真实空间图像RS11中的真实对象R11的平均亮度的亮度。
此外,在图5所示的示例中,可以基于不同于真实对象R11的亮度的关于颜色的参数来识别与遮蔽对象M11的亮度不同的关于颜色的参数(例如,色相或饱和度),或者可以使用预定参数。
此外,在图5所示的示例中,遮蔽对象M11的亮度低于内容对象V11的亮度。通过该配置,将每个虚拟对象容易地与真实空间融合。
(遮蔽对象具有与真实对象的纹理对应的纹理的示例)
随后,将参照图6描述显示控制单元124显示具有与真实对象的纹理对应的纹理的遮蔽对象的示例。图6是用于描述遮蔽对象具有与真实对象的纹理对应的纹理的示例的说明图。
在图6所示的示例中,真实对象R12存在于真实空间中,并且识别单元122基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS12识别真实对象R12。此外,在图6所示的示例中,基于已经预存储或从外部设备获取的内容数据VD12来显示内容对象V12。
为了适当地表示真实对象R12与内容对象V12之间的位置关系,显示控制单元124将遮蔽对象M12与内容对象V12一起布置在虚拟空间中。因为与内容对象V12和遮蔽对象M12的位置和形状有关的控制与已经参照图2描述的与内容对象V1和遮蔽对象M1的位置和形状有关的控制类似,因此省略该描述。
此处,在图6所示的示例中布置在虚拟空间中的遮蔽对象M13与图2中的遮蔽对象M1和图5中的遮蔽对象M11的不同之处在于遮蔽对象M13具有与真实对象的纹理对应的纹理(视觉特征的示例)。在图6所示的示例中,遮蔽对象M12具有通过减小真实空间图像RS12中的真实对象R12的纹理的亮度而获得的纹理。
然后,在通过渲染虚拟空间而获得的虚拟空间图像VS12被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR12中,真实对象R12在使遮蔽对象M12的纹理交叠的状态下被用户观看。因此,真实对象R12的纹理变得更清晰,并且用户变得更容易看到真实对象R12。
(遮蔽对象具有与真实空间的亮度对应的亮度的示例)
随后,将参照图7描述显示控制单元124显示遮蔽对象的示例,该遮蔽对象具有与关于真实空间的亮度的信息(光源信息的示例)对应的亮度。图7是用于描述遮蔽对象具有与关于真实空间的亮度的信息对应的亮度的示例的说明图。
在图7所示的示例中,真实对象R13存在于真实空间中,并且识别单元122基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS13识别出真实对象R13。此外,识别单元122基于真实空间图像RS13获取光源信息。例如,在图7所示的示例中,可以获取指示真实空间比图5所示的示例更暗的光源信息。此外,在图7所示的示例中,基于已经预存储或从外部设备获取的内容数据VD13来显示内容对象V13。
为了适当地表示真实对象R13与内容对象V13之间的位置关系,显示控制单元124将遮蔽对象M13与内容对象V13一起布置在虚拟空间中。因为与内容对象V13和遮蔽对象M13的位置和形状有关的控制与已经参照图2描述的与内容对象V1和遮蔽对象M1的位置和形状有关的控制类似,因此省略该描述。
此处,在图7所示的示例中布置在虚拟空间中的遮蔽对象M13与图2中的遮蔽对象M1、图5中的遮蔽对象M11和图6中的遮蔽对象M12的不同之处在于遮蔽对象M13具有与光源信息对应的亮度。如上所述,在图7所示的示例中,由于真实空间比图5所示的示例更暗,因此遮蔽对象M13具有比图5所示的遮蔽对象M11更高的亮度。
然后,在通过渲染虚拟空间而获得的虚拟空间图像VS13被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR13中,真实对象R13在添加了遮蔽对象M13的颜色的状态下被用户观看。因此,即使在真实空间黑暗的情况下,用户也变得更容易看到真实对象R13。
注意,在真实空间明亮的情况下执行的显示控制可以类似于参照图5描述的示例。更具体地,在真实空间明亮的情况下显示的遮蔽对象具有比图7所示的遮蔽对象M13更低的亮度。然而,因为真实空间明亮,因此即使在显示具有低亮度的遮蔽对象的情况下,也容易看到真实对象。
注意,如果在真实空间明亮的情况下显示具有高亮度的遮蔽对象,则真实对象看起来太亮并且可能变得相对难以看到内容对象。因此,如上所述,例如,根据真实空间的亮度,在真实空间较暗的情况下通过显示具有较高亮度的遮蔽对象,可以确保真实对象和内容对象两者的可见性。
(内容对象具有与真实空间的色温对应的颜色的示例)
随后,将参照图8描述显示控制单元124显示具有与关于真实空间的色温的信息对应的颜色(光源信息的示例)的内容对象的示例。图8是用于描述内容对象具有与关于真实空间的色温的信息对应的颜色的示例的说明图。
在图8所示的示例中,真实对象R14存在于真实空间中,并且识别单元122基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS14识别真实对象R14。此外,识别单元122基于真实空间图像RS14将关于色温的信息获取为光源信息。此外,在图8所示的示例中,基于已经预存储或从外部设备获取的内容数据VD14来显示内容对象V14。
为了适当地表示真实对象R14与内容对象V14之间的位置关系,显示控制单元124将遮蔽对象M14与内容对象V14一起布置在虚拟空间中。因为与内容对象V14和遮蔽对象M14的位置和形状有关的控制与已经参照图2描述的与内容对象V1和遮蔽对象M1的位置和形状有关的控制类似,因此省略该描述。
此处,在图8所示的示例中布置在虚拟空间中的内容对象V14与图2中的内容对象V14等的不同之处在于图8中的内容对象V14具有与关于色温的信息(光源信息的示例)对应的颜色。此外,在图8所示的示例中,布置在虚拟空间中的遮蔽对象M14可以具有上述视觉特征中的任一个,并且此外,遮蔽对象M14的视觉特征可以根据关于色温的信息改变。例如,显示控制单元124可以反映真实空间在虚拟空间中的色温,以使得内容对象V14和遮蔽对象M14具有与关于真实空间的色温的信息对应的颜色。
然后,在通过渲染虚拟空间而获得的虚拟空间图像VS14被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR14中,真实对象R14在添加了遮蔽对象M14的颜色的状态下被用户观看。因此,即使在真实空间黑暗的情况下,用户也变得更容易看到真实对象R14。此外,因为内容对象V14具有与真实空间的色温对应的颜色,因此将内容对象V14与真实空间融合,并且用户可以感觉到好像内容对象V14存在于真实空间中。
(显示虚拟对象的阴影的示例)
随后,将参照图9至图10描述显示控制单元124在真实空间中显示遮蔽对象的阴影和内容对象的阴影的示例。图9和图10是描述在真实空间中显示遮蔽对象的阴影和内容对象的阴影的情况的示例的说明图。首先,作为比较例,将参照图9描述在与图2类似地显示具有黑色的遮蔽对象的情况下显示遮蔽对象的阴影和内容对象的阴影的示例。
在图9所示的示例中,真实对象R2存在于真实空间中,并且基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS2识别出真实对象R2。此外,在图9所示的示例中,基于已经预存储或从外部设备获取的内容数据VD2来显示内容对象V2。
为了适当地表示真实对象R2与内容对象V2之间的位置关系,遮蔽对象M2与内容对象V2一起被布置在虚拟空间中。已经参照图2描述与内容对象V2和遮蔽对象M2的位置和形状有关的控制。因为该控制类似于与内容对象V1和遮蔽对象M1的位置和形状有关的控制,因此省略该描述。此外,在图9所示的示例中,与图2所示的遮蔽对象M1相似,遮蔽对象M2具有黑色。
此处,在图9所示的示例中,在虚拟空间中设置虚拟光源,并且存在被虚拟光源照射的照明区域L2。此外,通过虚拟光源,在虚拟空间中生成遮蔽对象M2的阴影SM2和内容对象V2的阴影SV2。
然后,在通过渲染虚拟空间而获得的虚拟空间图像VS2被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR2中,除了内容对象V2之外,用户还观看照明区域L2、阴影SM2和阴影SV2。然而,因为遮蔽对象M2具有黑色,因此用户难以看到真实对象R2。因此,用户变得难以识别阴影SM2是与真实对象R2对应的阴影。因此,用户可能对阴影SM2的存在感到奇怪的感觉。
因此,类似于上述其他具体示例,根据本实施方式的显示控制单元124显示具有与真实空间的颜色信息对应的视觉特征的遮蔽对象,并且还显示遮蔽对象的阴影。将参照图10描述该示例。
在图10所示的示例中,真实对象R15存在于真实空间中,并且基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS15识别出真实对象R15。此外,在图10所示的示例中,基于已经预存储或从外部设备获取的内容数据VD15来显示内容对象V15。
为了适当地表示真实对象R15与内容对象V15之间的位置关系,遮蔽对象M15与内容对象V15一起被布置在虚拟空间中。因为与内容对象V15和遮蔽对象M15的位置和形状有关的控制与已经参照图2描述的与内容对象V1和遮蔽对象M1的位置和形状有关的控制类似,因此省略该描述。
此处,在图10所示的示例中,与图5所示的示例相似,遮蔽对象M15具有与真实对象R15的亮度对应的亮度。此处,在图10所示的示例中,与图9所示的示例类似,在虚拟空间中设置虚拟光源,并且存在被虚拟光源照射的照明区域L15。此外,通过虚拟光源,在虚拟空间中生成遮蔽对象M15的阴影SM15和内容对象V15的阴影SV15。
然后,在通过渲染虚拟空间而获得的虚拟空间图像VS15被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR15中,除了内容对象V15之外,用户还观看照明区域L15、阴影SM15和阴影SV15。此处,在图10所示的示例中,由于与图5所示的示例类似用户变得更容易看到真实对象R15,因此用户感觉好像阴影SM15是真实对象R15的阴影。此外,因为由与阴影SM15相同的虚拟光源生成的阴影SV15被显示为内容对象V15的阴影,因此用户可以更加感觉好像内容对象V15存在于真实空间中。
(基于位置关系控制遮蔽对象的视觉特征的示例)
随后,将参照图11描述显示控制单元124基于真实对象与内容对象之间的位置关系来控制遮蔽对象的视觉特征的示例。图11是用于描述基于真实对象与内容对象之间的位置关系来控制遮蔽对象的视觉特征的示例的说明图。
在图11所示的示例中,真实对象R16存在于真实空间中,并且基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS16识别出真实对象R16。此外,在图11所示的示例中,基于已经预存储或从外部设备获取的内容数据VD16来显示内容对象V16。
为了适当地表示真实对象R16与内容对象V16之间的位置关系,显示控制单元124将遮蔽对象M16与内容对象V16一起布置在虚拟空间中。与内容对象V16和遮蔽对象M16的位置和形状有关的控制与已经参照图2描述的与内容对象V1和遮蔽对象M1的位置和形状有关的控制类似。换言之,基于真实对象R16的位置布置遮蔽对象M16。因此,可以基于真实对象R16与内容对象V16之间的位置关系来确定遮蔽对象M16是否遮挡内容对象V16。
在确定遮蔽对象M16遮挡内容对象V16的至少一部分的情况下,显示控制单元124基于真实对象与内容对象之间的位置关系来控制视觉特征以便对于遮蔽对象M16中的每个区域不同。
在图11所示的示例中,遮蔽对象M16的遮挡内容对象V16的第一区域M162具有第一视觉特征。此外,遮蔽对象M16的排除第一区域M162的第二区域M164具有与第一视觉特征不同的第二视觉特征。
然后,在通过渲染虚拟空间而获得的虚拟空间图像VS16被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR16中,真实对象R13在添加了遮蔽对象M16的颜色的状态下被用户观看。因此,存在于内容对象V16之前的真实对象R13的区域R162和剩余区域R164在可见性上不同。通过这种配置,可以使用户感觉好像内容对象V16存在于真实空间中。
注意,在图11所示的示例中,与图5所示的示例类似,第一视觉特征是与真实对象R16的亮度对应的亮度,并且第二视觉特征是黑色。然而,本技术不限于该示例,并且显示控制单元124可以将上述视觉特征中的任一个或多个视觉特征的组合选择为第一视觉特征或第二视觉特征。
(基于是否可显示整个遮蔽对象来控制遮蔽对象的视觉特征的示例)
随后,将参照图12描述显示控制单元124基于是否可显示整个遮蔽对象来控制遮蔽对象的视觉特征的示例。图12是用于描述基于是否可显示整个遮蔽对象来控制遮蔽对象的视觉特征的示例的说明图。
图12示出了与图5所示的示例类似地显示具有与真实对象R17的亮度对应的亮度的遮蔽对象的情况下获得的用户的视野范围AR17。然而,在图12中,与图5中所示的示例相比,真实对象R17更大或者真实对象R17更靠近显示单元13。因此,不能显示整个遮蔽对象以使得遮蔽对象具有与真实对象R17基本相同的形状并且在与真实对象R17基本相同的位置被观看。
因此,在图12所示的示例中,真实对象R17的与显示单元13的显示区域交叠的区域R172和剩余区域R174在真实对象R17的可见性上不同,并且用户可能感到奇怪的感觉。
因此,在不能显示整个遮蔽对象以使得遮蔽对象具有与真实对象基本相同的形状并且在与真实对象基本相同的位置处被观看的情况下,显示控制单元124可以显示具有黑色(视觉特征的示例)的遮蔽对象。利用该配置,真实对象的可见性在与显示单元13的显示区域交叠的区域与剩余区域之间不变化,并且减少了用户感觉到的奇怪的感觉。
<4-2.显示关注对象的示例>
至此,已经描述了显示控制单元124将遮蔽对象显示为第一虚拟对象并且将内容对象显示为第二虚拟对象的示例。随后,将参照图13至图15描述显示控制单元124将关注对象显示为第一虚拟对象的示例。
(关注对象具有与真实对象的纹理对应的纹理的示例)
首先,将参照图13描述显示控制单元124显示具有与真实对象的纹理对应的纹理(视觉特征的示例)的关注对象的示例。图13是用于描述关注对象具有与真实对象的纹理对应的纹理的示例的说明图。
在图13中,在真实空间中存在作为真实对象的楼层地图R21。此外,基于通过捕获真实空间的图像的摄像装置110获得的真实空间图像RS21,识别单元122将楼层地图R21中的商店区域R211至R216识别为相互不同的AR标记(真实对象)。
在图13所示的示例中,在商店区域R211至R216中,商店区域R216是期望吸引用户注意力的关注目标。因此,显示控制单元124显示具有与作为关注目标的商店区域R216基本相同的形状的关注对象V21,以便在与商店区域R216基本相同的位置处被观看。例如,显示控制单元124可以在虚拟空间中布置关注对象V21,并且可以在显示单元13上显示通过在虚拟空间中的与用户的视点位置对应的位置处执行渲染而获得的虚拟空间图像VS21。
此外,在图13所示的示例中,关注对象V21具有与从真实空间图像RS21获取的关注目标(商店区域R216)的纹理对应的纹理(视觉特征的示例)。注意,与关注目标的纹理对应的纹理可以是从真实空间图像RS21获取的关注目标的纹理本身,或者可以是具有经调整的颜色的纹理。此外,在关注对象V21具有二维形状的情况下,关注对象V21可以具有通过根据向外摄像装置110与用户的视点位置之间的差异来使关注目标的纹理变形而获得的纹理。
在通过渲染这样的虚拟空间而获得的虚拟空间图像VS21被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR21中,作为关注目标的商店区域R216在添加了关注对象V21的颜色的状态下被用户观看。因此,与周围商店区域R211至R215相比,变得更容易看到作为关注目标的商店区域R216,并且商店区域R216可以吸引用户的注意。
(基于视线信息控制关注对象的视觉特征的示例)
随后,将参照图14和图15描述显示控制单元124基于视线信息控制关注对象的视觉特征的示例。图14和图15是用于描述基于视线信息来控制遮蔽对象的视觉特征的示例的说明图。
在图14所示的示例中,作为关注目标的真实对象R22存在于真实空间中。此外,识别单元122基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS22识别出真实对象R22。此外,在图14所示的示例中,通过识别单元122获取关于注视点GP22的信息作为视线信息。然后,显示控制单元124将注视点GP22周围的邻近区域识别为用户正在注视的注视区域GR22。
此外,显示控制单元124在虚拟空间中布置关注对象V22。然而,在图14所示的示例中,显示控制单元124基于注视区域GR22控制关注对象V22的视觉特征。具体地,显示控制单元124执行控制以使得视觉特征在关注对象V22中的与注视区域GR22对应的区域V221(第三区域)与剩余区域V222(第四区域)之间变化。在图14所示的示例中,区域V221具有与真实对象R22的注视区域GR22的纹理(第三视觉特征的示例)对应的纹理。此外,在图14所示的示例中,区域V222具有黑色(第四视觉特征的示例)。
在通过渲染这样的虚拟空间而获得的虚拟空间图像VS22被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR22中,因为在区域V222的纹理被交叠的状态下观看由用户注视的真实对象R22的注视区域GR22,因此与其他区域相比可见性高。利用该配置,可以增强由用户注视的注视区域的可见性。
注意,在以上描述中,显示关注对象V22以使得区域V221和区域V222在与真实对象R22对应的关注对象V22中的视觉特征不同,但是本技术不限于该示例。例如,显示控制单元124可以通过基于在真实空间中识别出的注视区域执行显示控制以使得在与注视区域的纹理对应的纹理与注视区域交叠的情况下观看该纹理来获得相似的效果。例如,可以不考虑真实对象R22的存在来执行显示控制。
此外,在以上描述中,已经描述了增强注视区域的可见性的示例,但是本技术不限于该示例。例如,显示控制单元124也能够相对地增强注视区域的可见性并且通过降低真实空间中识别出的不同于注视区域的区域的可见性来获得类似的效果。将参照图15描述该示例。
在图15所示的示例中,作为关注目标的真实对象R23存在于真实空间中。此外,识别单元122基于由捕获真实空间的图像的摄像装置110获得的真实空间图像RS23识别出真实对象R23。此外,在图15所示的示例中,通过识别单元122将关于注视点GP23的信息获取为视线信息。然后,显示控制单元124将注视点GP23周围的邻近区域识别为用户正在注视的注视区域GR23。
此外,显示控制单元124在虚拟空间中布置关注对象V23。然而,在图15所示的示例中,显示控制单元124基于注视区域GR23控制关注对象V23的视觉特征。具体地,显示控制单元124执行控制以使得视觉特征在关注对象V23中的与注视区域GR23对应的区域V231(第三区域)与剩余区域V232(第四区域)之间变化。在图15所示的示例中,区域V231具有黑色(第三视觉特征的示例)。此外,在图15所示的示例中,区域V232具有高亮度的白色(第四视觉特征的示例)。
在通过渲染这样的虚拟空间而获得的虚拟空间图像VS23被显示在显示单元13上的情况下,在通过显示单元13获得的用户的视野范围AR23中,亮度不被添加到用户所注视的真实对象R23的注视区域GR23。然而,在真实对象R23的不同于注视区域GR22的区域中,添加了具有高亮度的白色并且可见性降低。因此,相对地增强了注视区域GR22的可见性。注意,与上述示例类似地,显示控制单元124也可以通过基于在真实空间中识别出的注视区域执行显示控制以使得真实空间中的不同于注视区域的区域的可见性降低来获得相似的效果。例如,可以不考虑真实对象R23的存在来执行显示控制。
<<5.硬件配置示例>>
至此,已经描述了本公开内容的实施方式。最后,将参照图16描述根据本公开内容的实施方式的信息处理装置的硬件配置。图16是示出根据本公开内容的实施方式的信息处理装置1的硬件配置的示例的框图。通过下面将描述的软件与硬件之间的协作来实现由根据本公开内容的实施方式的信息处理装置1执行的信息处理。
如图16所示,信息处理装置1包括中央处理单元(CPU)901、只读存储器(ROM)902、随机存取存储器(RAM)903和主机总线904a。此外,信息处理装置1包括桥接器904、外部总线904b、接口905、输入设备906、输出设备907、存储设备908、驱动器909、连接端口911、通信设备913和传感器915。信息处理装置1可以包括替代CPU 901或与CPU 901一起的诸如数字信号处理器(DSP)或专用集成电路(ASIC)的处理电路。
CPU 901用作算术处理单元和控制设备,并且根据各种程序来控制信息处理装置1中的整体操作。此外,CPU 901可以是微处理器。ROM 902存储由CPU 901使用的程序、操作参数等。RAM 903临时存储在CPU 901的执行中使用的程序、在执行中适当地改变的参数等。CPU 901可以形成例如控制单元12。
CPU 901、ROM 902和RAM 903通过包括CPU总线等的主机总线904a相互连接。主机总线904a经由桥接器904与外部总线904b(例如外围部件互连/接口(PCI)总线)连接。注意,主机总线904a、桥接器904和外部总线904b不一定被分离地配置,并且这样的功能可以被安装在单个总线上。
例如,输入设备906由用户通过其输入信息的设备(例如鼠标、键盘、触摸面板、按钮、麦克风、开关和控制杆)来实现。此外,输入设备906可以是使用红外线或其他无线电波的遥控设备,或者支持例如信息处理装置1的操纵的外部连接设备(例如移动电话或个人数字助理(PDA))。此外,输入设备906可以包括基于由用户使用上述输入装置输入的信息来生成输入信号,并且向例如CPU 901输出输入信号的输入控制电路等。信息处理装置1的用户可以通过操纵输入设备906向信息处理装置1输入各种类型的数据或命令处理操作。
输出设备907由可以在视觉上或听觉上向用户通知所获取的信息的设备来形成。作为这样的设备,存在诸如CRT显示设备、液晶显示设备、等离子体显示设备、EL显示设备或灯的显示设备、诸如扬声器和耳机的声音输出设备、打印机设备等。输出设备907输出例如通过信息处理装置1执行的各种类型的处理而获取的结果。具体地,显示设备以各种形式(例如文本、图像、表格和图形)在视觉上显示通过由信息处理装置1执行的各种类型的处理而获取的结果。另一方面,声音输出设备将包括再现的声音数据、音频数据等的音频信号转换成模拟信号并且在听觉上输出模拟信号。输出设备907例如可以形成显示单元13。
存储设备908是作为信息处理装置1的存储单元的示例形成的用于数据存储的设备。例如,存储设备908由诸如HDD的磁存储设备、半导体存储设备、光存储设备、磁光存储设备等来实现。存储设备908可以包括存储介质、用于在存储介质上记录数据的记录设备、用于从存储介质读取数据的读取设备、用于删除存储介质上记录的数据的删除设备等。存储设备908存储由CPU 901执行的程序和各种类型的数据、从外部获得的各种类型的数据等。存储设备908例如可以形成存储单元17。
驱动器909是存储介质的读取器/写入器并且被包括在信息处理装置1中或者外部地附接至信息处理装置1。驱动器909读取在附接的可移除存储介质(例如,磁盘、光盘、磁光盘或半导体存储器)上所记录的信息,并且将该信息输出至RAM 903。此外,驱动器909可以将信息写入可移除存储介质。
连接端口911是与外部设备连接的接口并且是去往外部设备的连接器,例如可以由通用串行总线(USB)等通过该连接器传输数据。
通信设备913例如是由用于连接至网络920等的通信设备形成的通信接口。通信设备913例如是用于有线或无线局域网(LAN)、长期演进(LTE)、蓝牙(注册商标)或无线USB(WUSB)的通信卡等。此外,通信设备913可以是用于光通信的路由器、用于非对称数字用户线路(ADSL)的路由器、各种通信调制解调器等。例如,通信设备913可以根据预定的协议(例如TCP/IP)向因特网和其他通信设备发送信号等/从因特网和其他通信设备接收信号等。通信设备913例如可以形成通信单元15。
例如,传感器915对应于下述各种类型的传感器:例如加速度传感器、陀螺仪传感器、地磁传感器、光传感器、声音传感器、距离测量传感器和力传感器。传感器915获取与信息处理装置1自身的状态有关的信息(例如,信息处理装置1的姿势和移动速度)以及与信息处理装置1的周围环境有关的信息(例如,信息处理装置1附近的亮度和噪声)。此外,传感器915可以包括接收GPS信号并且测量设备的纬度、经度和海拔高度的GPS传感器。传感器915例如可以形成传感器单元11。
注意,网络920是从连接至网路920的设备发送的信息的无线发送路径或有线发送路径。例如,网络920可以包括公共电路网络(例如因特网、电话电路网络或卫星通信网络)、包括以太网(注册商标)的各种局域网(LAN)、广域网(WAN)等。此外,网络920可以包括专用电路网络,例如互联网协议-虚拟专用网络(IP-VPN)。
至此,已经描述了能够实现根据本公开内容的实施方式的信息处理装置1的功能的硬件配置的示例。上述部件可以使用通用构件来实现,或者可以通过专用于各个部件的功能的硬件来实现。因此,根据在执行本公开内容的实施方式时的时间处的技术水平,可以适当地改变要使用的硬件配置。
注意,可以创建用于实现如上所述根据本公开内容的实施方式的信息处理装置1的功能中的每个功能的计算机程序,并且可以将该计算机程序安装在PC等上。此外,也可以提供其上存储有这样的计算机程序的计算机可读记录介质。记录介质例如是磁盘、光盘、磁光盘、快闪存储器等。此外,在不使用记录介质的情况下可以例如通过网络来分发上述计算机程序。
<<6.结论>>
如上所述,根据本公开内容的实施方式,可以增强真实对象的可见性。
至此,已经参照附图详细描述本公开内容的优选实施方式,但是本公开内容的技术范围不限于上述示例。本领域技术人员可以在所附权利要求的范围内找到各种变更和修改,并且应当理解,这些变更和修改将自然地落入本公开内容的技术范围内。
例如,显示控制单元124可以根据时间顺序以逐步的方式显示动画。例如,显示控制单元124可以显示动画以使得虚拟对象脱落并且真实世界逐渐出现。利用该配置,可以表示虚拟对象以便更自然地与真实空间融合。
此外,在上述实施方式中,已经给出对关注对象的纹理是与从捕获图像中获取的纹理对应的纹理(纹理本身或具有经调整的颜色的纹理)的示例的描述,但是本技术不限于该示例。例如,作为第一虚拟对象的纹理,可以使用与AR标记相关联的纹理。在该情况下,与AR标记相关联的纹理可以被存储在存储单元17中,或者可以经由通信单元15从另一设备获取。利用该配置,还可以显示具有更高清晰度纹理的关注对象。
此外,以上给出了对显示控制单元124控制由具有光透射性的显示单元13执行的显示的示例的描述,但是本技术不限于该示例。例如,同样在显示单元13是投影仪的情况下,显示控制单元124也可以通过控制作为投影仪的显示单元13并且将每个虚拟对象投影到真实空间上来获得与上述效果相似的效果。
此外,上述实施方式中的步骤不需要总是根据如流程图描述的顺序按时间先后顺序处理。例如,上述实施方式中的处理中的步骤可以以与如流程图描述的顺序不同的顺序处理,或者可以同时处理。
此外,在本说明书中描述的效果仅仅是说明性的效果或示例性的效果,而并不是限制性的。换言之,与上述效果一起或替代上述效果,根据本公开内容的技术可以实现本领域技术人员根据本说明书的描述而明显的其他效果。
注意,以下配置也在本公开内容的技术范围内。
(1)一种信息处理装置,包括:
显示控制单元,被配置成使第一虚拟对象显示在真实空间中以便在与存在于所述真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与所述真实空间的颜色信息对应的视觉特征,并且具有与所述真实对象基本相同的形状。
(2)根据(1)所述的信息处理装置,其中,所述真实空间的颜色信息包括关于所述真实对象的颜色信息。
(3)根据(1)所述的信息处理装置,其中,从所述真实空间的捕获图像中获取所述真实空间的颜色信息。
(4)根据(3)所述的信息处理装置,其中,所述真实空间的颜色信息包括以下中的至少任意一个:从所述捕获图像获取的亮度信息、色相信息、饱和度信息、纹理信息以及光源信息。
(5)根据(4)所述的信息处理装置,其中,所述第一虚拟对象的所述视觉特征包括与所述真实对象的亮度对应的亮度。
(6)根据(4)所述的信息处理装置,其中,所述第一虚拟对象的所述视觉特征包括与所述真实对象的纹理对应的纹理。
(7)根据(4)至(6)中的任意一项所述的信息处理装置,其中,所述第一虚拟对象的所述视觉特征包括与所述光源信息对应的亮度。
(8)根据(1)至(7)中的任意一项所述的信息处理装置,其中,所述显示控制单元还使与所述第一虚拟对象不同的第二虚拟对象显示在所述真实空间中。
(9)根据(8)所述的信息处理装置,其中,所述显示控制单元使所述第一虚拟对象和所述第二虚拟对象显示成所述第一虚拟对象的亮度变得低于所述第二虚拟对象的亮度。
(10)根据(8)或(9)所述的信息处理装置,其中,所述显示控制单元基于所述真实对象与所述第二虚拟对象之间的位置关系来使所述第一虚拟对象和所述第二虚拟对象显示。
(11)根据(10)所述的信息处理装置,其中,所述显示控制单元基于所述位置关系来控制所述第一虚拟对象的所述视觉特征。
(12)根据(11)所述的信息处理装置,其中,在所述显示控制单元基于所述位置关系使所述第一虚拟对象和所述第二虚拟对象显示成所述第一虚拟对象遮挡所述第二虚拟对象的至少一部分的情况下,所述显示控制单元控制所述视觉特征以使得所述第一虚拟对象的遮蔽所述第二虚拟对象的第一区域具有第一视觉特征,并且所述第一虚拟对象的除了所述第一区域之外的第二区域具有与所述第一视觉特征不同的第二视觉特征。
(13)根据(1)至(12)中的任意一项所述的信息处理装置,其中,所述显示控制单元基于是否能够显示整个第一虚拟对象以使得所述第一虚拟对象具有与所述真实对象基本相同的形状并且在与所述真实对象基本相同的位置处被观看,来控制所述第一虚拟对象的所述视觉特征。
(14)根据(1)至(13)中的任意一项所述的信息处理装置,其中,所述显示控制单元基于关于所述真实空间中的用户的视线的视线信息来控制所述第一虚拟对象的所述视觉特征。
(15)根据(14)所述的信息处理装置,其中,所述显示控制单元根据基于所述视线信息识别出的所述真实空间中的所述用户的注视区域,控制所述视觉特征以使得所述第一虚拟对象的与所述注视区域对应的第三区域具有第三视觉特征,并且所述第一虚拟对象的除了所述第三区域之外的第四区域具有与所述第三视觉特征不同的第四视觉特征。
(16)根据(15)所述的信息处理装置,其中,所述第三视觉特征包括与所述真实对象的纹理对应的纹理。
(17)根据(1)至(16)中的任意一项所述的信息处理装置,其中,所述显示控制单元控制由具有光透射性的显示单元执行的显示。
(18)根据(17)所述的信息处理装置,其中,所述显示控制单元控制所述显示单元以使得当从用户观看时所述第一虚拟对象被叠加在所述真实对象上。
(19)一种信息处理方法,包括:
通过处理器使第一虚拟对象显示在真实空间中以便在与存在于所述真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与所述真实空间的颜色信息对应的视觉特征,并且具有与所述真实对象基本相同的形状。
(20)一种程序,所述程序使计算机实现以下功能:
使第一虚拟对象显示在真实空间中以便在与存在于所述真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与所述真实空间的颜色信息对应的视觉特征,并且具有与所述真实对象基本相同的形状。
附图标记列表
1 信息处理装置
11 传感器单元
12 控制单元
13 显示单元
14 扬声器
15 通信单元
16 操纵输入单元
17 存储单元
110 向外摄像装置
111 向内摄像装置
112 麦克风
113 陀螺仪传感器
114 加速度传感器
115 方位传感器
116 位置测量单元
117 生物传感器
122 识别单元
124 显示控制单元

Claims (20)

1.一种信息处理装置,包括:
显示控制单元,被配置成使第一虚拟对象显示在真实空间中以便在与存在于所述真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与所述真实空间的颜色信息对应的视觉特征,并且具有与所述真实对象基本相同的形状。
2.根据权利要求1所述的信息处理装置,其中,所述真实空间的颜色信息包括关于所述真实对象的颜色信息。
3.根据权利要求1所述的信息处理装置,其中,从所述真实空间的捕获图像中获取所述真实空间的颜色信息。
4.根据权利要求3所述的信息处理装置,其中,所述真实空间的颜色信息包括以下中的至少任意一个:从所述捕获图像获取的亮度信息、色相信息、饱和度信息、纹理信息以及光源信息。
5.根据权利要求4所述的信息处理装置,其中,所述第一虚拟对象的所述视觉特征包括与所述真实对象的亮度对应的亮度。
6.根据权利要求4所述的信息处理装置,其中,所述第一虚拟对象的所述视觉特征包括与所述真实对象的纹理对应的纹理。
7.根据权利要求4所述的信息处理装置,其中,所述第一虚拟对象的所述视觉特征包括与所述光源信息对应的亮度。
8.根据权利要求1所述的信息处理装置,其中,所述显示控制单元还使与所述第一虚拟对象不同的第二虚拟对象显示在所述真实空间中。
9.根据权利要求8所述的信息处理装置,其中,所述显示控制单元使所述第一虚拟对象和所述第二虚拟对象显示成所述第一虚拟对象的亮度变得低于所述第二虚拟对象的亮度。
10.根据权利要求8所述的信息处理装置,其中,所述显示控制单元基于所述真实对象与所述第二虚拟对象之间的位置关系来使所述第一虚拟对象和所述第二虚拟对象显示。
11.根据权利要求10所述的信息处理装置,其中,所述显示控制单元基于所述位置关系来控制所述第一虚拟对象的所述视觉特征。
12.根据权利要求11所述的信息处理装置,其中,在所述显示控制单元基于所述位置关系使所述第一虚拟对象和所述第二虚拟对象显示成所述第一虚拟对象遮挡所述第二虚拟对象的至少一部分的情况下,所述显示控制单元控制所述视觉特征以使得所述第一虚拟对象的遮蔽所述第二虚拟对象的第一区域具有第一视觉特征,并且所述第一虚拟对象的除了所述第一区域之外的第二区域具有与所述第一视觉特征不同的第二视觉特征。
13.根据权利要求1所述的信息处理装置,其中,所述显示控制单元基于是否能够显示整个第一虚拟对象以使得所述第一虚拟对象具有与所述真实对象基本相同的形状并且在与所述真实对象基本相同的位置处被观看,来控制所述第一虚拟对象的所述视觉特征。
14.根据权利要求1所述的信息处理装置,其中,所述显示控制单元基于关于所述真实空间中的用户的视线的视线信息来控制所述第一虚拟对象的所述视觉特征。
15.根据权利要求14所述的信息处理装置,其中,所述显示控制单元根据基于所述视线信息识别出的所述真实空间中的所述用户的注视区域,控制所述视觉特征以使得所述第一虚拟对象的与所述注视区域对应的第三区域具有第三视觉特征,并且所述第一虚拟对象的除了所述第三区域之外的第四区域具有与所述第三视觉特征不同的第四视觉特征。
16.根据权利要求15所述的信息处理装置,其中,所述第三视觉特征包括与所述真实对象的纹理对应的纹理。
17.根据权利要求1所述的信息处理装置,其中,所述显示控制单元控制由具有光透射性的显示单元执行的显示。
18.根据权利要求17所述的信息处理装置,其中,所述显示控制单元控制所述显示单元以使得当从用户观看时所述第一虚拟对象被叠加在所述真实对象上。
19.一种信息处理方法,包括:
通过处理器使第一虚拟对象显示在真实空间中以便在与存在于所述真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与所述真实空间的颜色信息对应的视觉特征,并且具有与所述真实对象基本相同的形状。
20.一种程序,所述程序使计算机实现以下功能:
使第一虚拟对象显示在真实空间中以便在与存在于所述真实空间中的真实对象基本相同的位置处被观看,所述第一虚拟对象具有与所述真实空间的颜色信息对应的视觉特征,并且具有与所述真实对象基本相同的形状。
CN201880058233.3A 2017-09-13 2018-06-22 信息处理装置、信息处理方法和程序 Withdrawn CN111095364A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-175989 2017-09-13
JP2017175989A JP2019053423A (ja) 2017-09-13 2017-09-13 情報処理装置、情報処理方法、及びプログラム
PCT/JP2018/023842 WO2019053997A1 (ja) 2017-09-13 2018-06-22 情報処理装置、情報処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
CN111095364A true CN111095364A (zh) 2020-05-01

Family

ID=65723332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880058233.3A Withdrawn CN111095364A (zh) 2017-09-13 2018-06-22 信息处理装置、信息处理方法和程序

Country Status (6)

Country Link
US (1) US20200202161A1 (zh)
EP (1) EP3683774A4 (zh)
JP (1) JP2019053423A (zh)
KR (1) KR20200051591A (zh)
CN (1) CN111095364A (zh)
WO (1) WO2019053997A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031259A1 (ja) * 2017-08-08 2019-02-14 ソニー株式会社 画像処理装置および方法
JP7334460B2 (ja) * 2019-04-26 2023-08-29 富士通株式会社 作業支援装置及び作業支援方法
EP3973512A1 (en) * 2019-05-22 2022-03-30 PCMS Holdings, Inc. Method for rendering of augmented reality content in combination with external display
JP7256111B2 (ja) * 2019-11-29 2023-04-11 サトーホールディングス株式会社 情報処理装置、情報処理システム、プログラム
WO2021131781A1 (ja) * 2019-12-26 2021-07-01 ソニーグループ株式会社 表示制御装置、表示制御方法、及び、記録媒体
WO2021186581A1 (ja) * 2020-03-17 2021-09-23 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP6875029B1 (ja) * 2020-05-28 2021-05-19 株式会社Spacial 方法、プログラム、情報処理装置
CN112053449A (zh) 2020-09-09 2020-12-08 脸萌有限公司 基于增强现实的显示方法、设备及存储介质
WO2023113771A1 (en) * 2021-12-13 2023-06-22 Hewlett-Packard Development Company, L.P. Noise cancellation for electronic devices

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004234549A (ja) * 2003-01-31 2004-08-19 Canon Inc 現実物体モデル作成方法
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
CN105103198A (zh) 2013-04-04 2015-11-25 索尼公司 显示控制装置、显示控制方法以及程序

Also Published As

Publication number Publication date
EP3683774A4 (en) 2021-02-17
US20200202161A1 (en) 2020-06-25
WO2019053997A1 (ja) 2019-03-21
KR20200051591A (ko) 2020-05-13
JP2019053423A (ja) 2019-04-04
EP3683774A1 (en) 2020-07-22

Similar Documents

Publication Publication Date Title
CN111095364A (zh) 信息处理装置、信息处理方法和程序
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
CN111602140B (zh) 分析由头戴式设备的相机记录的图像中的对象的方法
US11995774B2 (en) Augmented reality experiences using speech and text captions
KR102544062B1 (ko) 가상 이미지 표시 방법, 저장 매체 및 이를 위한 전자 장치
KR102623391B1 (ko) 영상 출력 방법 및 이를 지원하는 전자 장치
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
CN109074681B (zh) 信息处理装置、信息处理方法和程序
US20140160129A1 (en) Information processing apparatus and recording medium
JP7176520B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US11195341B1 (en) Augmented reality eyewear with 3D costumes
US11288869B2 (en) Information processing device, and information processing method
US20230362573A1 (en) Audio enhanced augmented reality
CN118103799A (zh) 与远程设备的用户交互
WO2019171802A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20200144196A (ko) 전자 장치 및 각막 이미지를 이용한 전자 장치의 기능 제공 방법
US20210406542A1 (en) Augmented reality eyewear with mood sharing
JP7400721B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20200159318A1 (en) Information processing device, information processing method, and computer program
CN107958478B (zh) 虚拟现实场景中物体的渲染方法和虚拟现实头戴设备
US20240036336A1 (en) Magnified overlays correlated with virtual markers
CN114967907A (zh) 识别方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20200501

WW01 Invention patent application withdrawn after publication