CN110998674B - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN110998674B
CN110998674B CN201880050503.6A CN201880050503A CN110998674B CN 110998674 B CN110998674 B CN 110998674B CN 201880050503 A CN201880050503 A CN 201880050503A CN 110998674 B CN110998674 B CN 110998674B
Authority
CN
China
Prior art keywords
display
identification information
boundary
control unit
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880050503.6A
Other languages
English (en)
Other versions
CN110998674A (zh
Inventor
深泽辽
市川浩丈
安贺广幸
石原敦
竹村真一
市川美和
小原俊逸
村田谅介
杉原贤次
斋藤真里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN110998674A publication Critical patent/CN110998674A/zh
Application granted granted Critical
Publication of CN110998674B publication Critical patent/CN110998674B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

[问题]提供了信息处理装置、信息处理方法和程序。[解决方案]提供了信息处理装置,包括:显示控制单元,当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,该显示控制单元执行控制,使得被配置成表示虚拟对象被真实对象遮蔽的遮蔽显示在虚拟对象与真实对象之间的边界处或者在边界附近的位置处呈现第一边界表示,并且当识别信息包括与第一识别信息不同的第二识别信息时,该显示控制单元执行控制,使得遮蔽显示在边界处或者在边界附近的位置处呈现与第一边界表示不同的第二边界表示。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开内容涉及信息处理装置、信息处理方法和程序。
背景技术
近年来,开发了包括传感器的头戴式显示器(在下文中,也称为“HMD”)。HMD具有显示器,当HMD被佩戴在用户的头上时该显示器被定位在用户的眼睛前方,并且该显示器例如在用户的前方显示虚拟对象。这样的HMD包括具有透射型显示器的HMD以及具有非透射型显示器的HMD。具有透射型显示器的HMD显示叠加在经由显示器可见的真实空间上的虚拟对象。
此外,在下面引用的专利文献1中公开了如下技术:佩戴了HMD的用户通过使用真实对象(例如,用户的手部等)使HMD中包括的摄像装置对各种手势进行成像(感测),并且通过手势识别来操纵HMD。
引用列表
专利文献
专利文献1:JP 2014-186361 A
发明内容
技术问题
如上所述,当使得虚拟对象被叠加显示在真实空间上时,显示虚拟对象使得真实空间中存在的真实对象与虚拟对象之间的边界被适当地表示,使得用户能够感到仿佛虚拟对象存在于真实空间中。然而,例如,取决于基于真实对象的感测的识别的结果,可能无法适当地表示真实对象与虚拟对象之间的边界,并且用户从虚拟对象的显示中感到奇怪的感觉。
通过本公开内容,提出了一种能够减轻给用户带来的奇怪的感觉的信息处理装置、信息处理方法和程序。
问题的解决方案
根据本公开内容,提供了一种信息处理装置,包括:显示控制单元,当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,该显示控制单元控制表示虚拟对象被真实对象遮蔽的遮蔽显示,使得遮蔽显示在虚拟对象与真实对象之间的边界处或者在边界附近的位置处呈现第一边界表示,并且当识别信息包括与第一识别信息不同的第二识别信息时,该显示控制单元控制遮蔽显示,使得遮蔽显示在边界处或者在边界附近的位置处呈现与第一边界表示不同的第二边界表示。
此外,根据本公开内容,提供了一种信息处理方法,该信息处理方法包括:当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,处理器控制表示虚拟对象被真实对象遮蔽的遮蔽显示,使得遮蔽显示在虚拟对象与真实对象之间的边界处或者在边界附近的位置处呈现第一边界表示,并且当识别信息包括与第一识别信息不同的第二识别信息时,处理器控制遮蔽显示,使得遮蔽显示在边界处或者在边界附近的位置处呈现与第一边界表示不同的第二边界表示。
此外,根据本公开内容,提供了一种程序,使计算机实现包括下述的功能:当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,控制表示虚拟对象被真实对象遮蔽的遮蔽显示,使得遮蔽显示在虚拟对象与真实对象之间的边界处或者在边界附近的位置处呈现第一边界表示,并且当识别信息包括与第一识别信息不同的第二识别信息时,控制遮蔽显示,使得遮蔽显示在边界处或者在边界附近的位置处呈现与第一边界表示不同的第二边界表示。
本发明的有益效果
如上所述,根据本公开内容,能够减轻给用户带来的奇怪的感觉。
上述效果不一定是限制性的,并且与上述效果一起或者代替上述效果,可以实现本说明书中公开的任何效果或者能够从本说明书掌握的任何其他效果。
附图说明
图1是示出根据本公开内容的第一实施方式的信息处理装置1的概要的图。
图2是示出虚拟对象的遮蔽的说明图。
图3是示出在与识别相关的精度低的情况下的显示示例的说明图。
图4是示出在真实对象的移动速度高的情况下的显示示例的说明图。
图5是示出虚拟对象与真实对象之间的边界的不自然性的说明图。
图6是示出根据同一实施方式的信息处理装置1的配置的示例的框图。
图7是示出根据同一实施方式的由显示控制单元127使用遮蔽模型来遮蔽虚拟对象的说明图。
图8是示出为了使边界表示不同而可以在三维虚拟空间中执行的处理的示例的说明图。
图9是示出为了使边界表示不同而可以在二维绘图结果上执行的处理的示例的说明图。
图10是针对为了使边界表示不同而执行的处理组织的表。
图11是示出根据同一实施方式的信息处理装置1的操作的示例的流程图。
图12是示出根据同一实施方式的边界表示的第一特定示例的说明图。
图13是示出根据同一实施方式的边界表示的第一特定示例的说明图。
图14是示出根据同一实施方式的边界表示的第一特定示例的说明图。
图15是示出根据同一实施方式的边界表示的第一特定示例的说明图。
图16是示出根据同一实施方式的边界表示的第二特定示例的说明图。
图17是示出根据同一实施方式的边界表示的第二特定示例的说明图。
图18是示出根据同一实施方式的边界表示的第二特定示例的说明图。
图19是示出根据同一实施方式的边界表示的第二特定示例的说明图。
图20是示出根据同一实施方式的边界表示的第二特定示例的说明图。
图21是示出根据同一实施方式的边界表示的第二特定示例的说明图。
图22是示出根据同一实施方式的边界表示的第二特定示例的说明图。
图23是示出根据同一实施方式的边界表示的第三特定示例的说明图。
图24是示出根据同一实施方式的修改例的说明图。
图25是示出根据同一实施方式的修改例的说明图。
图26是示出根据同一实施方式的修改例的说明图。
图27是示出本公开内容的第二实施方式的概要的说明图。
图28是示出本公开内容的第二实施方式的概要的说明图。
图29是示出根据同一实施方式的信息处理装置1-2的配置的示例的框图。
图30是示出根据同一实施方式的由显示控制单元128执行的减少遮蔽模型中的多边形的数目的示例的说明图。
图31是示出同一实施方式的比较例中的操作的流程图。
图32是示出与同一实施方式的比较例相关的时序图。
图33是示出根据同一实施方式的信息处理装置1-2的操作的示例的流程图。
图34是与同一实施方式相关的时序图。
图35是示出根据同一实施方式的修改例的说明图。
图36是示出根据同一实施方式的修改例的说明图。
图37是示出在执行前后关系的确定的情况下从感测到绘图的流程的说明图。
图38是示出在省略前后关系的确定的情况下从感测到绘图的流程的说明图。
图39是示出即使省略前后关系的确定也能够适当地显示的交互的示例的说明图。
图40是示出在执行前后关系的确定的情况与省略确定的情况之间外观可以显著不同的交互的示例的说明图。
图41是示出根据同一实施方式的修改例中的操作的示例的流程图。
图42是与根据同一实施方式的修改例相关的时序图。
图43是示出根据同一实施方式的修改例的说明图。
图44是概述在确定处理模式被分成六个级别的情况下的操作的示例的表。
图45是示出硬件配置的示例的框图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的优选实施方式。在整个说明书和附图中,通过对具有基本上相同的功能配置的部件分配相同的附图标记来省略重复描述。
此外,在整个说明书和附图中,可以通过在相同的附图标记后添加不同的字母来彼此区分具有基本上相同的功能配置的多个部件。然而,如果不需要彼此区分具有基本上相同的功能配置的多个部件,则仅为这些部件分配相同的附图标记。
将按照以下顺序进行描述。
1.第一实施方式
1-1.概要
1-2.配置
1-3.操作
1-4.边界表示的特定示例
1-5.修改例
1-6.效果
2.第二实施方式
2-1.概要
2-2.配置
2-3.操作
2-4.修改例
2-5.补充描述
3.硬件配置的示例
4.结论
1.第一实施方式
1-1.概要
首先描述根据本公开内容的第一实施方式的信息处理装置的概要。图1是示出根据本实施方式的信息处理装置1的概要的图。如图1所示,根据本实施方式的信息处理装置1例如由佩戴在用户U的头上的眼镜型头戴式显示器(HMD)来实现。当HMD被佩戴时,与被定位在用户U的眼睛的前方的眼镜镜片对应的显示单元13可以是透射型或非透射型。本文中描述的透射型的显示单元13被限定为具有光学透射性的显示单元。信息处理装置1能够通过将虚拟对象显示在显示单元13上来将虚拟对象呈现在用户U的视野中。另外,作为信息处理装置1的示例的HMD不一定是向双眼呈现图像的显示器,而可以是向仅一只眼睛呈现图像的显示器。例如,HMD可以是设置有向一只眼睛呈现图像的显示单元13的单眼型。
此外,信息处理装置1设置有向外摄像装置110,当佩戴信息处理装置1时,该向外摄像装置110在用户U的视线(即,用户的视野)方向上成像。此外,尽管图1中未示出,但是信息处理装置1可以设置有各种传感器(诸如向内摄像装置,当佩戴信息处理装置1时,该向内摄像装置对用户U的眼睛成像;以及麦克风(在下文中称为“麦克”))中的任何一种。可以设置有多个向外摄像装置110和多个向内摄像装置。
信息处理装置1的形式不限于图1所示的示例。例如,信息处理装置1可以是头带型HMD(其是HMD被安装有环绕头的整个圆周的带子的类型,或者可以是设置有不仅经过头的侧部而且经过头的顶部的带子的类型)或者头盔型HMD(其中,头盔的面罩用作显示器)。
例如,当显示单元13是透射型时,显示在显示单元13上的虚拟对象被用户在视觉上识别,其中该虚拟对象与真实空间交叠。另外,为了让用户觉得仿佛虚拟对象存在于真实空间中,也可以基于关于真实空间的信息来控制虚拟对象的排列、形状、颜色等,该信息通过向外摄像装置110的成像而获得。
在用户执行与虚拟对象的交互(操纵等)的情况下,用户可以通过使用真实对象(例如,用户的手部)来执行与虚拟对象的交互。在这种情况下,如果没有适当地表示虚拟对象与真实对象之间的边界,则用户可能感到奇怪的感觉。如图1所示,在其上显示虚拟对象的显示单元13被定位在用户的眼睛的前方,因此,如果虚拟对象被布置在真实空间中就仿佛真实对象存在于虚拟对象与用户的眼睛之间一样,则期望显示在显示单元13上的虚拟对象的一部分被适当地遮蔽。
图2是示出虚拟对象的遮蔽的说明图。现在假设如图2所示的虚拟对象V101被显示在显示单元13上。如果虚拟对象V101按原样显示在显示单元13上,则由于如上所述显示单元13被定位在用户的眼睛的前方,因此虚拟对象V101可能被用户在视觉上识别为仿佛虚拟对象V101覆盖作为存在于虚拟对象V101与用户的眼睛之间的真实对象的用户的手部H101。在这种情况下,用户将不知道虚拟对象V101是存在于手部H101的(朝用户的眼睛的)近侧还是存在于手部H101的远侧,因此用户可能感到奇怪的感觉。
因此,将虚拟对象V101的被用户在视觉上识别为与手部H101交叠的区域遮蔽。例如,基于通过由向外摄像装置110对手部H101的感测(成像)而获得的捕获图像,执行对存在于比虚拟对象V101更近侧(更朝向用户的眼睛)的手部区域的识别,从而获得手部区域识别结果R101。图2所示的手部区域识别结果R101表示下述区域:白色手部区域HR101已经被识别为存在于比虚拟对象V101更近侧处的真实对象。当通过使用手部区域识别结果R101来执行绘图以使得虚拟对象V101被遮蔽时,获得绘图结果D101。在图2所示的绘图结果D101中:白色区域表示未执行绘图的区域;并且在绘图结果D101中,虚拟对象区域VR101被绘制成其一部分被遮蔽,该部分在与手部区域HR101对应的遮蔽区域CR101处,并且在遮蔽区域CR101中未绘制虚拟对象。
通过基于绘图结果D101执行在显示单元13上的显示,用户透过显示单元13的视野成为像图2所示的视野F101。通过如上所述的根据基于真实对象的感测的识别的显示,利于用户正确地理解虚拟对象V101与手部H101之间的位置关系。
上面描述了将用户在操纵中使用的用户的手部作为真实对象的示例,但是可以对除了手部或除了在操纵中使用的真实对象之外的真实对象执行类似的处理,并且能够将真实对象与虚拟对象之间的位置关系适当地呈现给用户。
然而,取决于基于真实对象的感测的识别的结果,可能无法适当地表示真实对象与虚拟对象之间的边界,并且用户可能从虚拟对象的显示中感到奇怪的感觉。例如,如果与识别相关的精度低,则可能无法适当地表示与虚拟对象的边界,并且用户可能从虚拟对象的显示中感到奇怪的感觉。
图3是示出在与识别相关的精度低的情况下的显示示例的说明图。在图3所示的示例中,作为基于手部H102的感测的识别的结果而获得的手部区域识别结果R102的精度低于图2所示的手部区域识别结果R101的精度,并且手部区域HR102的边界包括噪声。精度降低的原因是各种各样的;例如,与识别相关的精度可能取决于例如周围环境的亮度以及真实对象与向外摄像装置110之间的距离而降低;并且可能产生噪声,使得例如边界变成锯齿状或不均匀。
如果使用这种低精度的手部区域识别结果R102来执行绘图使得虚拟对象V102被遮蔽,则在由此获得的绘图结果D102中,虚拟对象区域VR102与遮蔽区域CR102之间的边界也包括噪声。当基于该绘图结果D102来执行显示时,在用户的视野F102中也看到噪声的影响。结果,用户可能从虚拟对象V102与作为真实对象的用户的手部H102之间的边界中感到奇怪的感觉。
此外,由于真实对象的移动,也可能无法适当地表示真实对象与虚拟对象之间的边界,并且用户可能从虚拟对象的显示中感到奇怪的感觉。例如,当真实对象的移动速度高时,可能无法适当地表示真实对象与虚拟对象之间的边界。
图4是示出在真实对象的移动速度高的情况下的显示示例的说明图。在图4所示的示例中,作为基于手部H103的感测的识别的结果而获得的手部区域识别结果R103的精度不存在任何特别的问题。当通过使用手部区域识别结果R103执行绘图以使得虚拟对象V103被遮蔽时,获得包括被遮蔽区域CR103遮蔽的虚拟对象区域VR103的绘图结果D103。
当作为真实对象的手部H103的移动速度高时,在执行与上述识别和绘图相关的处理的同时,手部H103的位置可能移动很大。结果,在基于绘图结果D103执行显示的时间之前,手部H103从感测时的位置移动很大,并且在用户的视野F103中,虚拟对象V103与用户的手部H102之间的边界已经变得不自然。结果,用户可能从虚拟对象V103与作为真实对象的用户的手部H103之间的边界中感到奇怪的感觉。
如图3所示的受与识别精度的降低相关联的噪声影响的用户的视野F102以及如图4所示的受手部H103的移动影响的用户的视野F103可能在例如以下两个方面给用户带来奇怪的感觉。第一个方面是在本来应该看到用户的手部(真实对象)的区域中看到了虚拟对象。第二个方面是在本来应该看到虚拟对象的区域中什么也未显示,并且看到了背景真实空间。将参照图5,以图4所示的用户的视野F103的情况为例,具体描述这两个方面的奇怪的感觉。
图5是示出图4所示的用户的视野F103中的虚拟对象V103与用户的手部H103之间的边界的不自然性的说明图。图5示出了在图4所示的用户的视野F103中具有下述区域的想象图IF103,所述区域被分类以用于说明。在想象图IF103中,区域HV103和区域VH103分别通过不同的阴影表示来示出。区域HV103表示本来应该看到用户的手部H103但是却替代地看到了虚拟对象V103的区域。另一方面,区域VH103表示本来应该看到虚拟对象V103但是却替代地看到了背景真实空间的区域。图5在作为示例的图4所示的用户的视野F103中示出了区域HV103和区域VH103,但是在图3所示的用户的视野F102中,也类似地存在与理想视野具有差异的两种类型的区域。
由于存在这两种类型的区域,这两种类型的区域与理想视野具有差异,因此用户可能从虚拟对象与真实对象之间的边界中感到奇怪的感觉。因此,根据本实施方式的信息处理装置1通过控制显示使得虚拟对象与真实对象之间的边界表示根据与基于真实对象的感测的识别相关的识别信息而不同来减轻给用户带来的奇怪的感觉。在下文中详细描述根据本实施方式的具有上述效果的信息处理装置1的配置的示例。
1-2.配置
图6是示出根据本实施方式的信息处理装置1的配置的示例的框图。如图6所示,信息处理装置1具有传感器单元11、控制单元12、显示单元13、扬声器14、通信单元15、操作输入单元16和存储单元17。
传感器单元11
传感器单元11具有获得(感测)与用户或周围环境相关的各种类型的信息的功能。例如,传感器单元11包括向外摄像装置110、向内摄像装置111、麦克112、陀螺仪传感器113、加速度传感器114、方向传感器115、位置测量单元116和生物传感器117。本文中提及的传感器单元11的特定示例仅为示例,并且本实施方式不限于该示例。另外,这些传感器中的每一种可以被设置为多个。
向外摄像装置110和向内摄像装置111中的每一个具有:透镜系统,其由成像透镜、光圈、变焦透镜、聚焦透镜等形成;驱动系统,其使透镜系统执行聚焦操作和变焦操作;固态图像感测器件阵列,其对由透镜系统获得的成像光执行光电转换以生成成像信号;等等。固态图像感测器件阵列例如也可以由电荷耦合器件(CCD)传感器阵列或者互补金属氧化物半导体(CMOS)传感器阵列来实现。
在本实施方式中,期望地将向外摄像装置110的视角和取向设定成使得向外摄像装置110对与用户在真实空间中的视野对应的区域进行成像。另外,可以设置多个向外摄像装置110。此外,向外摄像装置110可以包括能够通过感测获得深度图的深度摄像装置。
麦克112获得来自用户的声音和周围环境声音,并且将所获得的声音和周围环境声音作为声音数据输出到控制单元12。
陀螺仪传感器113例如由三轴陀螺仪传感器实现,并且检测角速度(旋转速度)。
加速度传感器114例如由三轴加速度传感器(也称为G传感器)实现,并且检测移动时的加速度。
方向传感器115例如由三轴地磁传感器(罗盘)实现,并且检测绝对方向(方向)。
位置测量单元116具有基于从外部获得的信号来检测信息处理装置1的当前位置的功能。具体地,例如,位置测量单元116由全球定位系统位置测量单元实现,通过接收来自GPS卫星的无线电波来检测信息处理装置1存在的位置,并且将检测到的关于位置的信息输出到控制单元12。另外,位置测量单元116可以通过例如以下来检测位置:经由Wi-Fi(注册商标)、蓝牙(注册商标)、移动电话、PHS、智能电话等而不是GPS的发送和接收;短程通信;等等。
生物传感器117检测用户的生物信息。具体地,例如,可以检测心率、体温、排汗、血压、脉搏、呼吸、眨眼、眼运动、凝视时间、瞳孔直径、血压、脑电波、身体运动、身体姿势、皮肤温度、皮肤电阻、微振动(MV)、肌电位和/或血氧饱和度(SPO2)。
控制单元12
控制单元12充当算术处理装置和控制装置,并且根据各种程序控制信息处理装置1中的整体操作。此外,根据本实施方式的控制单元12充当如图6所示的识别单元120和显示控制单元127。
识别单元120具有基于由传感器单元11感测到的各种类型的传感器信息来对与用户相关的信息或者与周围情况相关的信息执行识别(包括检测)的功能。识别单元120可以识别各种类型的信息,并且例如基于通过向外摄像装置110的成像(感测的示例)而获得的捕获图像,识别单元120可以三维地识别用户周围的真实空间,并且还执行与存在于真实空间中的真实对象相关的识别。例如,如果向外摄像装置110包括多个摄像装置,则可以使用通过由多个摄像装置获得的多个捕获图像的立体匹配而获得的深度图来执行真实空间的三维识别。另外,基于时间序列的捕获图像,可以通过将从各帧的捕获图像中检测到的特征点进行关联来执行真实空间的三维识别。另外,如果向外摄像装置110包括深度摄像装置,则可以基于通过深度摄像装置的感测而获得的距离图像来执行真实空间的三维识别。
如上所述,识别单元120可以识别各种类型的信息,并且具体地,根据本实施方式的识别单元120具有作为移动识别单元121、形状识别单元123和精度信息获取单元125的功能。
基于真实对象的感测,移动识别单元121执行与真实对象的移动相关的移动识别。例如,基于通过真实对象的感测而获得的捕获图像,移动识别单元121可以识别真实对象的重心位置和姿势的移动。
移动识别单元121识别所识别的重心位置以及帧间的姿势的移动,并且将与移动的识别相关的识别信息提供给显示控制单元127,该识别信息是关于通过移动的识别确定的真实对象的移动速度的信息。
基于真实对象的感测,形状识别单元123执行用于识别真实对象的三维形状的形状识别。此外,形状识别单元123可以在识别形状的同时识别真实对象的位置和姿势。根据本实施方式的移动识别单元121和形状识别单元123可以共享与位置和姿势的识别相关的信息,并且可以将由移动识别单元121和形状识别单元123中的任何一个识别的结果提供给移动识别单元121和形状识别单元123中的另一个。例如,基于由形状识别单元123识别的真实对象的位置和姿势,移动识别单元121可以执行对真实对象的移动的识别。
基于所识别的真实对象的三维形状,形状识别单元123生成由顶点和边的三维列表示的三维模型,并且将三维模型作为形状信息提供给显示控制单元127。如稍后所述,由形状识别单元123生成的真实对象的三维模型被显示控制单元127用来执行用于遮蔽虚拟对象的绘图。因此,在下文中,三维模型可以被称为遮蔽模型。
基于由向外摄像装置110获得的感测数据(例如,捕获图像和距离图像)的时间变化,形状识别单元123可以预测真实对象的三维形状的变化(移动)。基于该预测,形状识别单元123可以校正真实对象的三维形状,并且生成经校正的三维模型。例如,通过在考虑识别单元120的识别、显示控制单元127的绘图等所需的处理时间段的情况下执行预测,形状识别单元123可以生成与在基于感测来显示时的真实对象对应的经校正的三维模型。通过这种配置,基于经校正的三维模型的显示能够减轻与参照图4和图5描述的真实对象的移动相关联的奇怪的感觉。
当真实对象是手部时,因为手指的移动与整个手部的移动相比不快,因此如果只有手指移动,则这种预测趋于是正确的,并且能够减轻与手指的移动相关联的奇怪的感觉。当整个手部高速移动时,通过稍后描述的基于由移动识别单元121获得的移动信息的处理,能够减轻与整个手部的移动相关联的奇怪的感觉。手部和手指两者同时高速移动的情况很少发生。
精度信息获取单元125获得与形状识别单元123的形状识别相关的识别精度的信息。例如,精度信息获取单元125可以基于由形状识别单元123执行的识别的可靠度以及从由包括向外摄像装置110的传感器单元11获得的感测数据估计的与感测数据相关的可靠度、误差或精度来确定识别精度,从而获得识别精度。
例如,当形状识别单元123基于通过立体匹配而获得的深度图来执行形状识别时,可以通过使用立体匹配中的匹配得分的信息(该信息用作可靠度)来确定识别精度的信息。
另外,如果向外摄像装置110包括深度摄像装置,则可以基于与由深度摄像装置输出的感测数据相关的可靠度来获得关于识别精度的信息。
另外,感测数据的误差和精度可以通过各种方法来估计。例如,精度信息获取单元125可以计算与过去的预定时间段对应的感测数据的方差,并且如果该方差大或者如果该方差有大的变化,则精度信息获取单元125可以估计到误差大(精度低)。作为基于感测数据的误差或精度获得的关于识别精度的信息的结果,该识别精度反映识别的精度。
上述可靠度和误差或精度可以单独使用或者组合使用来确定识别精度。另外,精度信息获取单元125的确定识别精度的方法不限于上述方法,并且可以通过根据所获得的感测数据的各种方法中的任何方法或者通过由识别单元120执行的识别方法来确定识别精度。
精度信息获取单元125将所获得的关于识别精度的信息提供给显示控制单元127,该信息用作与形状识别相关的识别信息。
显示控制单元127控制在显示单元13上的显示。例如,显示控制单元127将虚拟对象显示在显示单元13上,使得虚拟对象与真实空间同时可见。显示控制单元127可以例如从存储单元17获得或者经由通信单元15从另一装置获得与虚拟对象相关的信息。
此外,如参照图2所述,根据本实施方式的显示控制单元127控制显示,使得通过使用遮蔽模型来遮蔽虚拟对象,该遮蔽模型是通过形状识别单元123的形状识别而获得的形状信息的示例。
图7是示出显示控制单元127使用遮蔽模型来遮蔽虚拟对象的说明图。显示控制单元127将虚拟对象V104和遮蔽模型CM104布置在三维虚拟空间VS104中,如图7所示。此外,显示控制单元127通过在虚拟空间VS104中在作为虚拟摄像装置的虚拟视点VC处执行绘图来获得二维绘图结果D104。绘图结果D104包括虚拟对象区域VR104和遮蔽模型区域CMR104。例如,显示控制单元127通过控制显示单元13上的显示来遮蔽虚拟对象V104,使得在用作参照图2等描述的遮蔽区域的遮蔽模型区域CMR104中不显示任何内容。这种配置实现了如参照图2所述的显示,该显示适当地允许用户容易地理解虚拟对象与真实对象之间的位置关系。
然而,如参照图3至图5所描述的,由于识别精度和真实对象的移动的影响,可能无法通过上述显示方法适当地表示虚拟对象与真实对象之间的边界,并且用户可能从中感到奇怪的感觉。因此,根据本实施方式的显示控制单元127控制显示单元13上的显示,使得虚拟对象与真实对象之间的边界表示根据与基于真实对象的感测的识别相关的识别信息而不同。显示控制单元127使用的识别信息可以包括如上所述的从移动识别单元121提供的关于真实对象的移动速度的信息以及从精度信息获取单元125提供的与形状识别相关的识别精度的信息。此外,可以根据基于真实对象的感测的识别,将识别信息看作包括第一识别信息或者与第一识别信息不同的第二识别信息。
根据本说明书的边界表示是指与用户的视野中的真实对象与虚拟对象之间的边界相关的表示或者与该边界附近的位置(边界区域)相关的表示。另外,使边界表示不同或者改变边界表示除了包括使显示形式等不同以外,还包括不显示。根据本说明书,使边界表示不同可以被视为使边界表示成为第一边界表示或者不同于第一边界表示的第二边界表示。此外,根据本说明书,改变边界表示可以被视为在第一边界表示与第二边界表示之间改变边界表示。当显示单元13是透射型时,不显示是指通过透射型显示单元13可以看到真实空间。另外,边界表示可以被视为与表示真实对象对虚拟对象的遮蔽的遮蔽显示相关的表示。
以下参照图8至图10描述由显示控制单元127执行的用于使边界表示不同的处理的示例。图8是示出为了使边界表示不同而可以在三维虚拟空间中执行的处理的示例的说明图。图9是示出为了使边界表示不同而可以在二维绘图结果中执行的处理的示例的说明图。图10是针对为了使边界表示不同而可以执行的处理组织的表。
例如,为了使边界表示不同,显示控制单元127可以对图8所示的三维虚拟空间VS105中的用于遮蔽的整个遮蔽模型CM105执行处理。例如,显示控制单元127可以通过将整个遮蔽模型CM105的颜色从用于遮蔽的颜色改变成与真实对象(例如,手部)的颜色更接近的颜色来使边界表示不同。在以下描述中,如图10所示,这种对三维虚拟空间中的整个遮蔽模型的处理可以被称为处理3D-C-A。
此外,为了使边界表示不同,显示控制单元127可以对图8所示的三维虚拟空间VS105中的遮蔽模型CM105的一部分执行处理。例如,显示控制单元127可以通过增加遮蔽模型CM105的轮廓部分CMP105的透射率来使边界表示不同。此外,显示控制单元127可以通过扩大遮蔽模型CM105的轮廓部分CMP105来使边界表示不同。另外,显示控制单元127可以通过向遮蔽模型CM105的轮廓部分CMP105添加效果显示(在下文中可以简单地称为“效果”)来使边界表示不同。在以下描述中,如图10所示,这种对三维虚拟空间中的遮蔽模型的一部分的处理可以被称为处理3D-C-P。
此外,为了使边界表示不同,显示控制单元127可以对图8所示的三维虚拟空间VS105中的要被遮蔽的整个虚拟对象V105执行处理。例如,显示控制单元127可以通过降低整个虚拟对象V105的亮度来使边界表示不同。在下面的描述中,如图10所示,这种对三维虚拟空间中的整个虚拟对象的处理可以被称为处理3D-V-A。
此外,为了使边界表示不同,显示控制单元127可以对图8所示的三维虚拟空间VS105中的虚拟对象V105的一部分执行处理。例如,显示控制单元127可以通过在虚拟对象V105的一部分中设置与真实对象(例如,手部)的颜色接近的阴影VP105来使边界表示不同。在下面的描述中,如图10所示,这种对三维虚拟空间中的虚拟对象的一部分的处理可以被称为处理3D-V-P。
此外,为了使边界表示不同,显示控制单元127可以对图9所示的二维绘图结果D105中的用于遮蔽的整个遮蔽模型区域CMR105执行处理。例如,显示控制单元127可以通过将整个遮蔽模型区域CMR105的颜色从用于遮蔽的颜色改变成与真实对象(例如,手部)的颜色接近的颜色来使边界表示不同。在以下描述中,如图10所示,这种对二维绘图结果中的整个遮蔽模型区域的处理可以被称为处理2D-C-A。
此外,为了使边界表示不同,显示控制单元127可以对图9所示的二维绘图结果D105中的遮蔽模型区域CMR105的一部分执行处理。例如,显示控制单元127可以通过增加遮蔽模型区域CMR105的轮廓部分CMP105的透射率或者通过使轮廓部分CMP105模糊来执行混合来使边界表示不同。在以下描述中,如图10所示,这种对二维绘图结果中的遮蔽模型区域的一部分的处理可以被称为处理2D-C-P。
此外,为了使边界表示不同,显示控制单元127可以对图9所示的二维绘图结果D105中的要被遮蔽的整个虚拟对象区域VR105执行处理。例如,显示控制单元127可以通过降低整个虚拟对象区域VR105的亮度来使边界表示不同。在下面的描述中,如图10所示,这种对二维绘图结果中的整个虚拟对象区域的处理可以被称为处理2D-V-A。
此外,为了使边界表示不同,显示控制单元127可以对图9所示的二维绘图结果D105中的虚拟对象区域VR105的一部分执行处理。例如,显示控制单元127可以通过仅使虚拟对象区域VR105的区域VRP105与真实对象(例如,手部)的颜色更接近来使边界表示不同,该区域VRP105在虚拟对象区域VR105与遮蔽模型区域CMR105之间的边界附近。在下面的描述中,如图10所示,这种对二维绘图结果中的虚拟对象区域的一部分的处理可以被称为处理2D-V-P。
由显示控制单元127执行的上述八种类型的处理可以分别单独执行或者可以组合执行,这八种类型的处理是处理3D-C-A、处理3D-C-P、处理3D-V-A、处理3D-V-P、处理2D-C-A、处理2D-C-P、处理2D-V-A和处理2D-V-P。通过单独或组合地执行上述类型的处理,显示控制单元127能够以各种方式使边界表示不同。另外,通过单独或者组合地执行上述类型的处理,显示控制单元127绘制要显示在显示单元13上的图像,并且将所绘制的图像显示在显示单元13上。
稍后将参照图12至图23描述边界表示的特定示例。
显示单元13
返回去参照图6,将继续进行描述。显示单元13例如由通过使用全息光学技术执行显示的透镜单元(透射型显示单元的示例)、液晶显示器(LCD)装置、有机发光二极管(OLED)装置等实现。此外,显示单元13可以是透射型、半透射型或非透射型。
扬声器14
扬声器14根据控制单元12的控制来再现声音信号。
通信单元15
通信单元15是用于通过有线/无线方式向另一装置发送数据以及从另一装置接收数据的通信模块。通信单元15通过例如有线局域网(LAN)、无线LAN、无线保真(Wi-Fi)(注册商标)、红外通信、蓝牙(注册商标)或短程/非接触式通信与外部装置直接通信或者经由网络接入点进行无线通信。
操作输入单元16
操作输入单元16由诸如开关、按钮或控制杆的具有物理结构的操作构件来实现。
存储单元17
存储单元17在其中存储上述控制单元12用于执行功能的程序和参数。例如,存储单元17可以在其中存储与要由显示控制单元127显示的虚拟对象相关的信息。
在上文中,具体描述了根据本实施方式的信息处理装置1的配置,但是根据本实施方式的信息处理装置1的配置不限于图6所示的示例。例如,信息处理装置1的控制单元12具有的功能中的至少一部分可以存在于经由通信单元15连接的其他装置中。
1-3.操作
在上文中,描述了根据本实施方式的信息处理装置1的配置的示例。接下来,将参照图11描述根据本实施方式的信息处理装置1的操作的示例。图11是示出根据本实施方式的信息处理装置1的操作的示例的流程图。
如图11所示,首先,传感器单元11的向外摄像装置110执行真实对象的感测(例如,成像)(S100)。随后,基于在步骤S100处执行的感测的结果,控制单元12的识别单元120的移动识别单元121执行与真实对象的移动相关的移动识别,并且例如确定关于其移动速度的信息(S110)。
此外,基于在步骤S100处执行的感测的结果,识别单元120的形状识别单元123对真实对象执行形状识别,并且生成遮蔽模型(S120)。随后,识别单元120的精度信息获取单元125获得与形状识别单元123的形状识别相关的识别精度的信息(S130)。
随后,显示控制单元127获得与要显示的虚拟对象相关的信息(S140)。显示控制单元127可以基于识别单元120的识别结果来确定要显示的虚拟对象,并且然后获得关于所确定的虚拟对象的信息。
随后,基于在步骤S110处确定的关于移动速度的信息(识别信息的示例)以及在步骤S130处确定的关于识别精度的信息(识别信息的示例),显示控制单元127确定边界表示(S150)。稍后将参照图12至图23描述本文中确定的边界表示的特定示例。
随后,显示控制单元127根据与在步骤S150处确定的边界表示相关的显示控制方法来绘制要在显示单元13上显示的图像(S160)。此外,根据显示控制单元127的控制,显示单元13在其上显示该图像(S170)。
在上文中,描述了根据本实施方式的信息处理装置1的操作的示例。步骤S110处的处理和步骤S120至S130处的处理的顺序可以颠倒,或者步骤S110处的处理和步骤S120至S130处的处理可以并行执行。
1-4.边界表示的特定示例
接下来,将参照图12至图23描述边界表示的一些特定示例。
第一特定示例:遮蔽区域的扩大和缩小
以下描述的作为边界表示的第一特定示例是下述示例:显示控制单元127通过根据识别信息(关于识别精度的信息或者关于移动速度的信息)扩大或缩小遮蔽区域来使边界表示不同。图12至图15是示出边界表示的第一特定示例的说明图。
在图12所示的示例中,与已经参照图3等描述的示例类似,手部区域识别结果R111的精度低,并且在手部区域HR111的边界中包括噪声。根据关于识别精度的信息(识别信息的示例),例如,如果识别精度低,则显示控制单元127可以控制显示,使得与遮蔽相关的遮蔽区域被扩大。即,显示控制单元127可以被考虑为控制显示,使得当识别信息不同时遮蔽区域具有不同的尺寸。
例如,如图12所示,当执行绘图,使得通过使用包括通过扩大手部区域HR111而获得的经扩大的手部区域DHR111的经扩大的手部区域识别结果DR111来遮蔽虚拟对象V111时,获得绘图结果D111。绘图结果D111中的遮蔽区域CR111与图3所示的遮蔽区域CR102相比被扩大。当基于该经扩大的遮蔽区域CR111以及包括虚拟对象区域VR111的绘图结果D111来执行显示时,用户的视野变得像视野F111。与图3所示的视野F103相比,在视野F111中,噪声的影响被减小,因此,关于虚拟对象V111与作为真实对象的用户的手部H111之间的边界,减轻了给用户带来的奇怪的感觉。
此外,所描述的图12所示的示例是显示控制单元127根据关于识别精度的信息执行显示控制的示例,但是该特定示例不限于该示例。根据关于真实对象的移动速度的信息(识别信息的示例),例如,如果移动速度高,则显示控制单元127可以控制显示,使得与遮蔽相关的遮蔽区域被扩大。在这种情况下的处理流程与参照图12描述的示例相似,因此将省略对处理流程的详细描述,并且现在将参照图13描述作为其结果而实现的效果。
当在如参照图4和图5所述的真实对象的移动速度高的情况下执行使遮蔽区域被扩大的显示控制时,用户的视野变得像如图13所示的视野F112。另外,图13示出了想象图IF112,在想象图IF112中,针对视野F112,区域被分类以用于说明。根据该想象图IF112,在视野F112中,存在本来应该看到虚拟对象V112但是替代地看到了背景真实空间的区域VH112。然而,在视野F112中,不存在如图5所示的HV103那样的区域,该区域是本来应该看到用户的手部H112但是却替代地看到了虚拟对象V112的区域,因此与参照图4和图5描述的示例相比,减轻了给用户带来的奇怪的感觉。
显示控制单元127可以根据识别信息(例如,关于识别精度的信息或者关于移动速度的信息)来使遮蔽区域的扩大程度(与表示的改变相关的强度的示例)不同。例如,显示控制单元127可以控制显示,使得识别精度越低,遮蔽区域被扩大地越大。此外,显示控制单元127可以控制显示,使得移动速度越大,遮蔽区域被扩大地越大。
此外,显示控制单元127可以控制显示,以将遮蔽区域近似为诸如矩形或椭圆形的预定形状,而不是扩大遮蔽区域。例如,通过使近似的形状比遮蔽区域大,能够实现与上述效果类似的效果。
此外,显示控制单元127可以使下述部分淡出,该部分与经扩大的遮蔽区域的扩大相关。将参照图14描述该示例。同样在图14所示的示例中,手部区域识别结果R113的精度低,并且在手部区域HR113的边界中包括噪声。
在图14所示的示例中获得的是绘图结果D113,在绘图结果D113中,执行绘图,使得通过使用包括通过扩大手部区域HR113而获得的经扩大的手部区域DHR113的经扩大的手部区域识别结果DR113来遮蔽虚拟对象V113。该经扩大的手部区域DHR113被扩大,使得与扩大相关的部分被淡出。结果,同样在绘图结果D113的遮蔽区域CR113中,与扩大相关的部分被淡出。当基于包括遮蔽区域CR113和虚拟对象区域VR113的该绘图结果D113来执行显示时,用户的视野变得像视野F113。结果,在视野F113中,虚拟对象V113与作为真实对象的用户的手部H113之间的边界附近的区域被淡出,并且进一步减轻了给用户带来的奇怪的感觉。
图14所示的上述示例对应于识别精度低的情况,但是同样适用于移动速度高的情况。
此外,显示控制单元127可以控制显示,使得遮蔽区域中的与识别信息对应的区域被扩大或缩小。例如,如果由精度信息获取单元125提供的关于识别精度的信息包括与识别精度低的部分相关的信息(例如,位置信息),则显示控制单元127可以控制显示,使得遮蔽区域中的与识别精度低的部分对应的区域被扩大。将参照图15具体描述该示例。
当获得如图15所示的包括噪声的手部区域识别结果R114,并且显示控制单元127控制显示,使得与遮蔽区域中的与识别精度低的部分对应的区域被扩大时,用户的视野变得像视野F114。在视野F114中,本来应该看到虚拟对象V114但是却替代地看到了背景真实空间的区域仅是与识别精度低的部分对应的经扩大的部分区域FR114。虚拟对象V114与手部H115之间的边界以高精度表示,该边界是除了经扩大的部分区域FR114以外的部分。因此,该配置减轻了给用户带来的奇怪的感觉。
此外,如果遮蔽区域中的与识别精度低的部分对应的区域被扩大,则显示控制单元127可以与参照图14描述的示例类似地使与扩大相关的部分淡出。在图15所示的示例中,当获得包括噪声的手部区域识别结果R115,并且显示控制单元127控制显示,使得与遮蔽区域中的识别精度低的部分对应的区域被扩大,并且与扩大相关的部分被淡出时,用户的视野变得像视野F115。在视野F115中,由于与识别精度低的部分对应的经扩大的部分区域FR115已被淡出,因此与视野F114的示例相比,进一步减轻了给用户带来的奇怪的感觉。
图15所示的上述示例对应于识别精度低的情况,但是这同样适用于移动速度高的情况。例如,如果由移动识别单元121提供的关于移动速度的信息包括与移动速度高的部分相关的信息(例如,位置信息),则显示控制单元127可以控制显示,使得与遮蔽区域中的移动速度高的部分对应的区域被扩大。
在上文中,参照图12至图15描述了边界表示的第一特定示例。尽管以上描述了扩大遮蔽区域的示例,但是这同样适用于缩小遮蔽区域的情况。当遮蔽区域被缩小时,用户的视野中的本来应该看到虚拟对象但是却替代地看到背景真实空间的区域被缩小,从而减轻了给用户带来的奇怪的感觉。
此外,可以通过例如参照图8至图10所述的处理来实现上述遮蔽区域的扩大或缩小。例如,可以通过图10中的处理3D-C-P、处理2D-C-P和处理2D-V-P的适当组合来实现上述遮蔽区域的扩大或缩小。
第二特定示例:添加效果
以下作为边界表示的第二特定示例描述的是下述示例:显示控制单元127通过根据识别信息(关于识别精度的信息或者关于移动速度的信息)控制显示,使得在与遮蔽相关的边界附近添加(叠加)效果,从而使边界表示不同。在与遮蔽相关的边界附近可以指例如在参照图2等描述的遮蔽区域与虚拟对象区域之间的边界附近。此外,在与遮蔽相关的边界附近可以指在遮蔽模型的轮廓部分附近,或者在参照图8和图9描述的遮蔽模型区域与虚拟对象区域之间的边界附近。
图16至图22是示出边界表示的第二特定示例的说明图。在图16所示的示例中,与参照图3等描述的示例类似,手部区域识别结果R121的精度低,并且在手部区域HR121的边界中包括噪声。因此,根据关于识别精度的信息(识别信息的示例),例如,如果识别精度低,则显示控制单元127可以控制显示,使得将效果E121添加到与遮蔽相关的边界附近。在图16所示的示例中,效果E121可以是诸如辉光的发光效果。
在图16所示的示例中,显示控制单元127通过执行绘图,使得通过使用手部区域识别结果R121来遮蔽虚拟对象V121并且将效果E121添加到与遮蔽相关的边界附近,来获得绘图结果D121。在绘图结果D121中,效果区域ER121存在于遮蔽区域CR121与虚拟对象区域VR121之间。当基于包括遮蔽区域CR121、虚拟对象区域VR121和效果区域ER121的该绘图结果D121来执行显示时,用户的视野变得像视野F121。在视野F121中,通过添加效果E121,与图3中所示的视野F103相比,噪声的影响被减小。结果,减轻了用户关于虚拟对象V121与作为真实对象的用户的手部H121之间的边界的奇怪的感觉。
此外,在图16所示的上述示例中,显示控制单元127根据关于识别精度的信息执行显示控制,但是本特定示例不限于该示例。根据关于真实对象的移动速度的信息(识别信息的示例),例如,如果移动速度高,则显示控制单元127可以控制显示,使得效果被添加到与遮蔽相关的边界附近。由于这种情况下的处理流程与参照图16描述的示例类似,因此将省略对处理流程的详细描述,并且将参照图17描述作为其结果而实现的效果。
当如参照图4和图5所述的真实对象的移动速度高,并且执行显示控制使得效果被添加到与遮蔽相关的边界附近时,用户的视野变得像图17所示的视野F122。另外,图17示出了想象图IF122,想象图IF122对视野F127添加了用于说明的细线和虚线。想象图IF122中示出的细线表示在没有添加效果的情况下虚拟对象V122的边界。此外,想象图IF122中示出的虚线表示作为真实对象的手部H122的边界,该边界被效果E122隐藏。根据该想象图IF122,在视野F122中不存在如图5中所示的区域VH103的本来应该看到虚拟对象V122但是却替代地看到背景真实空间的区域。此外,根据想象图IF122,也不存在如图5中所示的区域HV103的本来应该看到用户的手部H112但是却替代地看到虚拟对象V112的区域。通过将效果E122添加到与遮蔽相关的边界的外部和内部二者以使得这两个区域都被覆盖的显示,与参照图4和图5描述的示例相比,减轻了给用户带来的奇怪的感觉。
显示控制单元127可以根据识别信息(例如,关于识别精度的信息或者关于移动速度的信息)来使效果的强度(与表示的改变相关的强度的示例)不同。效果的强度可以是效果的范围的大小、效果的亮度(或光度)的大小等。将参照图18描述效果的强度的示例。在图18所示的视野F123的示例中,效果未被添加到手部H123与虚拟对象V123之间的边界附近。图18所示的视野F124的示例是效果的强度大于视野F123的示例中的效果的强度的示例。在图18所示的视野F124的示例中,效果E124被添加到手部H124与虚拟对象V124之间的边界附近。图18所示的视野F125的示例是效果的强度比视野F124的示例中的效果的强度还要大的示例。在图18所示的视野F124的示例中,效果E125被添加到比效果E124更宽的范围。效果E125不仅向外部扩大,而且效果E125除了被添加到手部H125与虚拟对象V125之间的边界附近的区域,还被添加到整个手部H125。这是因为向内部扩大效果会更难以看到手部H125,而将效果添加到整个手部H125会更容易看到手部H125,因为这种添加使手部H125看起来像是例如用于操纵的用户界面(UI)。
例如,可以根据识别精度的水平或者移动速度的水平来实现如图18所示的效果的强度的转变。例如,显示控制单元127可以控制效果的显示,使得识别精度越低,效果的强度变得越高。此外,显示控制单元127可以控制效果的显示,使得移动速度越高,效果的强度变得越高。
此外,显示控制单元127可以控制显示,使得效果被添加到根据识别信息的位置处。例如,如果由精度信息获取单元125提供的关于识别精度的信息包括与识别精度低的部分相关的信息,则显示控制块127可以控制显示,使得效果被添加到识别精度低的部分的边界附近。此外,如果由移动识别单元121提供的关于移动速度的信息包括与移动速度高的部分相关的信息,则显示控制单元127可以控制显示,使得效果被添加到识别精度低的部分的边界附近。
例如,可以通过参照图8至图10描述的处理来实现参照图15至图18描述的效果的添加。例如,通过适当地组合图10中的处理3D-C-P、处理2D-C-P和处理2D-V-P,可以实现与遮蔽相关的边界附近的效果的添加。此外,通过适当地组合图10中的处理3D-C-A、处理3D-C-P、处理2D-C-A、处理2D-C-P以及处理2D-V-P,可以实现参照图18描述的对整个真实对象的效果的添加。
由显示控制单元127添加的效果可以是各种效果中的任何效果。下面将描述效果的一些示例。
在图19所示的视野F131的示例中,用户的手部H131与虚拟对象V131之间的边界未被适当地表示。相比之下,在图20所示的视野F132的示例中,诸如辉光的发光的效果E132被添加到与遮蔽相关的边界附近。在视野F132的示例中,效果E132被添加,使得覆盖手部H132的整个轮廓,并且这可以通过例如图10中的处理3D-C-P来实现。
此外,基于例如由形状识别单元123执行的对真实对象的三维形状的改变(移动)的预测的结果,效果E132可以具有诸如运动模糊的强度改变。例如,效果E132的强度可以在预测的改变的开始位置与预测的改变的结束位置之间改变。如上所述,通过添加具有强度变化(例如运动模糊)的效果E132,减轻了关于用户的手部H132与虚拟对象V132之间的边界给用户带来的奇怪的感觉。
此外,在图20所示的视野F133的示例中,诸如辉光的发光的效果E133被添加到与遮蔽相关的边界附近。在视野F133的该示例中,效果E132被添加,该添加被限制于手部H133与虚拟对象V133之间的边界附近的区域。例如,可以通过适当地组合图10中的处理3D-C-P、处理2D-C-P和处理2D-V-P来实现这种显示控制。
此外,基于由形状识别单元123执行的对真实对象的三维形状的改变(移动)的预测的结果,类似于效果E132,效果E133可以具有诸如运动模糊的强度改变。在添加这种效果E133时,也减轻了关于用户的手部H133与虚拟对象V133之间的边界给用户带来的奇怪的感觉。
此外,在参照图20描述的示例中,效果E132和效果E133的颜色可以是与真实对象(例如,手部)的颜色接近的颜色或者与虚拟对象的颜色更接近的颜色。在这种情况下,效果可以具有或不具有类似于运动模糊的强度变化。这种配置减轻了关于真实对象与虚拟对象之间的边界给用户带来的奇怪的感觉。
此外,显示控制单元127可以控制显示,使得添加用于使与遮蔽相关的边界附近的区域模糊的效果。例如,可以通过适当地组合图10中的处理3D-C-P、处理2D-C-P和处理2D-V-P来实现这种显示控制。
尽管上面作为示例描述了整个真实对象存在于比虚拟对象更近的位置处的情况,但是即使在真实对象的一部分存在于比虚拟对象远的位置处的情况下,显示控制单元127也可以添加效果。将参照图21和图22描述这种情况。
在图21所示的视野F141的示例中,作为真实对象的手部的整个手指H141存在于比虚拟对象V141近的位置处。当手指H141从这种状态移动以与虚拟对象V141碰撞(手指H141的一部分进入虚拟对象V14中)时,用户的视野期望地变得像图21中所示的视野F142。在视野F142的示例中,显示控制单元127执行显示控制,使得真实对象与虚拟对象碰撞,并且通过遮蔽手指H142的一部分来表示手指H142与虚拟对象V142之间的碰撞。
在图21所示的并且考虑到识别精度低的情况的视野F143的示例中,作为真实对象的整个手指H143存在于比虚拟对象V143近的位置处,但是由于噪声的影响,手指H143与虚拟对象V143之间的边界未被适当地表示。当手指H143从这种状态移动以与虚拟对象V143碰撞并且显示控制单元127执行显示控制,使得真实对象与虚拟对象碰撞时,用户的视野变得像视野F144。除了本来应该看到虚拟对象V144但是却替代地看到背景真实空间的区域以及本来应该看到手指H144但是却替代地看到虚拟对象V144的区域以外,在视野F144中还存在本来应该看到虚拟对象V144但是却替代地看到手指H144的区域。
现在将考虑针对诸如视野F144的示例添加效果。如果通过图10中的处理3D-C-P向遮蔽模型的轮廓部分附近添加效果来实现这种效果的添加,则用户的视野可以变得像图22中的视野F145。在视野F145的示例中,由于效果E145的存在,不存在本来应该看到虚拟对象V145但是却替代地看到背景真实空间的区域以及本来应该看到手指H145但是却替代地看到虚拟对象V145的区域。然而,在视野F145的示例中,存在本来应该看到虚拟对象V145但是却替代地看到手指H145的区域,并且这可能给用户带来奇怪的感觉。
因此,显示控制单元127期望地如图22中所示的视野F146那样控制显示,使得效果E145也被添加到与手指H145(真实对象的示例)与虚拟对象V145之间的碰撞相关的边界附近。例如,当通过图10中的处理3D-C-P来实现这种显示控制时,效果不仅可以被添加到遮蔽模型的轮廓部分附近,而且可以被添加到与遮蔽模型与虚拟对象之间的碰撞相关的边界附近。此外,可以通过图10的处理2D-C-P来实现该显示控制。
图22所示的上述示例对应于识别精度低的情况,但这同样适用于移动速度高的情况。
第三特定示例:虚拟对象的可见度的控制
在上文中,参照图16至图22描述了边界表示的第二特定示例。接下来作为边界表示的第三特定示例描述的是下述示例:显示控制单元127通过根据识别信息(关于识别精度的信息或者关于移动速度的信息)控制虚拟对象的显示,使得虚拟对象的可见度不同,从而使得边界表示不同。
图23是示出边界表示的第三特定示例的说明图。在图23中所示的用户的视野F151的示例中,由于识别精度低,因此作为真实对象的用户的手部H151与虚拟对象V151之间的边界未被适当地表示,并且因此用户可能从中感到奇怪的感觉。
因此,显示控制单元127可以控制显示,使得识别精度越低,虚拟对象的可见度被越多地减小。这种配置减轻了与真实对象与虚拟对象之间的边界相关的奇怪的感觉。
例如,在图23所示的视野F152的示例中,通过线框渲染显示虚拟对象V152来减轻了与手部H152与虚拟对象V152之间的边界相关的奇怪的感觉。此外,在图23所示的视野F153的示例中,通过降低虚拟对象V153的亮度并且使虚拟对象V153看起来半透明来减轻了与手部H153与虚拟对象V153之间的边界相关的奇怪的感觉。
此外,图23所示的上述示例均对应于识别精度低的情况,但是这同样适用于移动速度高的情况。此外,可以通过图10中的处理3D-V-A来实现如图23所示的降低虚拟对象的可见度的显示控制。
由显示控制单元127执行的使可见度不同的显示控制不限于图23所示的示例。例如,显示控制单元127可以根据虚拟对象的颜色饱和度的改变、是否存在纹理或图案等来使可见度不同。此外,显示控制单元127可以通过降低虚拟对象的显示分辨率来降低可见度。
此外,尽管图23示出了显示控制单元127降低整个虚拟对象的可见度的示例,但是显示控制单元127可以控制显示,使得降低虚拟对象的部分区域(例如,具有预定形状的区域)的可见度。例如,可以通过适当地组合图10中所示的处理3D-V-P和处理2D-V-P来实现该显示控制。
1-5.修改例
在上文中,描述了本公开内容的第一实施方式。在下文中描述的是该实施方式的一些修改例。以下描述的修改例可以分别单独应用于该实施方式,或者可以组合应用于该实施方式。另外,修改例中的每个修改例可以代替关于该实施方式描述的配置来应用,或者可以附加地应用于关于该实施方式描述的配置。
修改例1-1
当用户使用真实对象对虚拟对象执行操纵时,上述边界表示的第三特定示例可以特别有效。例如,通过使用诸如手部或手指的真实对象进行的按钮(虚拟对象)按压操纵、字符串(虚拟对象)选择操纵等可以是精细操纵,并且因此如果由于遮蔽区域的扩大或者由于效果导致虚拟对象的本来应该可见的一部分变得不可见,则可能妨碍该操纵。相比之下,当执行上述降低可见度的显示控制时,虽然可见度降低,但是能够看到本来应该看到的虚拟对象,因此对操纵的影响小。
因此,当通过使用真实对象来执行对虚拟对象的操纵时,显示控制单元127可以附加地根据与操纵相关的操纵信息来控制显示,使得边界表示不同。也就是说,如果虚拟对象是能够通过真实对象操纵的虚拟对象,则可以考虑使显示控制单元127控制遮蔽显示,使得呈现来自多个边界表示的使虚拟对象具有更大的显示区域的边界表示。例如,操纵信息可以由识别单元120识别,并且可以被提供给显示控制单元127。显示控制单元127可以通过根据由识别单元120识别的操纵信息选择边界表示的上述特定示例中的更适当的边界表示来执行显示控制。例如,如果识别单元120识别出正在执行精细操纵,则显示控制单元127可以根据识别信息来使虚拟对象的可见度不同。操纵信息不限于操纵信息从识别单元120提供的示例,并且例如可以根据虚拟对象的形状来确定。
根据该配置,例如,执行了与操纵的类型对应的显示控制,并且实现了难以妨碍用户的操纵的效果。
修改例1-2
取决于与虚拟对象相关的内容,可能难以应用上述边界表示的第三特定示例的一部分。因此,显示控制单元127可以附加地根据与虚拟对象相关的内容信息来控制显示,使得边界表示不同。
例如,如果与虚拟对象相关的内容是文本或三维形状,则可以进行线框渲染,并且因此显示控制单元127可以通过执行线框渲染来降低可见度。相反,如果与虚拟对象相关的内容是图像(静止图像或运动图像),则难以进行线框渲染,并且因此可以通过降低虚拟对象的亮度并且使虚拟对象看起来半透明来降低可见度。即,可以考虑使显示控制单元127根据虚拟对象是否具有三维形状来控制遮蔽显示。
根据该配置,能够实现根据内容的显示控制,并且因此更加减轻了给用户带来的奇怪的感觉。
修改例1-3
此外,显示控制单元127可以基于关于识别精度的信息来控制虚拟对象的布置(位置、姿势、尺寸等)。图24是示出修改例的说明图,在该修改例中,显示控制单元127基于关于识别精度的信息来控制虚拟对象的布置。
图24所示的识别结果R161是基于作为真实对象的用户的手部H161的感测的识别的结果。此外,识别结果R161还表示关于识别精度的信息,并且在识别结果R161中,白色区域是识别精度低的区域。因此,例如,如果虚拟对象被布置在识别结果R161中的与识别精度低的区域LR161对应的位置处,则虚拟对象与真实对象之间的边界可能不能被适当地表示。因此,显示控制单元127可以将虚拟对象布置在识别结果R161中的与识别精度高的区域HR161对应的位置处,并且在这种情况下,用户的视野变得像视野F161。在视野F161的示例中,适当地表示了手部H161与虚拟对象V161之间的边界,并且减轻了用户从其中感到的奇怪的感觉。
例如,取决于与虚拟对象相关的内容,不应该使虚拟对象的布置不同,并且因此可以基于内容信息来执行对虚拟对象的布置的上述控制。
修改例1-4
上述边界表示的第二特定示例是在与遮蔽相关的边界附近添加了效果的示例,但是该实施方式不限于该示例。例如,显示控制单元127可以根据识别信息控制显示,使得效果被添加到与遮蔽相关的遮蔽区域的内部。图25和图26是示出修改例的说明图,在每个修改例中,显示控制单元127根据识别信息控制显示,使得效果被添加到与遮蔽相关的遮蔽区域的内部。
在图25所示的示例中,作为基于手部H171的感测的识别的结果而获得的手部区域识别结果R171的精度低,并且在手部区域HR171的内部包括噪声。如果执行绘图,使得通过使用这种低精度的手部区域识别结果R171来遮蔽虚拟对象V171,则在由此获得的绘图结果D171中,噪声也被包括在遮蔽区域CR171的内部。当基于该绘图结果D171来执行显示时,在用户的视野F171中会看到噪声的影响。具体地,在本来应该看到用户的手部H171的区域中看到虚拟对象V171,并且用户可能从中感到奇怪的感觉。
因此,根据关于识别精度的信息(识别信息的示例),例如,如果识别精度低,则显示控制单元127可以控制显示,使得效果被添加到遮蔽区域CR171的内部。
例如,如图26中所示的视野F172,显示控制单元127可以控制显示,使得效果E172被添加到遮蔽区域的内部。根据该配置,效果E171使得难以看到本来应该看到用户的手部H171但是却替代地看到虚拟对象V171的区域,并且减轻了给用户带来的奇怪的感觉。
效果E172可以是具有运动的效果,并且可以是例如诸如视频噪声的效果。由于效果E171是诸如视频噪声的效果,因此用户能够知道手部H172的识别精度降低。
另外,如图26中所示的视野F173,显示控制单元127可以控制显示,使得包括多个运动的粒子的效果E173被添加到遮蔽区域的内部。根据这种配置,效果E173使得难以看到本来应该看到用户的手部H173但是却替代地看到虚拟对象V173的区域,并且减轻了给用户带来的奇怪的感觉。
此外,如果关于识别精度的信息包括指示由于手部H173与向外摄像装置110之间的距离太短而导致识别精度降低的信息,则显示控制单元127可以执行显示控制,使得效果E173中包括的粒子朝用户的脸飞来。该配置使得可以引导用户将手部H173从向外摄像装置110移开。
另外,如果关于识别精度的信息包括与识别精度低的部分相关的信息(例如,位置信息),则显示控制单元127可以控制显示,使得效果E173中包括的粒子将手部H173引导到将被适当识别的位置。该配置使得可以引导用户将手部H173移动到将被高精度识别的位置。
1-6.效果
以上描述了本公开内容的第一实施方式。根据该实施方式,通过根据与基于真实对象的感测的识别相关的识别信息来控制显示,使得虚拟对象与真实对象之间的边界表示不同,能够减轻给用户带来的奇怪的感觉。
2.第二实施方式
2-1.概要
接下来描述的是本公开内容的第二实施方式。第二实施方式与第一实施方式部分相同,因此将在适当地进行省略的同时进行描述。在下文中,通过向与关于第一实施方式描述的配置相同的任何配置分配相同的附图标记来省略其描述。
图27和图28是示出本公开内容的第二实施方式的概要的说明图。如图27所示,当基于作为真实对象的用户的手部H201的感测来执行形状识别时,获得形状识别结果R201。此外,当基于形状识别结果R201来执行绘图而使得虚拟对象被遮蔽时,获得绘图结果D201。然而,如果在执行与形状识别和绘图相关的上述处理的同时手部H201移动,则用户的视野变得像视野F201。在视野F201的示例中,由于手部H201的移动的影响,虚拟对象V201与用户的手部H201之间的边界变得不自然。
因此,根据以下描述的本实施方式,通过减小与形状识别相关的处理负荷以及与绘图相关的处理负荷,缩短与真实对象的感测到显示相关的时间段。通过缩短与真实对象的感测到显示相关的时间段,如图27中的视野F202所示,虚拟对象V202与用户的手部H202之间的边界变得容易被适当地表示。结果,减轻了给用户带来的奇怪的感觉。
例如,根据真实对象的移动速度,可以改变与形状识别相关的处理负荷以及与绘图相关的处理负荷。更具体地,如果获得了指示真实对象的移动速度是第一移动速度的移动信息,则与获得了指示真实对象的移动速度是低于第一移动速度的第二移动速度的移动信息的情况相比,可以更加减少由显示控制单元执行的与形状识别相关的处理负荷以及与绘图相关的处理负荷中的至少一个。例如,如果真实对象的移动速度高(真实对象的移动速度是第一移动速度),则期望减少与形状识别相关的处理负荷以及与绘图相关的处理负荷。将参照图28描述根据真实对象的移动速度来减少处理负荷的示例。
图28所示的作为真实对象的用户的手部H203以低速移动。手部H203上的箭头指示手部H203的移动。首先,基于手部H203的感测,执行移动识别。如果作为移动识别的结果确定手部H203的移动为低速,则执行形状识别,并且获得识别结果R203。识别结果R203上的箭头指示通过移动识别而识别的手部H203的移动。
当基于识别结果R203来执行绘图以使得虚拟对象被遮蔽时,获得绘图结果D203,并且当基于绘图结果D203来执行显示时,用户的视野变得像视野F203。当手部H203以低速移动时,手部H203的移动的影响小,并且在视野F203的示例中,虚拟对象V203与用户的手部H203之间的边界可以被适当地表示。
相反,图28所示的手部H204以高速移动。如果作为基于手部H204的感测的移动识别的结果确定手部H204的移动为高速,则再次利用作为在先前时间执行的并且已存储的形状识别的结果的形状识别结果MR204。在这种情况下,可以不执行形状识别。因此,能够大大减少与形状识别相关的处理负荷。在图28所示的示例中,所存储的形状识别结果MR204是包括在识别结果R203中的形状识别结果,但是本实施方式不限于该示例,并且所存储的形状识别结果MR204可以是例如对紧接在前的帧执行的形状识别的结果。
基于通过移动识别而获得的移动信息使所存储的形状识别结果MR204移动和改变,获得识别结果R204。此外,如果确定手部H204的移动为高速,则在执行绘图之前可以减少多边形的数目。通过减少多边形的数目,减少了与绘图相关的处理负荷。当基于减少了多边形数目的识别结果来执行绘图以使得虚拟对象被遮蔽时,获得绘图结果D204,并且当基于绘图结果D204来执行显示时,用户的视野变得像视野F204。如上所述,通过减少与形状识别相关的处理负荷以及与绘图相关的处理负荷,即使手部H204以高速移动,在视野F204的示例中也能够适当地表示虚拟对象V204与用户的手部H204之间的边界。
在上文中描述了本实施方式的概要。如上所述,根据本实施方式,当真实对象的移动速度高时,通过减少与形状识别相关的处理负荷以及与绘图相关的处理负荷,减小了真实对象的移动的影响,并且减轻了给用户带来的奇怪的感觉。在下文中详细描述的是具有这样的效果的本实施方式的配置。
2-2.配置
图29是示出根据本公开内容的第二实施方式的信息处理装置1-2的配置的示例的框图。在图29所示的部件中,被分配与图6所示的附图标记相同的附图标记的部件与图6所示的部件相同,因此将省略对其的描述。如图29所示,根据本实施方式的信息处理装置1-2与根据第一实施方式的信息处理装置1的不同之处在于,其控制单元12-2的功能与图2所示的控制单元12的功能部分地不同。
与根据第一实施方式的控制单元12类似,控制单元12-2充当算术处理装置和控制装置,并且根据各种程序控制信息处理装置1-2中的整体操作。此外,根据本实施方式的控制单元12-2充当如图8所示的识别单元120-2和显示控制单元128。
类似于图2中所示的识别单元120,该识别单元120-2具有基于由传感器单元11感测到的各种类型的传感器信息来对与用户相关的信息或者与周围情况相关的信息执行识别(包括检测)的功能。如图29所示,根据本实施方式的识别单元120-2与图2所示的识别单元120的不同之处在于,识别单元120-2具有作为移动识别单元122、形状识别单元124和移动和改变单元126的功能。
移动识别单元122基于真实对象的感测来执行与真实对象的移动相关的移动识别。例如,移动识别单元122可以基于通过真实对象的感测而获得的捕获图像来识别真实对象的重心位置以及姿势的移动。可以通过计算通过三维识别而获得的一组三维点的重心来获得真实对象的重心位置,或者可以获得真实对象的重心位置作为从捕获图像检测的真实对象的二维重心位置。另外,在姿势的检测中,可以使用重心周围的主成分分析等。
移动识别单元122识别出所识别的重心位置以及帧之间的姿势的移动,获得与移动的识别相关的识别信息(该识别信息是通过移动的识别所确定的真实对象的移动速度的信息),并且将该识别信息提供给形状识别单元124、移动和改变单元126以及显示控制单元128。
根据本实施方式的移动识别单元122期望地执行比形状识别单元124执行的识别更快的与移动相关的识别。如以上参照图28所描述的,执行控制,使得由形状识别单元124执行的与形状识别相关的处理负荷和由显示控制单元128执行的与绘图相关的处理负荷中的至少一个根据通过由移动识别单元122执行的移动识别获得的移动信息而改变。该控制可以通过形状识别单元124和显示控制单元128基于移动速度进行确定来执行,或者可以通过控制单元12-2确定处理模式来执行。例如,控制单元12-2可以在移动速度高于预定阈值的情况下将处理模式确定为高速模式,并且可以在移动速度等于或小于预定阈值的情况下将处理模式确定为低速模式。然后,形状识别单元124和显示控制单元128可以根据由控制单元12-2确定的处理模式来执行形状识别和绘图。
形状识别单元124基于真实对象的感测来执行用于识别真实对象的三维形状的形状识别。此外,形状识别单元124可以在识别形状的同时识别真实对象的位置和姿势。此外,形状识别单元124基于所识别的真实对象的三维形状来生成由顶点和边的三维列表示的三维模型,并且将三维模型作为形状信息提供给显示控制单元127。如关于第一实施方式参照图7所述,由形状识别单元124生成的真实对象的三维模型被用作遮蔽模型,该遮蔽模型用于供显示控制单元128执行绘图,使得虚拟对象被遮蔽。此外,根据本实施方式的形状识别单元124生成的真实对象的三维模型被作为形状识别结果存储在存储单元17中。
此外,类似于根据第一实施方式的形状识别单元123,形状识别单元124可以对真实对象的三维形状(的移动)的改变执行预测,并且基于预测来校正真实对象的三维形状,从而生成经校正的三维模型。
此外,如参照图28所述,如果包括在从移动识别单元122提供的移动信息中的真实对象的移动速度高(如果模式为高速模式),则根据本实施方式的形状识别单元124可以不必执行(可以省略)形状识别。在移动速度高时,该配置大大减少了与形状识别相关的处理负荷,并且这种处理负荷的减少导致处理时间段的缩短。
如参照图28所描述的,如果真实对象的移动速度高(如果模式为高速模式),移动速度包括在移动信息中,则移动和改变单元126基于从移动识别单元122提供的移动信息来移动和改变存储在存储单元17中的形状识别结果。例如,由移动和改变单元126执行的对形状识别结果的改变可以包括形状识别结果的放大或缩小。
此外,期望移动和改变单元126对形状识别结果的移动和改变比形状识别单元124的形状识别更快地执行。通过移动和改变单元126的移动和改变而获得的形状识别结果被提供给显示控制单元128,并且被用作用于执行绘图以遮蔽虚拟对象的遮蔽模型。
该配置使得,即使在移动速度高并且不执行形状识别的情况下,也能够再次利用所存储的形状识别结果更快地获得用于绘图的遮蔽模型。
与根据第一实施方式的显示控制单元127类似,显示控制单元128控制显示单元13上的显示。例如,显示控制单元128在显示单元13上显示虚拟对象,使得虚拟对象与真实空间同时可见。此外,与根据第一实施方式的显示控制单元127类似,显示控制单元128通过使用遮蔽模型来控制显示,使得虚拟对象的遮蔽被执行。
此外,如参照图28所述,根据本实施方式的显示控制单元128可以根据通过移动识别单元122执行的移动识别而获得的移动信息来减少遮蔽模型中的多边形的数目。例如,当包括在移动信息中的移动速度高(模式为高速模式)时,显示控制单元128可以在减少遮蔽模型中的多边形的数目之后执行绘图。该配置减少了与绘图相关的处理负荷,并且这种处理负荷的减少导致缩短了处理时间段。
图30是示出由显示控制单元128执行的减少遮蔽模型中的多边形的数目的示例的说明图。显示控制单元128可以通过减少遮蔽模型CM205中的多边形的数目来生成遮蔽模型CM206。可以通过在遮蔽模型CM205中在水平方向上扫描的同时连接多边形来执行用于生成遮蔽模型CM206的多边形数目的减少。通过显示控制单元128基于该遮蔽模型CM206来执行绘图,获得了遮蔽模型的绘图结果D206。减少遮蔽模型中的多边形的数目不限于图30所示的示例,并且可以通过多种方法来执行。
2-3.操作
以上描述了根据本实施方式的信息处理装置1的配置的示例。接下来描述的是根据本实施方式的操作的示例。在下文中,首先参照图31和图32描述的是比较例,该比较例是在未减小与形状识别相关的处理负荷以及与绘图相关的处理负荷的情况下的操作的示例。
图31是示出根据该比较例的操作的流程图。如图31所示,首先,执行真实对象的感测(S900),并且获得与要显示的虚拟对象相关的信息(S910)。随后,基于在步骤S900处执行的感测的结果,执行对真实对象的形状识别(S960)。此外,基于在步骤S960处执行的形状识别的结果来执行绘图,使得虚拟对象被遮蔽(S970)。基于步骤S970处的绘图的结果,执行显示(S980)。
图32是根据比较例的时序图。在图32所示的示例中,与真实对象的移动速度无关,从开始感测到开始显示需要时间段T1。如图32所示,时间段T1是感测间隔t的3倍。例如,在感测间隔t是1/60秒时,从开始感测到开始显示需要1/20秒,并且取决于真实对象的移动速度,用户可能感到奇怪的感觉。
接下来,将参照图33和图34描述根据本实施方式的信息处理装置1-2的操作的示例。图33是示出根据本实施方式的信息处理装置1-2的操作的示例的流程图。
如图33所示,首先,传感器单元11的向外摄像装置110执行真实对象的感测(例如,成像)(S200)。随后,显示控制单元128获得与要显示的虚拟对象相关的信息(S210)。
随后,控制单元12-2的识别单元120-2的移动识别单元122基于在步骤S200处执行的感测的结果来执行与真实对象的移动相关的移动识别,并且例如确定关于移动速度的信息(S220)。随后,控制单元12-2基于在步骤S220处确定的关于移动速度的信息来确定模式是低速模式还是高速模式(S230)。
如果模式是高速模式,则形状识别结果被再次利用(在S240处为是),并且识别单元120-2的移动和改变单元126通过移动和改变已经存储的形状识别结果来获得遮蔽模型(S250)。相反,如果模式是低速模式,则不再次利用形状识别结果(在S240处为否),并且识别单元120-2的形状识别单元124通过执行形状识别来生成遮蔽模型(S260)。
随后,控制单元12-2的显示控制单元128基于在步骤S250或步骤S260处获得的遮蔽模型来执行绘图,使得虚拟对象被遮蔽(S270)。此外,根据显示控制单元128的控制,显示单元13在其上显示图像(S280)。最后,存储最新的形状识别结果(S290)。
图34是根据本实施方式的时序图。如图34所示,根据本实施方式,在高速模式下,从开始感测到开始显示需要时间段T2。如图34所示,时间段T2是感测间隔t的2倍,并且比图32所示的时间段T1短。因此,减小了由于真实对象的移动而导致的影响,并且减轻了给用户带来的奇怪的感觉。
2-4.修改例
以上描述了本公开内容的第二实施方式。在下文中描述的是本实施方式的一些修改例。以下描述的修改例可以分别单独应用于本实施方式,或者可以组合应用于本实施方式。另外,修改例中的每个修改例可以代替关于本实施方式描述的配置来应用,或者可以附加地应用于关于本实施方式描述的配置。
修改例2-1
上面描述的是其中形状识别单元124识别真实对象的三维形状作为形状识别结果的示例。然而,本实施方式不限于该示例。例如,形状识别单元124可以识别具有预定形状并且与真实对象的形状近似的近似模型作为形状识别结果。例如,预定形状可以是长方体、椭圆体或圆柱。此外,可以识别覆盖真实对象的形状的三维模型作为近似模型。在这种情况下,移动和改变单元126可以通过使用所存储的近似模型并且移动和改变近似模型来获得作为形状识别结果的遮蔽模型,该近似模型用作已存储的形状识别结果。
将参照图35描述该修改例。图35是示出该修改例的说明图。
图35所示的作为真实对象的用户的手部H211以低速移动。手部H211上的箭头指示手部H211的移动。首先,移动识别单元122基于手部H211的感测来执行移动识别。作为移动识别的结果,如果确定手部H211的移动速度低(模式为低速模式),则形状识别单元124执行形状识别(近似模型的识别),并且获得识别结果R211。识别结果R211上的箭头指示由移动识别单元122识别的手部H211的移动。
当基于识别结果R211来执行绘图以遮蔽虚拟对象时,获得绘图结果D211,并且当基于绘图结果D211来执行显示时,用户的视野变得像视野F211。
相反,图35所示的手部H212以高速移动。当移动识别单元122基于手部H212的感测来执行移动识别并且确定手部H212的移动为高速时,再次利用作为先前时间执行的形状识别(近似模型的识别)的结果并且已经存储的形状识别结果MR212。在这种情况下,可以不执行形状识别。因此,能够大大减少与形状识别相关的处理负荷。在图35所示的示例中,所存储的形状识别结果MR212是包括在识别结果R211中的形状识别结果,然而,本实施方式不限于该示例,并且所存储的形状识别结果MR212可以是例如对紧接在前的帧执行的形状识别的结果。
通过移动和改变单元126基于移动信息来移动和改变所存储的形状识别结果MR212,获得识别结果R212。此外,如果确定手部H212的移动为高速,则在执行绘图之前可以减少多边形的数目。通过减少多边形的数目,减少了与绘图相关的处理负荷。当基于减少了多边形数目的识别结果来执行绘图以遮蔽虚拟对象时,获得绘图结果D212,并且当基于绘图结果D212来执行显示时,用户的视野变得像视野F212。
图35所示的上述示例是在移动速度低(移动为低速)的情况下形状识别单元124将近似模型识别为形状识别结果的示例,但本修改例不限于该示例。例如,形状识别单元124可以根据真实对象的移动速度在识别真实对象的三维形状与识别真实对象的近似模型之间切换。例如,如果移动速度低,则形状识别单元124可以识别真实对象的三维形状,并且如果移动速度高,则形状识别单元124可以识别真实对象的近似模型。如果与真实对象的近似模型的识别相关的处理负荷小于与三维形状的识别相关的处理负荷,则当移动速度高时,该配置减小了与形状识别相关的处理负荷,并且这种处理负荷的减小导致处理时间段的缩短。
修改例2-2
以上描述了再次利用形状识别结果的示例,但是实施方式不限于该示例。可以再次利用遮蔽模型绘图结果。在下文中,将参照图36和图42描述这样的修改例。
例如,根据修改例的显示控制单元128可以将通过对遮蔽模型区域进行二维子画面化(sprite)而获得的数据存储在存储单元17中作为遮蔽模型的绘图结果。如果包括在移动信息中的移动速度高(如果模式为高速模式,即,如果真实对象的移动速度是第一移动速度),则根据本修改例的显示控制单元128可以通过使用存储的遮蔽模型的绘图结果来执行绘图,该存储的绘图结果是显示控制单元128在先前时间执行的绘图的结果。该配置进一步减少了与绘图相关的处理负荷。
图36是示出本修改例的说明图。图36所示的手部H221、识别结果R221、绘图结果D221和用户的视野F221与图28所示的手部H203、识别结果R203、绘图结果D203和用户的视野F203类似,因此将省略其描述。
图36所示的手部H222高速移动。当移动识别单元122基于手部H222的感测来执行移动识别,并且确定手部H222的移动为高速时,形状识别单元不执行形状识别。此外,根据本修改例,也可以不执行移动和改变单元126的形状识别结果的移动和改变。因此,识别单元120-2的识别结果R222仅包括通过移动识别单元122执行的移动识别而获得的移动信息。
显示控制单元128基于移动信息,通过移动和改变所存储的遮蔽模型的绘图结果MD222来简化与绘图相关的处理,并且获得虚拟对象被遮蔽的绘图结果D222。绘图结果D222上的箭头指示显示控制单元128在绘图时所执行的所存储的遮蔽模型绘图结果MD222的移动。此外,在图36所示的示例中,所存储的遮蔽模型绘图结果MD222是包括在绘图结果D221中的遮蔽模型绘图结果,然而,本实施方式不限于该示例,并且所存储的遮蔽模型绘图结果MD222可以是例如对紧接在前的帧执行的遮蔽模型的绘图的结果。
当基于绘图结果D222来执行显示时,用户的视野变得像视野F222。
如上所述,通过再次利用遮蔽模型绘图结果,简化了与遮蔽模型的绘图相关的处理,缩短了处理时间段,并且因此能够进一步减轻给用户带来的奇怪的感觉。
取决于由虚拟对象引起的交互(包括操纵)的类型,应用本修改例可能是不适当的。这是因为如果应用本修改例并且再次利用遮蔽模型绘图结果,则省略了对虚拟对象与形状识别结果之间的前后关系的确定(深度确定),并且可能在假定遮蔽模型存在于比虚拟对象更近的位置处的情况下执行绘图。将参照图37至图40描述对前后关系的确定的省略。
图37是示出在执行对前后关系的确定的情况下从感测到绘图的流程的说明图。如图37所示,基于作为真实对象的用户的手部H223的感测来执行形状识别,并且获得形状识别结果R223(遮蔽模型)。当基于形状识别结果R223来执行绘图以遮蔽虚拟对象V223时,执行对虚拟对象V223与形状识别结果R223之间的前后关系的确定,并且基于前后关系确定结果J223来获得绘图结果D223。
图38是示出在省略前后关系的确定的情况下从感测到绘图的流程的说明图。如图38所示,当基于对作为真实对象的用户的手部H224的感测来执行形状识别时,获得形状识别结果R224(遮蔽模型)。在图38所示的示例中,分别绘制虚拟对象V224和形状识别结果R224,并且获得虚拟对象区域VR224和遮蔽模型区域CMR224。通过组合虚拟对象区域VR224和遮蔽模型区域CMR224,获得绘图结果D224。
如上所述,当省略了对前后关系的确定时,在假定遮蔽模型存在于比虚拟对象更近的位置处的情况下执行绘图。
图39是示出交互的示例的说明图,其中即使省略对前后关系的确定,也能够适当地显示该交互。图40是示出交互的示例的说明图,其中在执行前后关系的确定的情况和省略确定的情况之间,视野可以显著不同。
如图39所示,在执行诸如按压、触摸或敲击的交互的情况下,从在用户的视野F225中虚拟对象V225与手部H225之间的关系以及在用户的视野F226中虚拟对象V226与手部H226之间的关系不会产生奇怪的感觉。
相反,如图40所示,在执行诸如抓或握的交互的情况下,在执行对前后关系的确定的情况下的视野F227与在省略对前后关系的确定的情况下的视野F228的外观差别很大。在执行对前后关系的确定的情况下,在视野F227中虚拟对象V227与手部H227之间的关系不会产生奇怪的感觉。然而,在省略对前后关系的确定的情况下,在视野F228中虚拟对象V228与手部H228之间的关系会产生奇怪的感觉。具体地,在视野F228中,在手部H228本来应该存在于虚拟对象V228的远侧并且因此不可见的区域中,可以看到手部H228。
因此,显示控制单元128可以基于虚拟对象的类型或者用户执行的交互的类型来确定是否再次利用遮蔽模型绘图结果。例如,当要显示引起例如抓或握的交互的虚拟对象时或者当通过识别单元120-2的识别结果了解到正在执行该交互时,显示控制单元128可以不必再次利用遮蔽模型绘图结果。
根据该配置,作为省略了对前后关系的确定的结果,能够防止用户感到奇怪的感觉。
接下来,将参照图41和图42描述本修改例中的操作的示例。图41是示出本修改例中的操作的示例的流程图。
由于图41所示的步骤S300至S330与参照图33描述的步骤S200至S230的处理相同,因此在本文中将省略其描述。
在步骤S340处,确定是否再次利用遮蔽模型绘图结果。除了关于模式是高速模式还是低速模式的信息之外,还可以基于如参照图37至图40所述的虚拟对象的类型或者交互的类型来执行步骤S340处的确定。
如果不再次利用遮蔽模型绘图结果(在S340处为否),则形状识别单元124通过执行形状识别来生成遮蔽模型(S360),并且显示控制单元128基于作为形状识别结果的遮蔽模型来执行绘图(S370)。
相反,如果要再次利用遮蔽模型绘图结果(在S340处为是),则显示控制单元128通过移动和改变所存储的遮蔽模型绘图结果来执行绘图(S375)。
此外,根据显示控制单元128的控制,显示单元13在其上显示对应的图像(S380)。最后,存储最新的遮蔽模型绘图结果(S390)。
图42是与本修改例相关的时序图。如图42所示,在本修改例中,在高速模式下,从开始感测到开始显示需要时间段T3。如图42所示,时间段T3具有与感测间隔t相同的时间段,并且比图32所示的时间段T1以及图34所示的时间段T2短。因此,进一步减小了由于真实对象的移动而产生的影响,并且减轻了给用户带来的奇怪的感觉。
修改例2-3
关于上述实施方式,描述了通过在执行绘图之前减少多边形的数目来减少与绘图相关的处理负荷的示例,但是本实施方式不限于该示例。例如,如果形状识别单元124基于深度图来执行形状识别,则可以在形状识别单元124执行形状识别之前根据移动速度来使深度图的分辨率降低。
将参照图43描述本修改例。图43是示出本修改例的说明图。
图43所示的作为真实对象的用户的手部H231以低速移动。因此,处理模式被确定为低速模式。
基于对手部H231的感测来获得深度图DM231。随后,形状识别单元124基于深度图来执行形状识别,并且获得形状识别结果R231。形状识别结果R231上的多个箭头分别指示形状识别单元124进行形状识别时预测的形状变化。
当显示控制单元128基于形状识别结果R231来执行绘图以遮蔽虚拟对象时,获得绘图结果D231,并且当基于绘图结果D231来执行显示时,用户的视野变得像视野F231。
图43所示的作为真实对象的用户的手部H232以高速移动。因此,虽然在图43中未示出,但是基于移动识别单元122的移动识别的结果,处理模式因此被确定为高速模式。
基于对手部H232的感测,获得深度图DM232。当根据本修改例的控制单元12-2在高速模式下执行处理时,控制单元12-2可以在降低深度图DM232的分辨率之后将深度图DM232输入到形状识别单元124。与形状识别结果R231相比,作为使用降低了分辨率的深度图DM232的形状识别的结果而获得的形状识别结果的多边形的数目较少,并且关于预测的形状改变具有较少的信息。即,当形状识别单元124使用降低了分辨率的深度图DM232执行形状识别时,减少了与包括形状改变的预测的形状识别相关的处理负荷。
通过显示控制单元128在减少了多边形数目之后对形状识别结果R232执行绘图,获得绘图结果D232。随着深度图DM232的分辨率的降低,形状识别结果R232中的多边形的数目小于形状识别结果R231中的多边形的数目。因此,即使不执行减少多边形的数目,与基于形状识别结果R232的绘图相关的处理负荷也小于与基于形状识别结果R231的绘图相关的处理负荷。因此,如果形状识别结果R232中的多边形的数目足够少,也可以不执行减少多边形的数目。当基于绘图结果D232来执行显示时,用户的视野变得像视野F232。
深度图可以通过各种方法获得。例如,如果向外摄像装置110包括多个摄像装置,则可以通过使用多个捕获图像的立体匹配来获得深度图。另外,如果向外摄像装置110中包括深度摄像装置,则可以通过深度摄像装置执行的感测来获得深度图。
此外,如果可以通过设置等来控制由深度摄像装置输出的深度图的分辨率,则控制单元12-2可以根据处理模式的确定来控制包括在向外摄像装置110中的深度摄像装置的输出分辨率。
根据本修改例,通过降低深度图的分辨率,能够进一步减少与形状识别相关的处理负荷以及与绘图相关的处理负荷。
2-5.补充描述
以上描述的是本公开内容的第二实施方式。根据第二实施方式,通过根据移动信息改变与形状识别相关的处理负荷以及与绘图相关的处理负荷,能够减小真实对象的移动的影响,并且能够减轻给用户带来的奇怪的感觉。
本公开内容的第二实施方式可以与本公开内容的第一实施方式组合。通过组合第一实施方式和第二实施方式,例如,由于使边界表示不同和缩短处理时间段这两方面的效果,能够进一步减轻给用户带来的奇怪的感觉。
另外,根据以上描述,通过分类成低速模式和高速模式这两种级别来确定处理模式,但是处理模式可以通过被分类成更多的级别来确定,并且可以根据所确定的处理模式来执行各种类型的处理。
图44是如下情况下的处理的示例的总结的表:将真实对象假定为手部,并且通过分类为静止模式、超低速模式、低速模式、中速模式、高速模式和超高速模式这六个级别来确定处理模式。如图44所示,根据处理模式,可以适当地执行上述处理,例如降低深度图的分辨率、省略形状识别、省略前后确定、再次利用绘图结果、以及/或者相对于第一实施方式描述的改变边界表示。
通过根据图44所示的表执行处理,在整个手部的移动速度低的情况下,能够优选地执行强调识别和显示的准确度的处理,并且在整个手部的移动速度高的情况下,能够优选地执行减轻与手部的移动相关联的奇怪的感觉的处理。
3.硬件配置的示例
以上描述了本公开内容的实施方式。最后参照图45描述的是根据本公开内容的实施方式的信息处理装置的硬件配置。图45是示出根据本公开内容的实施方式的信息处理装置的硬件配置的示例的框图。图45所示的信息处理装置900可以实现例如信息处理装置1或者信息处理装置1-2。根据本实施方式的信息处理装置1或者信息处理装置1-2的信息处理通过软件与以下描述的硬件之间的协作来实现。
如图45所示,信息处理装置900包括中央处理单元(CPU)901、只读存储器(ROM)902、随机存取存储器(RAM)903和主机总线904a。另外,信息处理装置900包括桥接器904、外部总线904b、接口905、输入装置906、输出装置907、存储装置908、驱动器909、连接端口911、通信装置913和传感器915。代替CPU 901或者除了CPU 901以外,信息处理装置900可以具有诸如DSP或ASIC的处理电路。
CPU 901充当算术处理装置和控制装置,并且根据各种程序控制信息处理装置900中的整体操作。此外,CPU 901可以是微处理器。ROM 902存储CPU 901使用的程序、算术参数等。RAM 903临时存储在CPU 901的执行中使用的程序、在执行中适当地改变的参数等。CPU901可以形成例如控制单元12或控制单元12-2。
CPU 901、ROM 902和RAM 903经由包括CPU总线等的主机总线904a彼此连接。主机总线904a经由桥接器904连接到外部总线904b,诸如外围组件互连/接口(PCI)总线。主机总线904a、桥接器904和外部总线904b不一定被分开配置,并且其功能可以由单个总线实现。
输入装置906由用户输入信息的装置实现,该装置是例如鼠标、键盘、触摸板、按钮、麦克风、开关和/或控制杆。此外,输入装置906可以是例如:使用红外线或其他波的遥控装置,或者可以是与信息处理装置900的操作对应的诸如蜂窝电话或PDA的外部连接装置。此外,输入装置906可以包括输入控制电路等,输入控制电路等基于例如用户使用上述输入装置输入的信息生成输入信号,并且将输入信号输出到CPU 901。信息处理装置900的用户能够通过操纵该输入装置906向信息处理装置900输入各种数据并且指示信息处理装置900进行处理和操作。
输出装置907由能够在视觉上或听觉上向用户通知所获得的信息的装置形成。该装置的示例包括:显示装置,例如CRT显示装置、液晶显示装置、等离子显示装置、EL显示装置和灯;声音输出装置,例如扬声器和耳机;以及打印机装置。输出装置907输出例如通过由信息处理装置900执行的各种类型的处理而获得的结果。具体地,显示装置以各种格式(诸如文本、图像、表格和图形格式)在视觉上显示通过由信息处理装置900执行的各种类型的处理而获得的结果。声音输出装置将由再现的声音数据、声学数据等形成的音频信号转换为模拟信号,并且以听觉的方式输出该模拟信号。输出装置907可以形成例如显示单元13和扬声器14。
存储装置908是用于数据存储的装置,该装置被形成为信息处理装置900的存储单元的示例。存储装置908例如通过诸如HDD的磁存储装置、半导体存储装置、光学存储装置或磁光存储装置来实现。存储装置908可以包括存储介质、用于将数据记录在存储介质中的记录装置、用于从存储介质读取数据的读取装置以及用于删除存储介质中记录的数据的删除装置。该存储装置908存储由CPU 901执行的程序、各种数据、从外部获得的各种类型的数据等。例如,存储装置908可以形成存储单元17。
驱动器909是存储介质读取器-写入器,并且被合并在信息处理装置900中或者设置在信息处理装置900的外部。驱动器909读取记录在插入在其中的可移除存储介质(诸如磁盘、光盘、磁光盘或半导体存储器)中的信息,并且将信息输出到RAM 903。此外,驱动器909能够将信息写入可移除存储介质。
连接端口911是连接到外部装置的接口,并且用作能够经由例如通用串行总线(USB)进行数据传输的到外部装置的连接端口。
通信装置913是由例如用于连接到网络920的通信装置形成的通信接口。通信装置913是例如用于有线或无线局域网(LAN)、长期演进(LTE)、蓝牙(注册商标)或无线USB(WUSB)的通信卡。另外,通信装置913可以是用于光通信的路由器、用于非对称数字用户线(ADSL)的路由器、用于各种类型的通信中的任意通信的调制解调器等。该信装置913能够根据例如TCP/IP的预定协议,向例如因特网或其他通信装置发送信号等或者从例如因特网或其他通信装置接收信号等。通信装置913可以形成例如通信单元15。
传感器915是例如各种传感器中的任意传感器,例如,加速度传感器、陀螺仪传感器、地磁传感器、光学传感器、声音传感器、距离测量传感器和力传感器。传感器915获得与信息处理装置900自身的状态相关的信息(例如,信息处理装置900的姿势或移动速度)、以及/或者与信息处理装置900的周围环境相关的信息(例如,信息处理装置900周围的亮度或不想要的声音)。此外,传感器915可以包括接收GPS信号并且测量装置的纬度、经度和海拔的GPS传感器。传感器915可以形成例如传感器单元11。
网络920是用于从连接到网络920的装置发送的信息的有线或无线传输路径。例如,网络920可以包括:诸如互联网、电话网络或卫星通信网络的公共网络;或者包括以太网(注册商标)的各种局域网(LAN)和广域网(WAN)中的任意网络。另外,网络920可以包括诸如互联网协议-虚拟专用网(IP-VPN)的租用线路网络。
以上描述了能够实现根据本公开内容的实施方式的信息处理装置900的功能的硬件配置的示例。上述部件中的每一个可以使用通用构件来实现,或者可以通过专用于该部件的功能的硬件来实现。因此,可以根据实现本公开内容的实施方式时的技术水平来适当地修改要使用的硬件配置。
可以生成用于实现上述根据本公开内容的实施方式的信息处理装置900的功能的计算机程序,并且可以将该计算机程序安装在PC等上。此外,还可以提供存储有这样的计算机程序的计算机可读记录介质。记录介质是例如磁盘、光盘、磁光盘或闪存。此外,在不使用记录介质的情况下,上述计算机程序可以例如经由网络分发。
4.结论
如上所述,根据本公开内容的实施方式,能够减轻给用户带来的不自然的感觉。
以上参照附图详细描述了本公开内容的优选实施方式,但是本公开内容的技术范围不限于这些示例。明显的是,本公开内容的技术领域的普通技术人员可以在本专利的权利要求书中记载的技术思想的范围内得到各种修改例或校正例,并且应该理解,这些修改例或校正例同样合理地属于本公开内容的技术范围。
例如,关于上述实施方式,主要描述了显示单元13是透射型的示例,但是本技术不限于这些示例。例如,在显示单元13是非透射型的情况下,通过将虚拟对象叠加在通过向外摄像装置110的成像而获得的真实空间的图像上的显示,同样能够实现与上述效果类似的效果。此外,在显示单元13是投影仪的情况下,通过将虚拟对象投影到真实空间上,同样能够实现与上述效果类似的效果。
此外,关于上述实施方式,主要描述了真实对象是用户的手部的示例,但是本技术不限于这些示例,并且适用于存在于真实空间中的各种真实对象。
此外,根据上述实施方式的步骤不一定以流程图中描述的顺序按时间顺序处理。例如,在根据上述实施方式的处理中的各步骤可以按照与流程图中示出的顺序不同的顺序来处理,或者可以并行地处理。
此外,本说明书中描述的效果仅是说明性的或示例性的,而不是限制性的。即,除了上述效果以外或者代替上述效果,根据本公开内容的技术可以实现对于本领域技术人员而言根据本说明书的描述明显的其他效果。
以下配置也属于本公开内容的技术范围。
(1)
一种信息处理装置,包括:
显示控制单元,当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,所述显示控制单元控制表示虚拟对象被所述真实对象遮蔽的遮蔽显示,使得所述遮蔽显示在所述虚拟对象与所述真实对象之间的边界处或者在所述边界附近的位置处呈现第一边界表示,并且当所述识别信息包括与所述第一识别信息不同的第二识别信息时,所述显示控制单元控制所述遮蔽显示,使得所述遮蔽显示在所述边界处或者在所述边界附近的位置处呈现与所述第一边界表示不同的第二边界表示。
(2)
根据(1)所述的信息处理装置,其中,所述显示控制单元通过使用由基于所述真实对象的感测的形状识别而获得的形状信息来控制所述遮蔽显示。
(3)
根据(1)所述的信息处理装置,其中,所述显示控制单元根据所述第一识别信息控制所述遮蔽显示,使得与所述遮蔽相关的遮蔽区域具有第一尺寸,并且所述显示控制单元根据所述第二识别信息控制所述遮蔽显示,使得所述遮蔽区域具有与所述第一尺寸不同的第二尺寸。
(4)
根据(3)所述的信息处理装置,其中,当所述识别信息包括所述第一识别信息时,所述显示控制单元控制所述遮蔽显示,使得所述遮蔽区域中的与所述识别信息中包括的位置信息对应的区域具有所述第一尺寸,并且当所述识别信息包括所述第二识别信息时,所述显示控制单元控制所述遮蔽显示,使得所述遮蔽区域中的与所述位置信息对应的区域具有所述第二尺寸。
(5)
根据(1)至(4)中任一项所述的信息处理装置,其中,所述显示控制单元根据所述识别信息控制所述遮蔽显示,使得效果显示被添加到所述边界附近的位置处。
(6)
根据(1)至(5)中任一项所述的信息处理装置,其中,所述显示控制单元根据所述识别信息控制所述遮蔽显示,使得效果显示被添加到与所述遮蔽相关的遮蔽区域的内部。
(7)
根据(1)至(6)中任一项所述的信息处理装置,其中,当控制显示使得所述真实对象与所述虚拟对象碰撞时,所述显示控制单元控制所述遮蔽显示,使得效果显示被添加到与所述真实对象与所述虚拟对象之间的碰撞相关的边界附近。
(8)
根据(5)至(7)中任一项所述的信息处理装置,其中,所述显示控制单元控制所述遮蔽显示,使得所述效果显示被添加到与所述识别信息中包括的位置信息对应的位置处。
(9)
根据(5)至(8)中任一项所述的信息处理装置,其中,在所述识别信息包括所述第一识别信息的情况下,所述显示控制单元控制所述效果显示,使得所述效果显示具有与在所述识别信息包括所述第二识别信息的情况下的强度不同的强度。
(10)
根据(1)至(9)中任一项所述的信息处理装置,其中,在所述识别信息包括所述第一识别信息的情况下,所述显示控制单元控制所述虚拟对象的显示,使得所述虚拟对象具有与在所述识别信息包括所述第二识别信息的情况下的可见度不同的可见度。
(11)
根据(1)至(10)中任一项所述的信息处理装置,其中,当所述虚拟对象是能够被所述真实对象操纵的虚拟对象时,所述显示控制单元控制所述遮蔽显示,使得所述遮蔽显示呈现所述第一边界表示和所述第二边界表示中的、所述虚拟对象的显示区域较大的边界表示。
(12)
根据(1)至(11)中任一项所述的信息处理装置,其中,所述显示控制单元根据所述虚拟对象是否具有三维形状来控制所述遮蔽显示。
(13)
根据(2)所述的信息处理装置,还包括:
识别单元,所述识别单元执行基于所述真实对象的感测的所述真实对象的移动识别和所述形状识别,其中,
在通过所述移动识别获得指示所述真实对象的移动速度是第一移动速度的移动信息的情况下,与获得指示所述真实对象的移动速度是小于所述第一移动速度的第二移动速度的移动信息的情况相比,减小与由所述识别单元执行的所述形状识别相关的处理负荷和与由所述显示控制单元执行的绘图相关的处理负荷中的至少一个。
(14)
根据(13)所述的信息处理装置,其中,当所述真实对象的移动速度是所述第一移动速度时,所述识别单元不执行所述形状识别。
(15)
根据(13)或(14)所述的信息处理装置,其中,当所述真实对象的移动速度是所述第一移动速度时,所述显示控制单元通过使用所述显示控制单元在先前时间执行的绘图的结果来执行绘图。
(16)
根据(1)至(15)中任一项所述的信息处理装置,其中,所述识别信息包括与所述识别相关的识别精度的信息。
(17)
根据(1)至(16)中任一项所述的信息处理装置,其中,所述识别信息包括基于所述真实对象的感测而识别的所述真实对象的移动速度的信息。
(18)
根据(1)至(17)中任一项所述的信息处理装置,其中,所述显示控制单元控制由具有光学透射性的显示单元实现的显示。
(19)
一种信息处理方法,包括:
当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,处理器控制表示虚拟对象被所述真实对象遮蔽的遮蔽显示,使得所述遮蔽显示在所述虚拟对象与所述真实对象之间的边界处或者在所述边界附近的位置处呈现第一边界表示,并且当所述识别信息包括与所述第一识别信息不同的第二识别信息时,所述处理器控制所述遮蔽显示,使得所述遮蔽显示在所述边界处或者在所述边界附近的位置处呈现与所述第一边界表示不同的第二边界表示。
(20)
一种程序,用于使计算机实现包括下述的功能:
当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,控制表示虚拟对象被所述真实对象遮蔽的遮蔽显示,使得所述遮蔽显示在所述虚拟对象与所述真实对象之间的边界处或者在所述边界附近的位置处呈现第一边界表示,并且当所述识别信息包括与所述第一识别信息不同的第二识别信息时,控制所述遮蔽显示,使得所述遮蔽显示在所述边界处或者在所述边界附近的位置处呈现与所述第一边界表示不同的第二边界表示。
附图标记列表
1、1-2 信息处理装置
11 传感器单元
12、12-2 控制单元
13 显示单元
14 扬声器
15 通信单元
16 操作输入单元
17 存储单元
110 向外摄像装置
111 向内摄像装置
112 麦克风
113 陀螺仪传感器
114 加速度传感器
115 方向传感器
116 位置测量单元
117 生物传感器
120、120-2 识别单元
121、122 移动识别单元
123、124 形状识别单元
125 精度信息获取单元
126 移动和改变单元
127、128 显示控制单元

Claims (19)

1.一种信息处理装置,包括:
显示控制单元,当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,所述显示控制单元控制表示虚拟对象被所述真实对象遮蔽的遮蔽显示,使得所述遮蔽显示在所述虚拟对象与所述真实对象之间的边界处或者在所述边界附近的位置处呈现第一边界表示,并且当所述识别信息包括与所述第一识别信息不同的第二识别信息时,所述显示控制单元控制所述遮蔽显示,使得所述遮蔽显示在所述边界处或者在所述边界附近的位置处呈现与所述第一边界表示不同的第二边界表示,
其中,所述显示控制单元根据所述识别信息控制所述遮蔽显示,使得效果显示被添加到所述边界附近的位置处。
2.根据权利要求1所述的信息处理装置,其中,所述显示控制单元通过使用由基于所述真实对象的感测的形状识别而获得的形状信息来控制所述遮蔽显示。
3.根据权利要求1所述的信息处理装置,其中,所述显示控制单元根据所述第一识别信息控制所述遮蔽显示,使得与所述遮蔽相关的遮蔽区域具有第一尺寸,并且所述显示控制单元根据所述第二识别信息控制所述遮蔽显示,使得所述遮蔽区域具有与所述第一尺寸不同的第二尺寸。
4.根据权利要求3所述的信息处理装置,其中,当所述识别信息包括所述第一识别信息时,所述显示控制单元控制所述遮蔽显示,使得所述遮蔽区域中的与所述识别信息中包括的位置信息对应的区域具有所述第一尺寸,并且当所述识别信息包括所述第二识别信息时,所述显示控制单元控制所述遮蔽显示,使得所述遮蔽区域中的与所述位置信息对应的区域具有所述第二尺寸。
5.根据权利要求1所述的信息处理装置,其中,所述显示控制单元根据所述识别信息控制所述遮蔽显示,使得效果显示被添加到与所述遮蔽相关的遮蔽区域的内部。
6.根据权利要求1所述的信息处理装置,其中,当控制显示使得所述真实对象与所述虚拟对象碰撞时,所述显示控制单元控制所述遮蔽显示,使得效果显示被添加到与所述真实对象与所述虚拟对象之间的碰撞相关的边界附近。
7.根据权利要求1所述的信息处理装置,其中,所述显示控制单元控制所述遮蔽显示,使得所述效果显示被添加到与所述识别信息中包括的位置信息对应的位置处。
8.根据权利要求1所述的信息处理装置,其中,在所述识别信息包括所述第一识别信息的情况下,所述显示控制单元控制所述效果显示,使得所述效果显示具有与在所述识别信息包括所述第二识别信息的情况下的强度不同的强度。
9.根据权利要求1所述的信息处理装置,其中,在所述识别信息包括所述第一识别信息的情况下,所述显示控制单元控制所述虚拟对象的显示,使得所述虚拟对象具有与在所述识别信息包括所述第二识别信息的情况下的可见度不同的可见度。
10.根据权利要求1所述的信息处理装置,其中,当所述虚拟对象是能够被所述真实对象操纵的虚拟对象时,所述显示控制单元控制所述遮蔽显示,使得所述遮蔽显示呈现所述第一边界表示和所述第二边界表示中的、所述虚拟对象的显示区域较大的边界表示。
11.根据权利要求1所述的信息处理装置,其中,所述显示控制单元根据所述虚拟对象是否具有三维形状来控制所述遮蔽显示。
12.根据权利要求2所述的信息处理装置,还包括:
识别单元,所述识别单元执行基于所述真实对象的感测的所述真实对象的移动识别和所述形状识别,其中,
在通过所述移动识别获得指示所述真实对象的移动速度是第一移动速度的移动信息的情况下,与获得指示所述真实对象的移动速度是小于所述第一移动速度的第二移动速度的移动信息的情况相比,减小与由所述识别单元执行的所述形状识别相关的处理负荷和与由所述显示控制单元执行的绘图相关的处理负荷中的至少一个。
13.根据权利要求12所述的信息处理装置,其中,当所述真实对象的移动速度是所述第一移动速度时,所述识别单元不执行所述形状识别。
14.根据权利要求12所述的信息处理装置,其中,当所述真实对象的移动速度是所述第一移动速度时,所述显示控制单元通过使用所述显示控制单元在先前时间执行的绘图的结果来执行绘图。
15.根据权利要求1所述的信息处理装置,其中,所述识别信息包括与所述识别相关的识别精度的信息。
16.根据权利要求1所述的信息处理装置,其中,所述识别信息包括基于所述真实对象的感测而识别的所述真实对象的移动速度的信息。
17.根据权利要求1所述的信息处理装置,其中,所述显示控制单元控制由具有光学透射性的显示单元实现的显示。
18.一种信息处理方法,包括:
当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,处理器控制表示虚拟对象被所述真实对象遮蔽的遮蔽显示,使得所述遮蔽显示在所述虚拟对象与所述真实对象之间的边界处或者在所述边界附近的位置处呈现第一边界表示,并且当所述识别信息包括与所述第一识别信息不同的第二识别信息时,所述处理器控制所述遮蔽显示,使得所述遮蔽显示在所述边界处或者在所述边界附近的位置处呈现与所述第一边界表示不同的第二边界表示,
其中,所述处理器根据所述识别信息控制所述遮蔽显示,使得效果显示被添加到所述边界附近的位置处。
19.一种存储有计算机可执行指令的非暂态计算机可读介质,所述计算机可执行指令在由处理器执行时使所述处理器执行操作,所述操作包括:
当与基于真实对象的感测的识别相关的识别信息包括第一识别信息时,控制表示虚拟对象被所述真实对象遮蔽的遮蔽显示,使得所述遮蔽显示在所述虚拟对象与所述真实对象之间的边界处或者在所述边界附近的位置处呈现第一边界表示,并且当所述识别信息包括与所述第一识别信息不同的第二识别信息时,控制所述遮蔽显示,使得所述遮蔽显示在所述边界处或者在所述边界附近的位置处呈现与所述第一边界表示不同的第二边界表示,
其中,所述处理器根据所述识别信息控制所述遮蔽显示,使得效果显示被添加到所述边界附近的位置处。
CN201880050503.6A 2017-08-09 2018-05-15 信息处理装置、信息处理方法和程序 Active CN110998674B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017154116 2017-08-09
JP2017-154116 2017-08-09
PCT/JP2018/018785 WO2019031015A1 (ja) 2017-08-09 2018-05-15 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
CN110998674A CN110998674A (zh) 2020-04-10
CN110998674B true CN110998674B (zh) 2023-11-24

Family

ID=65271369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880050503.6A Active CN110998674B (zh) 2017-08-09 2018-05-15 信息处理装置、信息处理方法和程序

Country Status (5)

Country Link
US (1) US11288869B2 (zh)
EP (1) EP3667625A4 (zh)
JP (1) JP7222351B2 (zh)
CN (1) CN110998674B (zh)
WO (1) WO2019031015A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11245889B1 (en) 2018-11-08 2022-02-08 Tanzle, Inc. Perspective based green screening
WO2021117366A1 (ja) * 2019-12-10 2021-06-17 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
US20230127539A1 (en) * 2020-04-21 2023-04-27 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
US11676348B2 (en) * 2021-06-02 2023-06-13 Meta Platforms Technologies, Llc Dynamic mixed reality content in virtual reality
US11521361B1 (en) 2021-07-01 2022-12-06 Meta Platforms Technologies, Llc Environment model with surfaces and per-surface volumes
JP2023022415A (ja) * 2021-08-03 2023-02-15 株式会社Subaru 物体認識装置、コンピュータプログラム及び記録媒体
US12056268B2 (en) 2021-08-17 2024-08-06 Meta Platforms Technologies, Llc Platformization of mixed reality objects in virtual reality environments
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US12093447B2 (en) 2022-01-13 2024-09-17 Meta Platforms Technologies, Llc Ephemeral artificial reality experiences
US12026527B2 (en) 2022-05-10 2024-07-02 Meta Platforms Technologies, Llc World-controlled and application-controlled augments in an artificial-reality environment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3143598A1 (en) * 2014-05-15 2017-03-22 ShowMe Telepresence ApS Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR115F (zh)
FR114F (zh) 1963-08-06 1900-01-01
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9946076B2 (en) * 2010-10-04 2018-04-17 Gerard Dirk Smits System and method for 3-D projection and enhancements for interactivity
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9286711B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US9183676B2 (en) * 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US10241638B2 (en) * 2012-11-02 2019-03-26 Atheer, Inc. Method and apparatus for a three dimensional interface
JP5818773B2 (ja) * 2012-11-22 2015-11-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5900393B2 (ja) 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
US9286725B2 (en) * 2013-11-14 2016-03-15 Nintendo Co., Ltd. Visually convincing depiction of object interactions in augmented reality images
CN105814611B (zh) 2013-12-17 2020-08-18 索尼公司 信息处理设备和方法以及非易失性计算机可读存储介质
US10977774B2 (en) 2015-09-16 2021-04-13 Sony Corporation Information processing apparatus, information processing method, and program for estimating prediction accuracy
KR102559625B1 (ko) * 2016-01-25 2023-07-26 삼성전자주식회사 증강 현실 출력 방법 및 이를 지원하는 전자 장치
KR20230133940A (ko) * 2016-07-25 2023-09-19 매직 립, 인코포레이티드 증강 현실 및 가상 현실 안경류를 사용한 이미징 수정, 디스플레이 및 시각화
WO2018064213A1 (en) * 2016-09-27 2018-04-05 Duke University Systems and methods for using sensing of real object position, trajectory, or attitude to enable user interaction with a virtual object
US10410422B2 (en) * 2017-01-09 2019-09-10 Samsung Electronics Co., Ltd. System and method for augmented reality control

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3143598A1 (en) * 2014-05-15 2017-03-22 ShowMe Telepresence ApS Method of providing a digitally represented visual instruction from a specialist to a user in need of said visual instruction, and a system therefor

Also Published As

Publication number Publication date
JPWO2019031015A1 (ja) 2020-07-09
CN110998674A (zh) 2020-04-10
US20200242842A1 (en) 2020-07-30
EP3667625A4 (en) 2020-08-12
JP7222351B2 (ja) 2023-02-15
WO2019031015A1 (ja) 2019-02-14
US11288869B2 (en) 2022-03-29
EP3667625A1 (en) 2020-06-17

Similar Documents

Publication Publication Date Title
CN110998674B (zh) 信息处理装置、信息处理方法和程序
US12008151B2 (en) Tracking and drift correction
JP7036879B2 (ja) 仮想画像生成システムにおけるテキストをより効率的に表示するための技法
CN110413105B (zh) 虚拟环境内的虚拟对象的有形可视化
EP3410264B1 (en) Image display device and image display method
CN110506249B (zh) 信息处理设备、信息处理方法和记录介质
CN115917474A (zh) 在三维环境中呈现化身
US11710310B2 (en) Virtual content positioned based on detected object
US20190297271A1 (en) Virtual makeup device, and virtual makeup method
EP3683774A1 (en) Information processing device, information processing method, and program
US11776503B2 (en) Generating display data based on modified ambient light luminance values
CN114175113A (zh) 提供头像的电子装置及其操作方法
EP3640840B1 (en) Tracking method and apparatus for smart glasses, smart glasses and storage medium
WO2019150880A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20240062030A1 (en) Colored visual markers for variable use
US20200143774A1 (en) Information processing device, information processing method, and computer program
JP6492330B2 (ja) 電子機器、および画像の提供方法
WO2020044916A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2019171802A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20200031098A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
WO2020071144A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11263456B2 (en) Virtual object repositioning versus motion of user and perceived or expected delay
US11842236B2 (en) Colored visual markers for variable use
EP4296826A1 (en) Hand-gesture activation of actionable items
US11908090B2 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant