CN103869468A - 信息处理设备和记录介质 - Google Patents
信息处理设备和记录介质 Download PDFInfo
- Publication number
- CN103869468A CN103869468A CN201310641526.3A CN201310641526A CN103869468A CN 103869468 A CN103869468 A CN 103869468A CN 201310641526 A CN201310641526 A CN 201310641526A CN 103869468 A CN103869468 A CN 103869468A
- Authority
- CN
- China
- Prior art keywords
- image
- unit
- user
- display
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title abstract description 3
- 230000004044 response Effects 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims description 35
- 210000003128 head Anatomy 0.000 claims description 14
- 210000004556 brain Anatomy 0.000 claims description 7
- 238000012546 transfer Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 5
- 238000002834 transmittance Methods 0.000 claims description 5
- 238000003384 imaging method Methods 0.000 abstract description 50
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 100
- 238000012545 processing Methods 0.000 description 71
- 238000004891 communication Methods 0.000 description 34
- 238000000034 method Methods 0.000 description 21
- 230000005236 sound signal Effects 0.000 description 19
- 230000008569 process Effects 0.000 description 18
- 230000036541 health Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000035945 sensitivity Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004020 luminiscence type Methods 0.000 description 6
- 239000007787 solid Substances 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000000149 penetrating effect Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000007667 floating Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003183 myoelectrical effect Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 240000006409 Acacia auriculiformis Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Geometry (AREA)
- Optics & Photonics (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
Abstract
提供了一种信息处理设备,其包括:显示控制单元,其被配置成包括其中以由第一成像单元捕捉的来自用户视点的第一图像被显示在显示单元上的方式来执行控制或者以显示单元为透射式的方式来执行控制的第一显示控制模式以及其中以由在视角内包括用户的第二成像单元捕捉的第二图像被显示在显示单元上的方式来执行控制的第二显示控制模式;以及切换控制单元,其被配置成以显示控制单元的显示控制模式被从第一显示控制模式切换至第二显示控制模式的方式响应于来自用户的指令而执行控制。
Description
相关申请的交叉引用
本申请要求2012年12月10日提交的日本优先权专利申请JP2012-269270的权益,其全部内容被通过引用结合到本文中。
背景技术
本公开涉及一种信息处理设备和一种记录介质。
近年来,已提出了一种系统,其中,将指示用户的称为化身(avatar)的对象传送至以三维图形显示的虚拟空间中,其即为三维虚拟空间,该化身能够在虚拟空间中到处行走,并且该化身还能够具有与用于另一用户的化身的会话(交谈)。以三维图形显示的虚拟空间允许用户感觉更强烈,如同用户处于虚拟空间而不是二维图形中一样。
在三维虚拟空间中可以促使在真实空间中几乎不可想象的事件或仅在用户的幻想世界中发生的事件发生。例如,JP H11-161812A提出了一种技术,其用于通过切换虚拟世界中的第一人视点(向导化身视点)和第三人视点来使得用户感觉如同用户处于三维虚拟世界中且漂浮在身体外面一样。
发明内容
虽然JP H11-161812A当然是一种用于使得用户感觉如同在虚拟空间中漂浮在身体外面的一样的技术,但没有提到关于使得用户感觉如同在真实世界中用户实际上漂浮在身体外面一样的任何东西。
本公开因此提出了一种新颖且改进的信息处理设备和记录介质,其能够从真实世界中的第三人视点(从那里俯瞰用户)对图像执行显示控制。
根据本公开的实施例,提供了一种包括显示控制单元以及切换控制单元的信息处理设备,该显示控制单元被配置成包括其中以由第一成像单元捕捉的来自用户视点的第一图像被显示在显示单元上的方式来执行控制或者以显示单元为透射式的方式来执行控制的第一显示控制模式以及其中以由在视角内包括用户的第二成像单元捕捉的第二图像被显示在显示单元上的方式来执行控制的第二显示控制模式,并且该切换控制单元被配置成以显示控制单元的显示控制模式被从第一显示控制模式切换至第二显示控制模式的方式响应于来自用户的指令而执行控制。
根据本公开的另一实施例,提供了一种具有存储在其上面的程序的非临时计算机可读记录媒体,该程序促使计算机充当显示控制单元以及切换控制单元,该显示控制单元被配置成包括其中以由第一成像单元捕捉的来自用户视点的第一图像被显示在显示单元上的方式来执行控制或者以显示单元为透射式的方式来执行控制的第一显示控制模式以及其中以由在视角内包括用户的第二成像单元捕捉的第二图像被显示在显示单元上的方式来执行控制的第二显示控制模式,并且该切换控制单元被配置成以显示控制单元的显示控制模式被从第一显示控制模式切换至第二显示控制模式的方式响应于来自用户的指令而执行控制。
根据本公开的实施例中的一个或多个,变得可以从真实世界中的第三人视点(从那里俯瞰用户)对图像执行显示控制。
附图说明
图1是用于描述根据本公开的实施例的显示控制系统的概述的图;
图2是图示出根据本公开的实施例的HMD的外部的框图;
图3是图示出根据本公开的实施例的HMD的内部配置示例的框图;
图4是图示出根据本公开的实施例的显示控制处理的流程图;
图5是用于描述指示用户的位置被叠加在第二捕捉图像上的位置的指示器的图;
图6A是图示出显示在根据本实施例的外显示单元上且指示用户正在经历体外体验的图像的示例的图;
图6B是图示出显示在根据本实施例的外显示单元上且指示用户正在经历体外体验的图像的示例的图;
图7是用于描述具有被认为存在于其中的虚拟相机的显示控制系统的图;
图8是图示出具有被认为存在于其中的虚拟相机的显示控制系统的显示控制处理的流程图;
图9是图示出包括服务器的显示控制系统中的显示控制处理的流程图;
图10是图示出包括服务器的显示控制系统的另一显示控制处理的流程图;
图11A是用于描述其中来自体外视点的场景(第二捕捉图像)被显示在智能电话的显示单元上的第一系统配置示例的图;以及
图11B是用于描述其中来自体外视点的场景(第二捕捉图像)被显示在智能电话的显示单元上的第二系统配置示例的图。
具体实施方式
在下文中,将参考附图来详细地描述本公开的优选实施例。请注意,在本说明书和所附权利要求中,用相同的附图标记来表示具有基本上相同的功能和结构的结构元件,并且省略这些结构元件的重复说明。
将按以下顺序进行描述。
1.根据本公开的实施例的显示控制系统的概述
2.HMD的配置和操作处理
2-1.HMD的外部
2-2.HMD的内部配置
2-3.显示控制处理
2-4.补充
3.其他实施例
3-1.虚拟相机
3-2.由服务器执行的控制处理
3-3.另一设备示例
4.结论
《1.根据本公开的实施例的显示控制系统的概述》
图1是用于描述根据本公开的实施例的显示控制系统的概述的图。如图1中所示,根据本实施例的显示控制系统包括头戴式显示器(HMD)1和外部相机32。HMD1通过诸如Wi-Fi的无线通信向和从外部相机32传送和接收数据。
HMD1是由用户P佩戴的眼镜式可佩戴设备,如图1中所示。当HMD1被佩戴时,用于右眼和左眼的一对显示单元2直接设置在用户的两只眼睛前面,一般眼镜的透镜即位于那里。
显示单元2可以是透射式的。HMD1将显示单元2设置于通透状态,其即为透明状态或半透明状态。相应地,如果用户P像一般眼镜一样始终佩戴HMD1,则HMD1不干扰日常生活。
因此,当显示单元2被控制而处于透射状态时,用户P能够经由显示单元2在视觉上从用户视点(第一人视点)识别场景201,如图1中的左侧所示。替换地,HMD1基本上能够通过在显示单元2上实时地显示由成像单元(第一成像单元)捕捉的捕捉图像而如图1的左侧所示从用户视点(第一人视点)提供场景2-1,该成像单元(第一成像单元)被安装在HMD1上并被配置成在用户的注视方向上捕捉一定区域的图像。这样,在显示单元2上执行透光率控制,或者执行控制,使得显示由第一成像单元捕捉的来自用户视点的第一捕捉图像。在本文中将其中在这种控制下提供来自用户视点(第一人视点)的场景的模式称为第一显示控制模式。
在这里,JP H11-161812A当然通过将视点切换至第三人视点(从那里在视觉上识别向导化身)而使得用户从向导化身视点感觉如同漂浮在身体外面一样。然而,JP H11-161812A仅在虚拟空间中提供仿真图像(CG图像)。相反,根据本公开的实施例的显示控制系统能够使得用户感觉如同在真实世界中用户实际上漂浮在身体外面一样。
具体地,根据本实施例的HMD1响应于来自用户P的视点切换指令(体外指令)而在显示单元2上显示来自真实世界中的第三人视点(从那里俯瞰用户P)的场景(拍摄图像)。在本文中将其中显示来自体外视点(第三人视点)的场景的这种模式称为第二显示控制模式。
例如,如图1的中心和图1的右侧所示,HMD1响应于来自用户P的指令而控制显示单元2以实时地显示由在视角内包括用户P的外部相机32(第二成像单元)捕捉的第二捕捉图像2-2和2-3。如图1中所示,捕捉图像2-2和2-3是来自在视角内包括用户P的预定第三人视点的视频。例如,捕捉图像2-2和2-3是响应于来自HMD1的指令或在由外部相机32自动地执行变焦控制时获取的。另外,捕捉图像2-2和2-3被依次地显示在HMD1的显示单元2上。在显示单元2上实时地依次显示捕捉图像2-2和2-3使得用户P感觉如同在真实世界中用户P实际上具有体外体验且正在飘向天空中一样。
如上所述,已描述了根据本实施例的显示控制系统的概述。接下来,参考图2至4,将描述根据本实施例的显示控制系统中包括的HMD1(信息处理设备)的配置和操作处理。
另外,上述外部相机32(第二成像单元)还可以是安装在室内空间或室外空间中的固定保安/监督相机或安装在飞行对象(诸如经受无线电控制的小型设备或飞船)上的相机。尤其是在其中在全世界设置了许多相机的环境中,无论用户P在那里,HMD1都能够搜索设置在HMD1周围的相机并实时地获取通过用在视角内包括用户P的相机来捕捉用户P的图像而获得的图像(第二捕捉图像)。
此外,外部相机32(第二成像单元)可以是被附接于从HMD1延伸的臂的尖端的相机(潜望镜相机),该HMD1被佩戴在用户P的头上并能够捕捉视角内的用户P的图像。
《2.HMD的配置和操作处理》
<2-1.HMD的外部>
图2是用于描述根据本实施例的HMD1的外部的图。图2中所示的眼镜式HMD1也称为透视HMD,并且可以控制显示单元2处于透射状态,如上所述。
具体地,HMD1包括例如像从头的两侧向头的后面围绕头的一半的框架一样配置的可佩戴单元。如图2中所示,用户通过在两个耳廓处悬挂HMD1来佩戴HMD1。
当如图2中所示地佩戴HMD1时,用于右眼和左眼的一对显示单元2被直接设置在用户的两只眼睛前面,一般眼镜的透镜即位于那里。例如,将液晶面板用于显示单元2。HMD1能够控制液晶面板的透光率,使得液晶面板处于通透状态,即为如图2中所示的透明或半透明状态(透射状态或半透射状态)。如果用户像眼镜一样始终佩戴HM1,处于通透状态的显示单元2不会干扰平常的日常生活。
显示单元2还能够显示通过用成像透镜3a捕捉真实空间的图像而获得的捕捉图像。显示单元2还能够再现和显示由HM1从外部设备接收到的内容和存储在HM1的存储介质中的内容。如图1中所示的外部相机32之外,该外部设备还是诸如移动电话终端、智能电话、个人计算机以及服务器的信息处理设备。
除了由上述外部相机32捕捉的来自在视角内包括用户P的第三人视点的捕捉图像2-2和2-3之外,由显示单元2再现和显示的内容还可以是运动图像内容,诸如电影和视频剪辑以及诸如电子书的文本数据。该内容还可以包括作为显示目标的各种各样的数据,诸如包括例如由用户用个人计算机等创建的图像数据、文本数据以及电子数据表数据的计算机使用数据,以及基于游戏程序的游戏图像。
当用户P如图2中所示地佩戴HMD1时,成像透镜3a面朝前,使得在由用户在视觉上识别的方向上的一定区域的图像被捕捉为主题方向。此外,安装有发光单元4a,其照亮在成像透镜3a的图像捕捉方向上的一定区域。发光单元4a由例如发光二极管(LED)构成。
图2仅图示出用于左耳的单个耳机扬声器,但安装有一对耳机扬声器5a,其能够在用户佩戴HMD1时插入用户的右耳孔和左耳孔中。
被配置成收集外部声音的扩音器6a和6b设置在用于右眼的显示单元2的右侧处和用于左眼的显示单元2的左侧处。
图1中所示的HMD1的外部仅仅是示例。可设想用于用户佩戴HMD1的各种配置。HMD1可以由一般地类似于眼镜或者可佩戴在头上的可佩戴单元构成。至少在本实施例中,显示单元2可以刚好直接设置在用户的眼睛前面。不仅该对显示单元2被安装为从而对应于两个眼睛,而且还可以将显示单元2中的仅一个安装为从而对应于一个眼睛。
类似地,不仅耳机扬声器5a被安装为右和左立体扬声器,而且还可以将耳机扬声器5a中的进一个安装为从而插入一个耳孔中。还可以仅安装扩音器6a和6b中的一个。
可以不安装扩音器6a和6b以及耳机扬声器5a。同样地,还可以不安装发光元件4。
如上所述,已描述了根据本实施例的HMD1的外部。另外,本实施例已描述了在由用户P佩戴的眼镜式HMD1的显示单元2上执行显示控制,并且在HMD1上显示来自体外视点(第二捕捉图像)的场景。然而,本实施例不限于HMD1。例如,根据本实施例的显示控制系统可以执行控制,使得在智能电话、移动电话终端、个人数字助理(PDA)、个人计算机(PC)、平板终端、数字式相机、数字视频相机、便携式音乐再现设备、便携式视频处理设备、便携式游戏设备等的显示单元上显示来自体外视点的场景(第二捕捉图像)。
<2-2.HMD的内部配置>
接下来,参考图3,将描述根据本实施例的HMD1的内部配置示例。图3是图示出图2中所示的HMD1的内部配置示例的框图。
如图3中所示,HMD1包括显示单元2、成像单元3、照明单元4、音频输出单元5、音频输入单元6、系统控制器10、成像控制单元11、显示图像处理单元12、显示驱动单元13、显示控制单元14、成像信号处理单元15、音频信号处理单元16、图像分析单元17、照明控制单元18、GPS接收单元21、存储单元25、通信单元26、图像输入/输出控制机构27、音频输入/输出控制机构28以及音频合成单元29。
(系统控制器)
系统控制器10包括装配有例如中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)、非易失性存储器以及接口单元的微型计算机。系统控制器10控制HMD1的结构元件。
系统控制器10还充当被配置成识别HMD1的位置的位置识别单元10a和被配置成控制HMD1的操作的操作控制单元10b,如图2中所示。
位置识别单元10a基于从GPS接收单元21、图像分析单元17或音频信号处理单元16输出的数据来识别HMD1的当前位置(当前地点)。具体地,例如,位置识别单元10a将实时地从GPS接收单元21接收到的当前位置信息(诸如经度和纬度)识别为当前位置。位置识别单元10a还可以将实时地由成像单元3捕捉并由图像分析单元17分析的捕捉图像识别为当前位置。位置识别单元10a还可以将由实时地由音频输入单元6收集并由音频信号处理单元16处理的声音所表示的名称识别为当前位置。另外,该名称包括例如地址、地名、设施名称(包括公园名称)或建筑物名称。
操作控制单元10b控制HMD1的每个操作。更具体地,根据本实施例的操作控制单元10b充当切换控制单元,其被配置成响应于来自用户的切换指令而执行控制以便将视点切换至体外视点,使得显示控制单元14的显示控制模式从第一显示控制模式切换至第二显示控制模式。如上所述,来自第一人视点的场景在第一显示控制模式下被提供给用户P,而来自体外视点(其即为第三人视点)的用户P的捕捉在第二显示控制模式下被实时地提供给用户P。
操作控制单元10b(切换控制单元)能够从用户接收指令以便通过按钮/开关操作输入、注视输入、音频输入、手势输入、肌电输入或脑电波输入而将视点切换至体外视点。
按钮/开关操作输入是经由安装在HMD1上的物理按钮/开关(未示出)的操作输入。用户P按下按钮/开关以便发布用于将视点切换至体外视点的指令,从而发布该指令。
注视输入是输入指令的一种方式,其基于由在HMD1中向内安装的成像透镜(未示出)捕捉的图像而被检测,从而拍摄用户P的眼睛的图像。操作控制单元10b跟踪其图像已被捕捉的用户P的眼睛的瞳孔,并计算注视的取向。操作控制单元10b能够从而识别用户注视哪里(注视方向)。用户P能够通过在预定方向上注视大预定时间并眨眼预定时间来发布用于将视点切换至体外视点的指令。
音频输入是输入指令的一种方式,其可以被收集声音的音频输入单元6和识别该声音的音频信号处理单元16检测。例如,用户P能够通过说出(在身体外面)等来发布用于将视点切换至体外视点的指令。
手势输入是输入指令的一种方式,其可以在图像分析单元17中被成像透镜3a识别,成像透镜3a拍摄由用户P的手完成的手势的图像。另外,手势输入还可以是通过用户P的头的移动来输入指令的一种方式,该移动可以被安装在HMD1中的加速度传感器或陀螺仪传感器检测到。
肌电输入是输入指令的一种方式,其基于由安装在HMD1中的肌电传感器(未示出)获得的结果而被检测,该肌电传感器测量在用户P很快地睁开和闭上左眼、右眼或两只眼睛时产生的肌电变化。例如,用户P能够通过眨左眼来发布用于将视点切换至体外视点的指令,能够通过眨右眼来将体外视点从天空引入到诸如俯瞰用户P的较高位置,并且能够通过闭上两只眼睛来使体外视点返回至原始视点(第一人视点)。
此外,脑电波输入是输入指令的一种方式,其基于由安装在HMD1中的脑电波传感器(未示出)获得的结果而被检测,该脑电波传感器测量在用户P放松或全神贯注时产生的脑电波的变化。例如,用户P能够通过想象用户正漂浮在身体外面并全神贯注来发布用于将视点切换至体外视点的指令。
(成像单元)
成像单元3包括例如包括成像透镜3a、光阑、变焦透镜以及聚焦透镜的透镜系统、被配置成引起对透镜系统的聚焦操作或变焦操作的驱动系统以及被配置成通过对由透镜系统获取的成像光执行光电转换而生成成像信号的固态图像传感器阵列。固态图像传感器阵列可以例如由电荷耦合器件(CCD)传感器阵列和互补金属氧化物半导体(CMOS)传感器阵列实现。
捕捉图像由成像透镜3a捕捉,其面朝前从而在被用户P在视觉上识别为主题方向的方向上拍摄一定区域的图像,如图2中所示。此类捕捉图像是来自用户视点(第一人视点)的第一捕捉图像。能够从用户视点捕捉此类捕捉图像的成像单元3是根据本公开的实施例的第一成像单元的示例。
(成像信号处理单元)
成像信号处理单元15包括样本保持/自动增益控制(AGC)电路,其被配置成对由成像单元3的固态图像传感器或视频模/数(A/D)转换器获取的信号执行增益控制或波形成形。成像信号处理单元15从而获取成像信号作为数字数据。成像信号处理单元15还对例如成像信号执行白平衡处理、辉度处理、彩色信号处理以及抖动修正处理。
(成像控制单元)
成像控制单元11基于来自系统控制器10的指令来控制成像单元3和成像信号处理单元15的操作。例如,成像控制单元11控制成像单元3和图像信号处理单元15的操作被开启/关掉。成像控制单元11还被配置成对成像单元3执行控制(电动机控制)以执行诸如自动聚焦操作、自动曝光调整、光阑调整以及变焦操作的操作。成像控制单元11包括时序发生器,并用由时序发生器生成的时序信号来控制固态图像传感器以及成像信号处理单元15的样本保持/AGC电路和视频A/D转换器的信号处理操作。此类时序控制允许对成像帧数据的可变控制。
成像控制单元11还控制固态图像传感器和成像信号处理单元15中的成像灵敏度和信号处理。例如,成像控制单元11能够增益控制,诸如对从固态图像传感器读出的信号的成像灵敏度控制、黑色水平设置控制、用于作为数字数据的成像信号的处理中的各种系数控制、抖动修正处理中的修正水平控制等。相对于成像灵敏度,还能够执行未对波长带宽给出特定考虑的整体灵敏度调整或用于调整诸如红外线范围和紫外线范围的特定波长宽度的成像灵敏度的灵敏度调整(诸如通过切割特定波长带宽的成像)。将波长滤波器插入成像透镜系统中,或者对成像信号执行波长滤波操作处理,从而允许根据波长来进行灵敏度调整。在这种情况下,成像控制单元11能够通过对波长滤波器执行插入控制、指定滤波器操作系数等来执行灵敏度控制。
(图像输入/输出控制机构)
图像输入/输出控制机构27被提供由捕捉图像的上述成像单元3获得并由成像信号处理单元15处理的成像信号(通过捕捉图像获得的图像数据)。图像输入/输出控制机构27根据由系统控制器10执行的控制来控制图像数据的传输。也就是说,图像输入/输出控制机构27控制图像数据在成像系统(成像信号处理单元15)、显示系统(显示图像处理单元12)、存储单元25以及通信单元26之间的传输。
例如,图像输入/输出控制机构27执行为显示图像处理单元12、存储单元25或通信单元26供应图像数据的操作,该图像数据是在成像信号处理单元15中处理的成像信号。成像输入/输出控制机构27还执行例如为显示图像处理单元12或通信单元26供应由存储单元25再现的图像数据的操作。图像输入/输出控制机构27还执行例如为显示图像处理单元12或存储单元25供应由通信单元26接收到的图像数据(诸如从外部相机32接收到的第二捕捉图像)的操作。
(显示图像处理单元)
显示图像处理单元12是例如所谓的视频处理器,其即为能够对供应的图像数据执行各种显示处理的部分。例如,显示图像处理单元12能够对图像数据执行辉度水平调整、色彩修正、对比度调整、锐度(轮廓强调)调整。
(显示驱动单元)
显示驱动单元13包括像素驱动电路,其用于在显示单元2上显示从显示图像处理单元12供应的图像数据,该显示单元2例如由液晶显示器构成。也就是说,基于视频信号的驱动信号被以预定水平/垂直驱动时序施加于以矩阵形式设置在显示单元2上的像素,并显示每个像素。显示驱动单元13还能够通过根据显示控制单元14的指令来控制显示单元2上的每个像素的透光率而使显示单元2进入通透状态。
(显示控制单元)
显示控制单元14根据由系统控制器10执行的控制来控制显示图像处理单元12的处理操作和显示驱动单元13的操作。具体地,显示控制单元14控制显示图像处理单元12对图像数据执行辉度水平调整等,这在上文已描述。
根据本实施例的显示控制单元14具有第一显示控制模式和第二显示控制模式,并且根据由系统控制器10中的操作控制单元10b(切换控制单元)执行电控制来切换显示控制模式。第一显示控制模式执行控制模式,使得显示单元2显示来自用户视点的第一捕捉图像,其由成像单元3(第一成像单元)捕捉,或者执行控制,使得显示单元2是透射式的。显示控制单元14从而能够从用户视点(第一人视点)向用户P提供场景。
在第二显示控制模式下执行控制,使得显示单元2显示由在视角内包括用户P的外部相机32(第二成像单元)捕捉的第二捕捉图像。显示控制单元14从而能够从体外视点(第三人视点)向用户P提供场景。还实时地经由通信单元26从外部相机获取由上述外部相机(第二成像单元)捕捉的第二捕捉图像。
(音频输入单元)
音频输入单元6包括图2中所示的扩音器6a和6b、被配置成对从扩音器6a和6b获取的音频信号执行放大处理的扩音器/放大器单元以及A/D转换器。音频输入单元6向音频输入/输出控制机构28输出音频数据。
(音频输入/输出控制机构)
音频输入/输出控制机构28根据由系统控制器执行的控制来控制音频数据的传输。具体地,音频输入/输出控制机构28控制音频信号在音频输入单元6、音频信号处理单元16、存储单元25以及通信单元26之间的传输。例如,音频输入/输出控制机构执行为音频信号处理单元16、存储单元25或通信单元26供应由音频输入单元6获取的音频数据的操作。
音频输入/输出控制机构28还执行为音频信号处理单元16或通信单元26供应例如由存储单元25再现的音频数据的操作。音频输入/输出控制机构28还执行为音频信号处理单元16或存储单元25供应例如由通信单元26接收到的音频数据的操作。
更具体地,根据本实施例的音频输入/输出控制机构28充当音频输出控制单元,其被配置成当操作控制单元10b(切换控制单元)对显示控制模式执行切换控制时,输出预定声音效果。例如,如果音频输入/输出控制机构28(音频输出控制单元)输出促使对用户P发生体外体验的预定声音效果,则用户P可能不仅在视觉上而且在听觉上经历体外体验。
(音频信号处理单元)
音频信号处理单元16包括例如和D/A转换器。经由音频输入/输出控制机构28为音频信号处理单元16供应由音频输入单元6获取的音频数据或从存储单元25或通信单元26供应的音频数据。音频信号处理单元16根据由系统控制器10执行的控制对供应的音频数据执行例如用于音量调整、声音质量调整或声音效果的处理。已处理音频数据被转换成模拟信号,并供应给音频输出单元5。另外,音频信号处理单元16不限于被配置成执行数字信号处理的结构元件,而是还可以是被配置成通过使用模拟放大器或模拟滤波器来执行信号处理的结构元件。
(音频输出单元)
音频输出单元5包括图2中所示的一对耳机扬声器5a和用于耳机扬声器5a的放大器电路。音频输出单元5还可以被配置为所谓的骨传导扬声器。此外,用户能够收听外部声音、由存储单元25再现的声音以及由通信单元26经由音频输出单元5接收到的声音。
(存储单元)
存储单元25将数据记录到预定记录介质上,并再现该预定记录介质中的数据。存储单元25例如由硬盘驱动器(HDD)实现。当然,例如,可以设想诸如闪速存储器的固态存储器、具有内置于其中的固态存储器的存储卡、光盘、磁光盘以及全息图存储器作为记录介质。存储单元25可以刚好被配置成从而根据要采用的记录介质来执行记录和再现操作。
经由图像输入/输出控制机构27为存储单元25供应图像数据——该图像数据是其图像被成像单元3捕捉且被成像信号处理单元15处理的成像信号——或者是由通信单元26接收到的图像数据。还经由音频输入/输出控制机构28为存储单元25供应由音频输入单元6获取的音频数据或由通信单元26接收到的音频数据。
存储单元25对供应的图像数据和音频数据执行编码处理以便根据由系统控制器10执行的控制将其记录到记录介质上,从而将图像数据和音频数据记录到记录介质上。存储单元25还根据由系统控制器10执行的控制从记录介质再现图像数据和音频数据。由存储单元25再现的图像数据被输出到图像输入/输出控制机构27。同时地,由存储单元25再现的音频数据被输出到音频输入/输出控制机构28。
(通信单元)
通信单元26向和从外部设备传送和接收数据。通信单元26是用于获取外部信息的结构元件的示例。通信单元26在诸如无线LAN、Wi-Fi、红外线通信以及蓝牙的方案中直接地或经由网络接入点而无线地与外部设备通信。
除上述外部相机32之外,还可以设想诸如计算机设备、PDA、移动电话终端、智能电话、视频设备、音频设备以及调谐器设备的各种设备作为外部设备,其具有信息处理和通信功能。例如,还可以设想被连接到诸如因特网的网络的终端设备和服务器设备作为已是通信目标的外部设备。例如,还可以将具有内置于其中的IC芯片的非接触通信IC卡、诸如QR代码(注册商标)的二维条形码以及全息图存储器视为外部设备,并且还可以将通信单元26配置成从此类外部设备读取信息。此外,可设想另一HMD1作为外部设备。
经由图像输入/输出控制机构27为通信单元26供应图像数据——该图像数据是其图像被成像单元3捕捉且被成像单个处理单元15处理的成像信号——以及由存储单元25再现的图像数据。同时的,经由音频输入/输出控制机构28为通信单元26供应由音频输入单元6获取的音频数据以及由存储单元25再现的音频数据。
通信单元26执行根据由系统控制器10执行的控制对供应的图像数据和音频数据执行编码处理、调制处理等,从而将图像数据和音频数据传送到外部设备。根据本实施例的通信单元26向附近外部相机32传送例如信息报告请求或视角/方向调整指令。通信单元26执行从外部设备接收数据的操作,其例如为从外部相机32接收捕捉图像的操作。被接收并解调的图像数据被输出到图像输入/输出控制机构27。同时,被接收并解调的音频数据被输出到音频输入/输出控制机构28。
(音频合成单元)
音频合成单元29根据由系统控制器10执行的控制来执行音频合成,并输出音频信号。从音频合成单元29输出的音频信号经由音频输入/输出控制机构28被供应给信号处理单元并被音频信号处理单元16处理。其后,已处理音频信号被进一步供应给音频输出单元5,并向用户输出声音。
(照明单元和照明控制单元)
照明单元4包括图2中所示的发光单元4a以及用于促使发光单元4a(诸如LED)发射光的发光电路。照明控制单元18促使照明单元4根据由系统控制器10执行的控制来执行发光操作。照明单元4的发光单元4a被附接成从而照亮前面区域,如图2中所示。照明单元4从而在用户的视野方向上执行照明操作。
(GPS接收单元)
GPS接收单元21是用于获取外部信息的结构元件的示例。具体地,GPS接收单元21从全球定位系统(GPS)卫星接收无线电波,并输出关于用于当前位置的经度和纬度的信息。
(图像分析单元)
图像分析单元17是用于获取外部信息的结构元件的示例。具体地,图像分析单元17分析图像数据,并获取关于包括在图像数据中的图像的信息。经由图像输入/输出控制机构27为图像分析单元17供应图像数据。其图像被图像分析单元17分析的图像数据是由成像单元3和图像信号处理单元15获取的捕捉图像的图像数据、由通信单元26接收到的图像数据或由存储单元25从记录介质再现的图像数据。
如上所述,已详细地描述了根据本实施例的HMD1的内部配置。另外,已将GPS接收单元21、图像分析单元17以及通信单元26示为用于获取外部信息的结构元件。然而,并不是必须包括其中的全部。还可以另一传感器,诸如被配置成检测并分析附近声音的音频分析单元。
<2-3.显示控制处理>
接下来,参考图4,将具体地描述根据本实施例的由HMD1执行的显示控制处理。
图4是图示出根据本实施例的显示控制处理的流程图。首先,如图4的S103中所示,HMD1的显示控制单元14从第一人视点向用户P提供场景作为第一显示控制模式。具体地,执行控制,使得显示单元2是透射式的,或者执行控制,使得显示单元2显示由成像单元3用成像透镜3a(参见图2)捕捉的捕捉图像,该成像透镜3a被配置成在由用户P在视觉上识别的方向上捕捉一定区域的图像。如图1的左侧中所示,从而能够在视觉上识别来自用户视点(第一人视点)的场景2-1。
接下来,在步骤S106中,HMD1确定用户P是否发布用于将视点切换至体外视点的指令。
随后,如果发布了体外指令(S106/是),则HMD1在布置S109中搜索能够从在视角内包括用户P的体外视点捕捉图像的外部相机322。具体地,例如HMD1通过近场通信向一个或多个附近外部相机32传送信息报告请求,并获取每个相机的位置信息、视角信息以及图像拍摄方向信息。HMD1基于获取信息和HMD1的当前位置(诸如由GPS接收单元21获取的位置信息)来选择在视角内包括佩戴HMD1的用户P的外部相机32,并从外部相机32获取捕捉图像。
替换地,HMD1还可以从一个或多个附近外部相机32获取捕捉图像,分析每个捕捉图像,并自动地选择在视角内宽泛地包括用户P的捕捉图像。替换地,HMD1还可以向显示单元2呈现从附近外部相机32获取的捕捉图像,并促使用户P手动地选择捕捉图像。
接下来,在步骤S112中,HMD1的操作控制单元10b(切换控制单元)执行控制,从而将显示控制单元14的显示控制模式切换至第二显示控制模式。显示控制单元14从而能够在视角内包括用户P的体外视点(第三人视点)向用户P提供场景作为第二显示控制模式。用户P能够感觉如同用户P在真实世界中漂浮在身体外面一样。
具体地,显示控制单元14实时地在显示单元2上显示从在步骤S109中搜索的外部相机32接收到的捕捉图像(或自动/手动地选择的捕捉图像)作为来自体外视点(第三人视点)的场景。例如,如图1的中心上所示,由外部相机32捕捉的图像2-2作为来自体外视点(第三人视点)的场景显示在显示单元2上。当显示控制单元14将显示控制模式切换到第二显示控制模式时,显示控制单元14可以基于在切换显示控制模式(来自用户视点的第一和第二图像,其由第一成像单元捕捉)之前和之后的图像来生成指示正在切换显示控制模式的过渡图像,并显示单元2上显示过渡图像。
在显示控制单元14在显示单元2上显示捕捉图像2-2之后,显示控制单元14可以向外部相机32传送变焦指令,并实时地在显示单元2上显示如在图1的右侧中所示的被放大的来自第三人视点的捕捉图像2-3。用户P从而能够感觉如同用户P更高地飘在空中一样。
如上所述,已详细地描述了根据本实施例的显示控制处理。另外,如同1中所示,当依次地显示捕捉图像2-2和2-3时,用户P当然能够感觉如同用户P更高地飘在空中一样。然而,视角变得越宽,用户P变得越小,并且变得越难以在视觉上识别用户P。相应地,通过将指示用户P的位置的指示符叠加在第二捕捉图像上,在本实施例中能够明确地指示用户P的位置。接下来,参考图5,将进行特定描述。
图5是用于描述指示用户P的位置的指示符被叠加在第二步骤图像上的图。如图5中所示,例如,当HMD1的显示控制单元14在第二显示控制模式下在显示单元2上显示捕捉图像2-5时,不显示指示符,因为用户P以视觉上可识别的方式显示在捕捉图像2-5上。基于图像分析单元17的分析结果,可以以视觉可识别方式来确定用户P是否显示在捕捉图像2-5上。替换地,当用户未发布指示符显示指令时,可以以视觉上可识别方式确定显示了用户P。
相反,当用于从体外视点捕捉一个捕捉图像(其显示在显示单元2上)的视角被加宽时,可以显示由安装在例如摩天大楼或飞船上的外部相机32捕捉的捕捉图像2-6。在这种情况下,由于如图5中所示用户P在捕捉图像2-6中是不可识别的,所以显示控制单元14叠加指示用户P的位置的指示符40。如上所述,基于图像分析单元17的分析结果,可以确定用户P是否是可识别的。替换地,当用户发布指示符显示指令时,可以确定用户P是不可识别的。
另外,可以基于例如HMD1的位置信息或者捕捉该捕捉图像2-6的外部相机32的位置信息、高度信息或视角信息或图像分析单元17的分析结果来确定用户P在捕捉图像2-6中的位置(指示符40的显示位置)。
指示符40从而允许用户P从体外视点(第三人视点)识别用户P在捕捉图像2-6中的位置,其显示在显示单元2上,即使用户P在捕捉图像2-6中是不可识别的。
<2-4.补充>
接下来,将补充根据本实施例的显示控制系统。在上述实施例中,用户P感觉如同在真实世界中漂浮在身体外面一样。HMD1还可以执行控制,使得明确地向附近的人指示用户P正在经历体外体验。
例如,通过使发光单元4a闪烁或在已在HMD1的侧面或背面上向外安装的显示单元上显示预定图像,HMD1明确地向附近的人指示用户P正在经历体外体验(第二显示控制模式在使用中)。参考图6A和6B,下面将具体描述的是在安装于外面的显示单元上显示预定图像,以便明确地向附近的人指示用户P正在经历体外体验。
图6A和6B每个是图示出显示于外显示单元上的图像示例的图。在这里,如图6A中所示,让我们假设HMD1的显示单元2由双面显示器构成,其包括被配置成面对佩戴者(内侧)的内显示单元2I和被配置成面对与内显示单元2I相对的一侧(外侧)的外显示单元2O。在这种情况下,显示控制单元14在第二显示控制模式下在内显示单元2I上显示来自体外视点(第三人视点)的捕捉图像,并在外显示单元2O上显示指示用户P正在经历体外体验的预定图像。
在外显示单元2O上显示的预定图像还可以是指示体外情况的图标化过渡图像,如图6A中所示。具体地,如图6A中所示,外显示单元2O依次地显示指示图标化人的图像2O-1、指示图标化人开始在身体外面漂浮的图像2O-2以及指示图标化人正漂浮在身体外面的图像2O-3。替换地,显示在外显示单元2O上的预定图像还可以是通过使用如图6中所示的用户P的图像而生成的图像2O-6,并指示其中用户P正在漂浮的情况。
这样,通过在显示单元2的外显示单元2O上显示指示用户正在经历体外体验的预定图像,可以明确地向附近的人指示用户P正在经历体外体验。
如上所述,已详细地描述了根据本实施例的包括在显示控制系统中的HMD1的配置和显示控制处理。然而,上文已描述的仅仅是根据本公开的实施例的显示控制系统的示例。本技术不限于上述实施例。下面将描述根据本公开的其他实施例的显示控制系统。
《3.其他实施例》
<3-1.虚拟相机>
在上述实施例中从外部相机32获取来自第三人视点的图像,其在视角内包括用户P。然而,根据本公开的实施例的显示控制系统不限于此。还可以使用虚拟外部相机(其将被称为虚拟相机)。HMD1控制虚拟相机的位置或图像捕捉方向,基于从多个外部相机32获取的捕捉图像而生成被认为由虚拟相机捕捉的图像,并在显示单元2上显示该图像。接下来,参考图7和8,将具体地描述使用此类虚拟相机的显示控制系统。
(概述)
图7是用于描述使用虚拟相机的显示控制系统的图。如图7中所示,HMD1能够连接到附近外部相机32A至32D,并向那里和从那里传送和接收数据。外部相机32A至32D每个包括位置信息和图像拍摄方向信息。
在这里,外部相机32A是安装于HMD1的背面(当用户佩戴HMD1时,对应于用户的头的后面)中的第二成像单元,如图7中所示。外部相机32A是由在HMD1的上、下和向内方向上捕捉图像的多个超广角透镜实现的,如图7中所示。在头的后面、头的侧面以及佩戴者的背后(身体)的图像被超广角透镜捕捉。外部相机32A能够将用多个超广角透镜捕捉的多个捕捉图像组和以生成来自第三人视点的图像,其在视角内包括佩戴者(用户P)的头部的后面。
HMD1还根据用户操作来控制虚拟相机34的位置和图像拍摄方向,并且生成被认为由虚拟相机34捕捉的图像。具体地,从参考外部相机32A至32D的位置/图像拍摄方向而安装于HMD1的外部相机32A至32D获取所需捕捉图像。获取的捕捉图像被用来生成被认为由虚拟相机34捕捉的图像。这样,HMD1能够通过使用从外部相机32A至32D获取的捕捉图像根据用户操作而从自由视点生成体外图像,并在显示单元2上显示生成的图像。
(操作处理)
接下来,参考图8,将描述根据本实施例的操作处理。图8是图示出根据本实施例的显示控制处理的流程图。
首先,在图8的步骤S200中,HMD1接收由用户设定的虚拟相机34的位置和方向。
接下来,在步骤S210中,HMD1从HMD1的通信单元26向附近的外部相机32A至32D传送信息报告请求。该信息报告请求请求要报告的每个外部相机32的位置信息(诸如维度、经度以及高度)和方向信息。
接下来,在步骤S220中,外部相机32A至32D响应于来自HMD1的信息报告请求而向HMD1报告包括位置信息和方向信息的信息。
随后,在步骤S230中,HMD1调整每个相机32的视角(远和宽)和图像拍摄方向(摇摄和倾斜)以便根据在S200中设定的虚拟相机的位置和方向来获取图像。在图8的示例中,作为示例,向外部相机32B至32D发布调整指令。
随后,在步骤S240中,HMD1向已经向其发布调整指令的外部相机32B至32D传送图像获取请求。图像获取请求请求传送已经由外部相机32捕捉的捕捉图像。
接下来,在步骤S250中,外部相机32B至32D响应于来自HMD1的图像获取请求而向HMD1传送捕捉图像。
随后,在步骤S260中,HMD1基于从外部相机32B至32D获取的捕捉图像而执行计算以根据在S200中设定的位置和方向来生成图像(被认为由虚拟相机34捕捉的图像)。计算方法并不受特别限制。例如,可以使用在JP2007-334583A中公开的用于生成自由视点图像的方法。更具体地,HMD1能够通过块匹配来检测视差矢量,并通过使用该视差矢量从给定视点生成图像。
在步骤S270中,HMD1在显示单元2上显示从第三人视点生成的图像,其即为被认为由虚拟相机34捕捉的图像,该虚拟相机34的位置和方向是根据用户操作而设定的,并在视角内包括用户P。
<3-2.由服务器执行的控制处理>
根据上述实施例所述的显示控制处理由HMD1执行。然而,根据本公开的实施例的显示控制系统不限于此。可连接到HDM1和外部相机A至D的服务器还可以执行显示控制处理。接下来,参考图9至10,将进行特定描述。
图9是图示出包括服务器的显示控制系统中的显示控制处理的流程图。首先,如图9中所示,在步骤S300中,外部相机32A至32D中的每一个在位置、方向等的状态改变时向服务器报告关于位置和图像拍摄方向的信息。服务器从而能够不断地掌握外部相机32A至32D中的每一个的位置、图像拍摄方向等的状态。
接下来,在步骤S310中,HMD1接收由用户设定的虚拟相机34的位置和方向。
随后,在步骤S320中,HMD1向服务器报告关于虚拟相机34的设定位置和方向的信息。
接下来,在步骤S330中,服务器向预定相机32传送图像获取请求以便根据在S320中从HMD1报告的虚拟相机34的位置和方向来获取图像。在图9的示例中,假设外部相机32A的位置和方向与虚拟相机34的位置和方向相同,服务器向外部相机32A传送图像获取请求。
随后,在步骤S340中,外部相机32A响应于来自服务器的图像获取请求而向服务器传送捕捉图像。
接下来,在步骤S350中,服务器在不处理捕捉图像的情况下将从外部相机32A传送的捕捉图像传送至HMD1。如上所述,在图9的示例中,假设外部相机32A的位置和方向与虚拟相机34的位置和方向相同。相应地,服务器不必处理从外部相机32A获取的捕捉图像。
在步骤S360中,HMD1在显示单元2上显示从服务器传送的来自第三人视点的捕捉图像,其即为被认为由虚拟相机34捕捉的图像,该虚拟相机34的位置和方向已根据用户操作而设定,并在视角内包括用户P。
在上述示例中假设外部相机32A的位置和方向与虚拟相机34的位置和方向相同。然而,当外部相机32的位置和方向并未与虚拟相机34的那些相同时,服务器可以基于从多个外部相机32获取的捕捉图像而生成图像。参考图10,下面将描述的是服务器从多个外部相机32获取的捕捉图像而生成(处理)图像。
图10是图示出包括服务器的显示控制系统的另一显示控制处理的流程图。图10的步骤S300至S320中所示的处理与图9的相应步骤中所示的处理相同。相应地,在这里将省略它们。
接下来,在步骤S400中,服务器调整每个外部相机32的视角(远和宽)和图像拍摄方向(摇摄和倾斜)以便根据在S320中由HMD1报告的虚拟相机34的位置和方向来获取图像。在图10的示例中,作为示例,向外部相机32B至32D发布调整指令。
随后,在步骤S410中,服务器向已经向其发布调整指令的外部相机32B至32D传送图像获取请求。该图像获取请求请求传送由外部相机32捕捉的捕捉图像。
接下来,在步骤420中,外部相机32B至32D响应于来自服务器的图像获取请求而向服务器传送捕捉图像。
随后,在步骤S430中,HMD1基于从外部相机32B至32D获取的捕捉图像来执行计算以根据在S320中报告的位置和方向来生成图像(被认为由虚拟相机34捕捉的图像)。
接下来,在步骤S440中,服务器将生成的图像传送至HMD1。
随后,在步骤S450中,HMD1在显示单元2上显示从服务器传送的来自第三人视点的捕捉图像,其即为被认为由虚拟相机34捕捉的图像,该虚拟相机34的位置和方向已根据用户操作而设定,并在视角内包括用户P。
<3-3.另一设备示例>
参考图11A和11B,将具体地描述显示控制系统,其中,根据本公开的实施例的信息处理设备是例如除图1和2中所示的HMD1之外的诸如智能电话的设备。
图11A是用于描述在智能电话的显示单元上显示来自体外视点的场景(第二捕捉图像)的第一系统配置示例的图。如图11A中所示,智能电话100包括显示单元120和成像单元130。成像单元130是安装在智能电话100的外表面上且能够在用户P的注视方向上拍摄一定区域的图像的第一成像单元。
以这种方式配置的智能电话100在第一显示控制模式下在显示单元120上显示由成像单元130(第一成像单元)拍摄的来自用户视点(第一人视点)的拍摄图像(第一捕捉图像)。
接下来,当用户P发布体外指令时,智能电话100将显示控制模式切换到第二显示控制模式。具体地,智能电话100在第二显示控制模式下在显示单元120上显示由附近外部相机32(第二成像单元)捕捉的来自体外视点(第三人视点)的捕捉图像(第二捕捉图像)。
这样,例如,除HMD1之外,还可以将根据本公开实施例的显示控制系统应用于智能电话100。在图11A的示例中,与智能电话100集成的成像单元130被用作第一成像单元,但根据本公开的实施例的第一成像单元不限于此。例如,可以与智能电话100分开地安装成像单元。参考图11B,下面将进行特定描述。
图11B是用于描述其中来自体外视点的场景(第二捕捉图像)被显示在智能电话的显示单元上的第二系统配置示例的图。如图11B中所示,用户P佩戴被认为是所谓的救生圈且能够连续地拍摄和记录外部信息的可佩戴设备200。在这种情况下,当可佩戴设备200的成像单元230能够在用户P的注视方向拍摄一定区域的图像时,成像单元230能够用作本显示控制系统中的第一成像单元。
具体地,智能电话100接收由可佩戴设备200的成像单元230(第一成像单元)拍摄的来自用户视点(第一人视点)的拍摄图像(第一捕捉图像),并在第一显示控制模式下在智能电话100的显示单元120上显示接收到的拍摄图像。
智能电话100以与针对图11A中所示的系统配置所述的相同方式在第二显示控制模式下在显示单元120上显示由附近外部相机32(第二成像单元)捕捉的来自体外视点(第三人视点)的捕捉图像(第二捕捉图像)。
这样,根据本实施例的智能电话100(信息处理设备)可以使用与智能电话100(信息处理设备)分开安装的成像单元作为第一成像单元。
《4.结论》
如上所述,在根据本实施例的显示控制系统中的显示单元2上实时地显示来自第三人视点(从其俯瞰用户)的真实世界的图像。用户从而能够感觉如同用户实际上漂浮在身体外面一样。
虽然已参考附图详细地描述了本公开的优选实施例,但本公开不限于此。对于本领域的技术人员显而易见的是可以有各种修改或变更,只要其在所附权利要求或其等效物的技术范围内即可。应理解的是此类修改或变更也在本公开的技术范围内。
例如,还可以创建计算机程序以便促使内置于上述HMD1中的诸如CPU、ROM以及RAM的硬件执行与HMD1的上述结构元件相同的功能。还提供了具有存储在其中的计算机程序的计算机可读存储介质。
在显示单元2上实时地显示来自第三人视点(从其俯瞰用户)的真实世界的图像。用户从而能够经历体外体验,并且例如当发生灾难、外面很黑或用户迷路时很容易掌握周围的情况。
另外,还可以如下配置将本技术。
(1)一种信息处理设备,包括:
显示控制单元,配置成包括第一显示控制模式和第二显示控制模式,在第一显示控制模式中以在显示单元上显示由第一成像单元捕捉的来自用户视点的第一图像的方式来执行控制,或以显示单元为透射式的方式来执行控制,在第二显示控制模式中以在显示单元上显示由在视角内包括用户的第二成像单元捕捉的第二图像的方式来执行控制;以及
切换控制单元,配置成响应于来自用户的指令,以显示控制单元的显示控制模式从第一显示控制模式切换至第二显示控制模式的方式来执行控制。
(2)根据(1)所述的信息处理设备,
其中,所述显示单元是能够经受透光率控制的显示单元,以及
其中,所述显示控制单元根据由切换控制单元执行的控制将其中以显示单元为透射式的方式来执行控制的第一显示控制器模式切换至其中以在显示单元上显示由在视角内包括用户的第二成像单元捕捉的第二图像的方式来执行控制的第二显示控制模式。
(3)根据(1)所述的信息处理设备,
其中,所述显示控制单元根据由切换控制单元执行的控制将其中在显示单元上显示来自用户视点的第一图像的第一显示控制模式切换至其中以在显示单元上显示由在视角内包括用户的第二成像单元捕捉的第二图像的方式来执行控制的第二显示控制模式,第一图像是由第一成像单元捕捉的。
(4)根据(1)或(2)所述的信息处理设备,
其中,当将显示控制模式切换至第二显示控制模式时,所述显示控制单元生成过渡图像,其基于来自用户视点的第一图像和第二图像而指示正在切换显示控制模式,并在显示单元上显示该过渡图像,该第一图像是由第一成像单元捕捉的。
(5)根据(1)至(4)中的任一项所述的信息处理设备,
其中,所述显示单元安装于HMD上并设置在用户的眼睛前面,所述HMD被佩戴在用户的头或脸上。
(6)根据(1)至(5)中的任一项所述的信息处理设备,
其中,所述切换控制单元以操作输入、注视输入、音频输入、手势输入、肌电输入或脑电波输入的形式从用户接收指令。
(7)根据(1)至(6)中的任一项所述的信息处理设备,
其中,所述显示控制单元显示第二图像上的用户位置的指示符。
(8)根据(1)至(7)中的任一项所述的信息处理设备,
其中,所述显示控制单元根据来自用户的指令而从一定位置生成在视角内包括用户的虚拟捕捉图像作为第二图像,并在第二显示控制模式下在显示单元上显示生成的图像。
(9)根据(1)至(8)中的任一项所述的信息处理设备,还包括:
音频输出控制单元,被配置成以当切换控制单元切换显示控制模式时输出预定声音效果的方式来执行控制。
(10)根据(1)至(9)中的任一项所述的信息处理设备,
其中,所述第一成像单元被安装在HMD上并以第一成像单元在用户的注视方向上捕捉一定区域的图像的方式设置,该HMD被佩戴在用户的头或脸上。
(11)根据(1)至(10)中的任一项所述的信息处理设备,
其中,所述第二成像单元是安装在用户周围的固定相机。
(12)根据(1)至(11)中的任一项所述的信息处理设备,
其中,所述第二成像单元是安装在飞行对象上的相机。
(13)根据(1)至(12)中的任一项所述的信息处理设备,
其中,所述第二成像单元包括安装在HMD上的多个超宽相机,该HMD被佩戴在用户的头或脸上,以及
其中,所述限制控制单元基于由多个超宽相机捕捉的多个捕捉图像而在第二显示控制模式下生成第二图像。
(14)根据(1)至(13)中的任一项所述的信息处理设备,
其中,所述显示单元包括被配置成显示第二图像的内显示单元以及被配置成面对与内显示单元相对的一侧的外显示单元,以及
其中,所述显示控制单元以在外显示单元上显示指示显示控制模式已被切换至第二显示控制模式的图像的方式在第二显示控制模式下执行控制。
(15)一种具有记录在其上面的程序的非临时计算机可读记录介质,该程序促使计算机充当:
显示控制单元,配置成包括第一显示控制模式和第二显示控制模式,在第一显示控制模式中以在显示单元上显示由第一成像单元捕捉的来自用户视点的第一图像的方式来执行控制,或以显示单元为透射式的方式来执行控制,在第二显示控制模式中以在显示单元上显示由在视角内包括用户的第二成像单元捕捉的第二图像的方式来执行控制;以及
切换控制单元,配置成响应于来自用户的指令,以显示控制单元的显示控制模式从第一显示控制模式切换至第二显示控制模式的方式来执行控制。
Claims (15)
1.一种信息处理设备,包括:
显示控制单元,配置成包括第一显示控制模式和第二显示控制模式,在第一显示控制模式中以在显示单元上显示由第一成像单元捕捉的来自用户视点的第一图像的方式来执行控制,或以显示单元为透射式的方式来执行控制,在第二显示控制模式中以在显示单元上显示由在视角内包括用户的第二成像单元捕捉的第二图像的方式来执行控制;以及
切换控制单元,配置成响应于来自用户的指令,以显示控制单元的显示控制模式从第一显示控制模式切换至第二显示控制模式的方式来执行控制。
2.根据权利要求1所述的信息处理设备,
其中,所述显示单元是能够经受透光率控制的显示单元,以及
其中,所述显示控制单元根据由切换控制单元执行的控制,将其中以显示单元为透射式的方式来执行控制的第一显示控制器模式,切换至其中以在显示单元上显示由在视角内包括用户的第二成像单元捕捉的第二图像的方式来执行控制的第二显示控制模式。
3.根据权利要求1所述的信息处理设备,
其中,所述显示控制单元根据由切换控制单元执行的控制,将其中在显示单元上显示来自用户视点的第一图像的第一显示控制模式,切换至其中以在显示单元上显示由在视角内包括用户的第二成像单元捕捉的第二图像的方式来执行控制的第二显示控制模式,第一图像是由第一成像单元捕捉的。
4.根据权利要求1所述的信息处理设备,
其中,当将显示控制模式切换至第二显示控制模式时,所述显示控制单元基于来自用户视点的第一图像和第二图像,生成指示正在切换显示控制模式的过渡图像,并在显示单元上显示该过渡图像,该第一图像是由第一成像单元捕捉的。
5.根据权利要求1所述的信息处理设备,
其中,所述显示单元安装于HMD上并设置在用户的眼睛前面,所述HMD被佩戴在用户的头或脸上。
6.根据权利要求1所述的信息处理设备,
其中,所述切换控制单元以操作输入、注视输入、音频输入、手势输入、肌电输入或脑电波输入的形式从用户接收指令。
7.根据权利要求1所述的信息处理设备,
其中,所述显示控制单元显示指示第二图像上的用户位置的指示符。
8.根据权利要求1所述的信息处理设备,
其中,所述显示控制单元根据来自用户的指令,从一定位置生成在视角内包括用户的虚拟捕捉图像作为第二图像,并在第二显示控制模式下在显示单元上显示生成的图像。
9.根据权利要求1所述的信息处理设备,还包括:
音频输出控制单元,配置成以当切换控制单元切换显示控制模式时输出预定声音效果的方式来执行控制。
10.根据权利要求1所述的信息处理设备,
其中,所述第一成像单元安装在HMD上并以第一成像单元在用户的注视方向上捕捉一定区域的图像的方式设置,该HMD被佩戴在用户的头或脸上。
11.根据权利要求1所述的信息处理设备,
其中,所述第二成像单元是安装在用户周围的固定相机。
12.根据权利要求1所述的信息处理设备,
其中,所述第二成像单元是安装在飞行对象上的相机。
13.根据权利要求1所述的信息处理设备,
其中,所述第二成像单元包括安装在HMD上的多个超宽相机,该HMD被佩戴在用户的头或脸上,以及
其中,所述显示控制单元基于由多个超宽相机捕捉的多个捕捉图像,在第二显示控制模式下生成第二图像。
14.根据权利要求1所述的信息处理设备,
其中,所述显示单元包括配置成显示第二图像的内显示单元,以及配置成面对与内显示单元相对的一侧的外显示单元,以及
其中,所述显示控制单元以在外显示单元上显示指示显示控制模式被切换至第二显示控制模式的图像的方式,在第二显示控制模式下执行控制。
15.一种具有记录在其上面的程序的非临时计算机可读记录介质,该程序促使计算机充当:
显示控制单元,配置成包括第一显示控制模式和第二显示控制模式,在第一显示控制模式中以在显示单元上显示由第一成像单元捕捉的来自用户视点的第一图像的方式来执行控制,或以显示单元为透射式的方式来执行控制,在第二显示控制模式中以在显示单元上显示由在视角内包括用户的第二成像单元捕捉的第二图像的方式来执行控制;以及
切换控制单元,配置成响应于来自用户的指令,以显示控制单元的显示控制模式从第一显示控制模式切换至第二显示控制模式的方式来执行控制。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012269270A JP6094190B2 (ja) | 2012-12-10 | 2012-12-10 | 情報処理装置および記録媒体 |
JP2012-269270 | 2012-12-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103869468A true CN103869468A (zh) | 2014-06-18 |
CN103869468B CN103869468B (zh) | 2017-05-17 |
Family
ID=50880475
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310641526.3A Expired - Fee Related CN103869468B (zh) | 2012-12-10 | 2013-12-03 | 信息处理设备 |
Country Status (3)
Country | Link |
---|---|
US (2) | US9245389B2 (zh) |
JP (1) | JP6094190B2 (zh) |
CN (1) | CN103869468B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106484111A (zh) * | 2016-09-30 | 2017-03-08 | 珠海市魅族科技有限公司 | 一种图像处理的方法及虚拟现实设备 |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9798144B2 (en) * | 2012-09-12 | 2017-10-24 | Sony Corporation | Wearable image display device to control display of image |
JP6094190B2 (ja) * | 2012-12-10 | 2017-03-15 | ソニー株式会社 | 情報処理装置および記録媒体 |
GB201310359D0 (en) * | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-Mountable apparatus and systems |
DE102013013698B4 (de) * | 2013-08-16 | 2024-10-02 | Audi Ag | Verfahren zum Betreiben einer elektronischen Datenbrille |
US11327302B2 (en) * | 2013-09-18 | 2022-05-10 | Beth Holst | Secure capture and transfer of image and audio data |
CN103646587B (zh) * | 2013-12-05 | 2017-02-22 | 北京京东方光电科技有限公司 | 一种智能眼镜及其控制方法 |
KR101420612B1 (ko) | 2014-02-18 | 2014-07-17 | 쓰리에이티에스엠 주식회사 | 파운데이션 충진장치 |
JP6500477B2 (ja) * | 2015-02-12 | 2019-04-17 | セイコーエプソン株式会社 | 頭部装着型表示装置、制御システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
US10600245B1 (en) * | 2014-05-28 | 2020-03-24 | Lucasfilm Entertainment Company Ltd. | Navigating a virtual environment of a media content item |
US10225525B2 (en) * | 2014-07-09 | 2019-03-05 | Sony Corporation | Information processing device, storage medium, and control method |
JP6041016B2 (ja) | 2014-07-25 | 2016-12-07 | 裕行 池田 | 眼鏡型端末 |
US9977495B2 (en) | 2014-09-19 | 2018-05-22 | Utherverse Digital Inc. | Immersive displays |
JP6516464B2 (ja) * | 2014-12-15 | 2019-05-22 | Kddi株式会社 | ウェアラブル検索システム |
JP2016191845A (ja) * | 2015-03-31 | 2016-11-10 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10062208B2 (en) * | 2015-04-09 | 2018-08-28 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
US10545714B2 (en) | 2015-09-04 | 2020-01-28 | Samsung Electronics Co., Ltd. | Dual screen head mounted display |
US10139902B2 (en) * | 2015-09-16 | 2018-11-27 | Colopl, Inc. | Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display |
JPWO2017051592A1 (ja) * | 2015-09-25 | 2018-08-16 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP6097377B1 (ja) * | 2015-11-27 | 2017-03-15 | 株式会社コロプラ | 画像表示方法及びプログラム |
JP6532393B2 (ja) * | 2015-12-02 | 2019-06-19 | 株式会社ソニー・インタラクティブエンタテインメント | 表示制御装置及び表示制御方法 |
JP6675209B2 (ja) * | 2016-01-20 | 2020-04-01 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置およびユーザガイド提示方法 |
US20170230640A1 (en) * | 2016-02-05 | 2017-08-10 | Samsung Electronics Co., Ltd. | Portable image device with external display |
US10133345B2 (en) * | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
US9760646B1 (en) * | 2016-05-25 | 2017-09-12 | Bank Of America Corporation | Card issuance using card feature verification |
JP6534972B2 (ja) * | 2016-07-07 | 2019-06-26 | 日本電信電話株式会社 | 映像表示装置、映像表示方法及び映像表示プログラム |
US9971157B2 (en) | 2016-07-25 | 2018-05-15 | Colopl, Inc. | Display control method and system for executing the display control method |
JP6152997B1 (ja) * | 2016-07-25 | 2017-06-28 | 株式会社コロプラ | 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム |
JP6440910B2 (ja) * | 2016-07-29 | 2018-12-19 | 三菱電機株式会社 | 表示装置、表示制御装置および表示制御方法 |
US11269480B2 (en) | 2016-08-23 | 2022-03-08 | Reavire, Inc. | Controlling objects using virtual rays |
JP6918455B2 (ja) * | 2016-09-01 | 2021-08-11 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2017097854A (ja) * | 2016-09-29 | 2017-06-01 | 株式会社スクウェア・エニックス | プログラム、記録媒体、コンテンツ提供装置及び制御方法 |
IL252056A (en) | 2017-05-01 | 2018-04-30 | Elbit Systems Ltd | Head-up display device, system and method |
US10810541B2 (en) * | 2017-05-03 | 2020-10-20 | Hand Held Products, Inc. | Methods for pick and put location verification |
US10338766B2 (en) * | 2017-09-06 | 2019-07-02 | Realwear, Incorporated | Audible and visual operational modes for a head-mounted display device |
WO2019089811A1 (en) * | 2017-11-01 | 2019-05-09 | Vrgineers, Inc. | Interactive augmented or virtual reality devices |
JP6783264B2 (ja) * | 2018-04-09 | 2020-11-11 | Necパーソナルコンピュータ株式会社 | 表示制御装置、及び表示制御方法 |
TWI805725B (zh) * | 2018-06-07 | 2023-06-21 | 日商索尼半導體解決方案公司 | 資訊處理裝置、資訊處理方法及資訊處理系統 |
US11054638B2 (en) | 2018-06-13 | 2021-07-06 | Reavire, Inc. | Tracking pointing direction of device |
JP6611145B1 (ja) * | 2018-10-05 | 2019-11-27 | neten株式会社 | 三人称視点vrシステム及びその使用方法 |
US11425351B2 (en) * | 2018-11-05 | 2022-08-23 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method and system for creating an out-of-body experience |
US10978019B2 (en) | 2019-04-15 | 2021-04-13 | XRSpace CO., LTD. | Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium |
JP7349256B2 (ja) * | 2019-04-23 | 2023-09-22 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および情報提示方法 |
EP3734415A1 (en) * | 2019-04-30 | 2020-11-04 | XRSpace CO., LTD. | Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium |
EP3734418A1 (en) * | 2019-05-03 | 2020-11-04 | XRSpace CO., LTD. | Head mounted display system capable of displaying a virtual scene and a map of a real environment in a picture-in-picture mode, related method and related non-transitory computer readable storage medium |
CN110308794A (zh) * | 2019-07-04 | 2019-10-08 | 郑州大学 | 具有两种显示模式的虚拟现实头盔及显示模式的控制方法 |
US11023095B2 (en) | 2019-07-12 | 2021-06-01 | Cinemoi North America, LLC | Providing a first person view in a virtual world using a lens |
JP7085578B2 (ja) * | 2020-03-10 | 2022-06-16 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ |
EP3985486B1 (en) | 2020-10-13 | 2024-04-17 | Hiroyuki Ikeda | Glasses-type terminal |
JP7394046B2 (ja) * | 2020-11-25 | 2023-12-07 | 株式会社ソニー・インタラクティブエンタテインメント | システム、撮像装置、情報処理装置、情報処理方法および情報処理プログラム |
JP2022182477A (ja) * | 2021-05-28 | 2022-12-08 | キヤノン株式会社 | 情報処理装置、システム、情報処理方法、及びプログラム |
WO2024157415A1 (ja) * | 2023-01-26 | 2024-08-02 | 株式会社ソニー・インタラクティブエンタテインメント | 表示制御装置および表示制御方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11161812A (ja) * | 1997-11-28 | 1999-06-18 | Sony Corp | 表示制御装置および表示制御方法、並びに提供媒体 |
US7312766B1 (en) * | 2000-09-22 | 2007-12-25 | Canadian Space Agency | Method and system for time/motion compensation for head mounted displays |
WO2008062664A1 (en) * | 2006-11-22 | 2008-05-29 | Sony Corporation | Image display system, display device and display method |
JP2009021914A (ja) * | 2007-07-13 | 2009-01-29 | Sony Corp | 撮像表示システム、撮像表示装置、撮像表示装置の制御方法 |
JP2011124898A (ja) * | 2009-12-14 | 2011-06-23 | Brother Industries Ltd | ヘッドマウントディスプレイ |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5353391A (en) * | 1991-05-06 | 1994-10-04 | Apple Computer, Inc. | Method apparatus for transitioning between sequences of images |
JPH0612222A (ja) * | 1992-06-29 | 1994-01-21 | Matsushita Electric Ind Co Ltd | 両面画像表示装置 |
JP2002207832A (ja) * | 2000-12-28 | 2002-07-26 | Atsushi Takahashi | インターネット技術指導教育配信システム、及び通信網を利用した指導システム |
JP2005172851A (ja) * | 2003-12-05 | 2005-06-30 | Sony Corp | 画像表示装置 |
JP4950015B2 (ja) * | 2006-12-15 | 2012-06-13 | カシオ計算機株式会社 | データ検索装置、データ検索方法、及びそのプログラム |
US8229163B2 (en) * | 2007-08-22 | 2012-07-24 | American Gnc Corporation | 4D GIS based virtual reality for moving target prediction |
JP5485702B2 (ja) * | 2007-12-28 | 2014-05-07 | 株式会社カプコン | プログラムおよびゲームシステム |
US8339403B2 (en) * | 2008-04-16 | 2012-12-25 | Microsoft Corporation | Multi-layered slide transitions |
JP2010176325A (ja) * | 2009-01-28 | 2010-08-12 | Ntt Docomo Inc | 任意視点画像生成装置及び任意視点画像生成方法 |
JP5613991B2 (ja) * | 2009-03-31 | 2014-10-29 | 株式会社ニコン | 再生演出プログラムおよび再生演出装置 |
JP5161256B2 (ja) * | 2010-03-31 | 2013-03-13 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体、及び、画像生成装置 |
JP5148652B2 (ja) * | 2010-03-31 | 2013-02-20 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及び画像生成システム |
CN103202010B (zh) * | 2010-11-09 | 2014-12-03 | 富士胶片株式会社 | 增强现实感提供设备 |
JP5966256B2 (ja) * | 2011-05-23 | 2016-08-10 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
JP6094190B2 (ja) * | 2012-12-10 | 2017-03-15 | ソニー株式会社 | 情報処理装置および記録媒体 |
JP6319952B2 (ja) * | 2013-05-31 | 2018-05-09 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法 |
KR102246553B1 (ko) * | 2014-04-24 | 2021-04-30 | 엘지전자 주식회사 | Hmd 및 그 제어 방법 |
-
2012
- 2012-12-10 JP JP2012269270A patent/JP6094190B2/ja not_active Expired - Fee Related
-
2013
- 2013-12-02 US US14/093,877 patent/US9245389B2/en not_active Expired - Fee Related
- 2013-12-03 CN CN201310641526.3A patent/CN103869468B/zh not_active Expired - Fee Related
-
2016
- 2016-01-25 US US15/006,102 patent/US20160140768A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11161812A (ja) * | 1997-11-28 | 1999-06-18 | Sony Corp | 表示制御装置および表示制御方法、並びに提供媒体 |
US7312766B1 (en) * | 2000-09-22 | 2007-12-25 | Canadian Space Agency | Method and system for time/motion compensation for head mounted displays |
WO2008062664A1 (en) * | 2006-11-22 | 2008-05-29 | Sony Corporation | Image display system, display device and display method |
JP2009021914A (ja) * | 2007-07-13 | 2009-01-29 | Sony Corp | 撮像表示システム、撮像表示装置、撮像表示装置の制御方法 |
JP2011124898A (ja) * | 2009-12-14 | 2011-06-23 | Brother Industries Ltd | ヘッドマウントディスプレイ |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106484111A (zh) * | 2016-09-30 | 2017-03-08 | 珠海市魅族科技有限公司 | 一种图像处理的方法及虚拟现实设备 |
CN106484111B (zh) * | 2016-09-30 | 2019-06-28 | 珠海市魅族科技有限公司 | 一种图像处理的方法及虚拟现实设备 |
Also Published As
Publication number | Publication date |
---|---|
CN103869468B (zh) | 2017-05-17 |
JP2014115457A (ja) | 2014-06-26 |
JP6094190B2 (ja) | 2017-03-15 |
US9245389B2 (en) | 2016-01-26 |
US20160140768A1 (en) | 2016-05-19 |
US20140160129A1 (en) | 2014-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103869468A (zh) | 信息处理设备和记录介质 | |
US10674056B2 (en) | Wearable apparatus and method for capturing image data using multiple image sensors | |
CN216083276U (zh) | 可穿戴成像设备 | |
US9927948B2 (en) | Image display apparatus and image display method | |
US10488208B2 (en) | Communication system, control method, and storage medium | |
JP4853320B2 (ja) | 画像処理装置、画像処理方法 | |
CN101165538B (zh) | 成像显示设备和方法 | |
CN110139028A (zh) | 一种图像处理的方法及头戴式显示设备 | |
US20140123015A1 (en) | Information processing system, information processing apparatus, and storage medium | |
KR20180008631A (ko) | 증강 현실 시스템들에 커플링된 프라이버시-민감 소비자 카메라들 | |
US11240596B2 (en) | Systems and methods for directing audio output of a wearable apparatus | |
US11580727B2 (en) | Systems and methods for matching audio and image information | |
US20220311979A1 (en) | Wearable apparatus for projecting information | |
US20220050498A1 (en) | Wearable apparatus and methods for providing transcription and/or summary | |
KR20220129885A (ko) | 촬영 제어 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170517 |