CN115315684A - 用于改变虚拟空间中的视点的方法 - Google Patents
用于改变虚拟空间中的视点的方法 Download PDFInfo
- Publication number
- CN115315684A CN115315684A CN202180024134.5A CN202180024134A CN115315684A CN 115315684 A CN115315684 A CN 115315684A CN 202180024134 A CN202180024134 A CN 202180024134A CN 115315684 A CN115315684 A CN 115315684A
- Authority
- CN
- China
- Prior art keywords
- model
- user
- virtual space
- display
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/002—Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
根据本发明,一种信息处理装置(控制装置)被配置成设置有控制单元,该控制单元在控制涉及视点改变的虚拟空间显示时执行控制,以用于显示虚拟空间的模型使得模型的外观改变成用户期望的任意外观,将虚拟用户视点移动至虚拟空间中的获得与模型的外观相同的外观的位置,并且显示虚拟空间。
Description
技术领域
本技术涉及信息处理装置、信息处理方法和程序。
背景技术
已知用于在控制虚拟空间的显示时增强用户舒适度的技术。例如,以下专利文献1公开了用于减轻伴随用户在虚拟空间中的连续移动而视点改变的期间可能发生的诸如用户的晕动病(所谓的虚拟现实病(VR病))的不适的技术。
引用列表
专利文献
专利文献1:国际申请号2018/216402
发明内容
本发明要解决的问题
同时,作为改变虚拟空间中的视点的方法,存在执行不伴随用户的连续移动的移动(离散移动)的方法。在这种情况下,与伴随着连续移动的视点改变相比,可以减少用户的晕动病,但是难以掌握虚拟空间中的自身状态(例如,位置、取向等)。此外,用户难以预先确认视点改变目的地处的虚拟空间的外观。这样,在传统技术中存在改善用户舒适度的空间。
本技术的目的是提出能够显示用户舒适的图像的信息处理装置、信息处理方法和程序。
问题的解决方案
本技术涉及
一种信息处理装置,包括:
控制单元,其在对伴随视点改变的虚拟空间的显示的控制期间执行控制,以能够改变为用户期望的任何外观的方式显示虚拟空间的模型,并且通过将虚拟用户视点移动到虚拟空间上的获得与模型的外观相同的外观的位置来显示虚拟空间。
本技术涉及
一种信息处理方法,包括
使处理器执行以下操作:
在对伴随视点改变的虚拟空间的显示的控制期间进行控制,以能够改变为用户期望的任何外观可改变的方式显示虚拟空间的模型,并且通过将虚拟用户视点移动到虚拟空间上的获得与模型的外观相同的外观的位置来显示虚拟空间。
本技术涉及一种
程序,使计算机进行以下操作:
在对伴随视点改变的虚拟空间的显示的控制期间实现控制功能,以能够改变为用户期望的任何外观的方式显示虚拟空间的模型,并且通过将虚拟用户视点移动到虚拟空间上的获得与模型的外观相同的外观的位置来显示虚拟空间。
附图说明
图1是示出根据本实施方式的信息处理系统的配置示例的图。
图2是示出控制装置的配置示例的框图。
图3是示出显示装置的配置示例的框图。
图4是示出操作装置的配置示例的框图。
图5是示出显示图像的状态转变的示例的视图。
图6是示出在初始状态下由用户观看的图像示例的视图。
图7是示出缩影显示状态下的图像示例的视图。
图8是示出在视点移动状态下的图像示例的视图。
图9是示出在视点确定状态下的图像示例的视图。
图10是示出在VR空间删除状态下的图像示例的视图。
图11是示出移动目的地VR空间显示状态的图像示例的视图。
图12是示出在缩影删除状态下的图像示例的视图。
图13是示出在缩影重新显示状态下的图像示例的视图。
图14是示出在初始状态下的另一图像示例的视图。
图15是示出在缩影显示状态下的另一图像示例的视图。
图16是示出在视点确定状态下的另一图像示例的视图。
图17是示出在VR空间删除状态下的另一图像示例的视图。
图18是示出移动目的地VR空间显示状态的另一图像示例的视图。
图19是示出在缩影删除状态下的另一图像示例的视图。
图20是示出缩影模型的显示示例的视图。
图21是示出控制单元的显示控制处理的流程的示例的流程图。
图22A是示出虚拟用户视点在局部坐标系中的位置的示例的视图。图22B是示出虚拟用户视点在世界坐标系中的位置的示例的视图。
图23是用于描述删除缩影模型时的瞳孔间距控制的示例的视图。
图24是用于描述通过改变瞳孔间距控制的双目视差的视图。
具体实施方式
下文要描述的实施方式是本技术的优选具体示例,并且给出了各种技术上优选的限制。然而,本技术的范围不限于以下实施方式,除非在以下描述中另外指明。注意,在本说明书和附图中具有基本相同的功能配置的部件将由相同的附图标记表示,并且适当地省略其冗余描述。将按以下顺序描述本技术。
1.实施方式
1-1.信息处理系统的概要
1-2.控制装置的配置
1-3.显示装置的配置
1-4.操作装置的配置
1-5.显示控制处理
2.总结
<1.实施方式>
[1-1.信息处理系统的概要]
首先,将参照图1描述根据本实施方式的信息处理系统的概要。图1是示出根据本实施方式的信息处理系统的配置示例的图。图1所示的信息处理系统1显示要由用户(观察者)U视觉识别的显示图像。通过显示图像提供给用户U的内容的示例包括使用虚拟空间的游戏、直播流、体育广播、导航、教育、旅游信息、购物和其他基于体验的内容。此处,虚拟空间是由控制装置(信息处理装置)10执行的信息处理构建的虚拟三维空间。信息处理系统1包括控制装置10、显示装置20、操作装置30以及通信线路40和50。
控制装置10使用虚拟空间的图像生成用户U的视点(第一人称视点)的显示图像。虚拟空间的图像是虚拟现实(VR)、增强现实(AR)、包括这些的混合现实(MR)等的图像。图像包括静止图像和运动图像(视频)。注意,虚拟空间的图像可以是通过捕获实际场景的图像而获得的图像。即,虚拟空间的图像可以是表示捕获的被摄体的图像,具体地,实际捕获的图像、基于实际捕获的图像生成的计算机图形等。显示图像是在由安装在虚拟空间中的预定位置处的虚拟相机对虚拟空间成像的情况下获得的图像。例如,显示图像是指在虚拟空间中的用户U的视野中看到的图像。具体地,控制装置10设置作为虚拟空间中的用户U的视点的虚拟用户视点,并且生成从虚拟用户视点看到的显示图像。此处,基于从显示装置20发送的姿态检测信息来指定虚拟用户视点。姿态检测信息由包含在显示装置20中的姿态检测单元生成。然后,控制装置10使显示装置20显示所生成的显示图像,由此使显示装置20显示虚拟空间。
显示装置20是所谓的头戴式显示器(HMD),并且佩戴在用户U的眼睛周围。上述显示图像显示在显示装置20上。然后,当用户U通过视点改变操作(例如,移动脸部、执行指示“所谓的翘曲移动(离散移动)”的操作等)改变虚拟用户视点时,相应地改变显示图像。因此,用户U可以像用户U存在于虚拟空间中一样享受虚拟体验。
操作装置30是根据用户U的操作意图对控制装置10中的控制进行操作的装置(例如,游戏控制器等)。具体地,如图1所示,操作装置30通过握持在用户U的手中而被操作。然而,操作装置30不限于此,并且可以是例如穿戴在用户U的身体上并且根据用户U的身体的运动来操作的装置、通过诸如语音的声音来操作的装置、使用触摸面板来操作的装置等。上述控制装置10根据使用操作装置30的用户操作来控制要显示在显示装置20上的显示图像。
通信线路40连接控制装置10和显示装置20,并且能够在它们之间进行信息通信。通信线路50连接控制装置10和操作装置30,并且能够在它们之间进行信息通信。通信线路40和50可以采用任何连接方案,例如有线或无线方案。注意,只要显示装置20和操作装置30中的每一个连接至控制装置10,就可以采用连接的任何组合。例如,连接的组合不限于图1所示的组合,并且操作装置30可以连接至显示装置20,并且操作装置30和控制装置10可以与插入其间的显示装置20连接。此外,例如,控制装置10、显示装置20和操作装置30可以使用诸如局域网(LAN)的网络彼此连接。
此处,信息处理系统1可以被配置成使得控制装置10、显示装置20和操作装置30中的至少两个或更多个被集成。例如,显示装置20可以具有控制装置10的功能。此外,显示装置20不限于头戴式显示器,并且可以是另一类型的显示器。例如,显示装置20可以是固定显示器或移动终端(例如,移动电话、智能电话、智能平板电脑、便携式游戏机等)的显示器。在这种情况下,上述显示装置20的姿态检测单元可以通过例如在这些显示器和移动终端上提供成像装置来实现。
在传统的信息处理系统中,在显示伴随视点改变的虚拟空间的情况下,有时会出现用户不舒适的情形。例如,伴随着用户在虚拟空间中的连续移动的视点改变引起用户的晕动病。因此,上述专利文献1公开了用于减少这种不适的技术。
具体地,首先,在虚拟空间中布置地图图像,并且在地图图像上布置目标点(视点改变位置)图像和角色图像。然后,角色图像被移动到用户正在注视的目标点图像。即,角色图像跟随虚拟用户视点移动。接下来,在角色图像周围的虚拟空间中显示实际场景图像(场景图像),并且以角色图像为中心放大地图图像和角色图像。然后,生成并显示从虚拟用户视点看到的显示图像。因此,实际场景图像显示在眼睛前面。然后,指定与实际场景图像的用户所注视的注视点图像最接近的目标点图像以生成移动视点图像(从从注视点移动到目标点的虚拟用户视点看到的实际场景图像),将所生成的图像显示在布置在虚拟空间中的图像显示帧上,从而执行伴随用户的连续移动的视点改变。此时,在图像显示帧周围的实际场景图像被固定的状态下显示图像,以减轻不舒适的感觉例如用户的晕动病,并且防止在视点改变期间意外移动的感觉。
在该技术中,需要显示移动视点图像,并且难以说执行了具有离散移动的视点改变。此外,难以通过在虚拟空间中的任何地方搜索用户期望的外观的位置来设置视点。因此,在本技术的实施方式中,当控制伴随着视点改变的虚拟空间的显示时,执行控制以按照用户期望的任何外观可改变的方式显示虚拟空间的模型,并且通过将虚拟用户视点移动到虚拟空间上的获得与模型的外观相同的外观的位置来显示虚拟空间。在下文中,将详细描述根据本实施方式的信息处理系统1。
[1-2.控制装置的配置]
图2是示出控制装置10的配置示例的框图。控制装置10包括通信单元11、存储单元12和控制单元13。控制装置10包括作为特定硬件配置的中央处理单元(CPU,即处理器)、随机存取存储器(RAM)、只读存储器(ROM)、硬盘、通信装置等。ROM存储控制装置10处理所需的信息,例如程序等。CPU读取并执行存储在ROM中的程序。注意,程序可以存储在诸如通用串行总线(USB)存储器的外部存储装置中,或者可以经由网络提供,或者由另一信息处理装置经由网络部分地执行。
通信单元11例如包括通信装置等,并且经由通信线路40(参见图1)与显示装置20通信,并且经由通信线路50与操作装置30通信。此外,通信单元11还可以经由网络与另一信息处理装置(未示出)通信,并且可以通过通信获取例如虚拟空间的图像等。
通信单元11将通过上述每个通信获得的信息(例如,从显示装置20给出的姿态检测信息、从操作装置30给出的操作信息和姿态检测信息)输出至控制单元13。此外,通信单元11将从控制单元13给出的信息(例如,显示图像)发送至显示装置20。
存储单元12例如包括ROM、RAM、硬盘等,并且存储控制装置10进行处理所需的信息。例如,存储单元12存储程序、各种图像等。此处,要存储在存储单元12中的图像包括虚拟空间的图像等。
控制单元13包括例如CPU等,并且控制控制装置10的每个部件。此外,控制单元13生成要在显示装置20上显示的显示图像,并且将该显示图像输出至通信单元11。具体地,控制单元13设置作为虚拟空间中的用户的视点的虚拟用户视点,并且生成从虚拟用户视点看到的显示图像。此时,控制单元13生成虚拟空间的模型,并且使所生成的模型被包括在显示图像中并被显示。例如,基于虚拟空间的图像、从操作装置30给出的姿态检测信息等生成模型。
此处,虚拟空间的模型是包括在虚拟空间中并用作视点改变的参考的目标。例如,在虚拟空间是现场地点的情况下,目标的示例包括整个现场地点、舞台部分、特定艺术家等。具体地,该模型相对于虚拟空间的显示尺寸(真实尺寸)被放大或缩小。因此,无论真实尺寸如何,都可以以适当的尺寸显示模型。注意,可以应用同等的放大率。此外,该模型包括由显示图像显示的整个虚拟空间,或者用户从由显示图像显示的虚拟空间中选择该模型。该模型优选地是虚拟空间的副本。因此,能够消除如下所述的根据视点改变切换显示图像的情况下的不舒适的感觉。
[1-3.显示装置的配置]
图3是示出显示装置20的配置示例的框图。显示装置20包括通信单元21、姿态检测单元22、显示单元23和显示控制单元24。显示装置20包括作为特定硬件配置的CPU、RAM、ROM、姿态检测传感器、头戴式显示面板、通信装置等。ROM存储显示装置20进行处理所需的信息,例如程序等。CPU读取并执行存储在ROM中的程序。注意,程序可以存储在诸如通用串行总线(USB)存储器的外部存储装置中,或者可以经由网络提供,或者由另一信息处理装置经由网络部分地执行。
通信单元21例如包括通信装置等,并且经由通信线路40与控制装置10通信。通信单元21向显示控制单元24输出通过上述每个通信获得的信息,例如显示图像。另外,通信单元21将从显示控制单元24给出的信息例如稍后描述的姿态检测信息发送至控制装置10。
姿态检测单元22包括例如姿态检测传感器并且检测显示装置20的姿态。姿态检测传感器可以是例如陀螺仪传感器。姿态检测单元22生成与显示装置20的姿态有关的姿态检测信息,并且将该姿态检测信息输出至显示控制单元24。此处,显示装置20的姿态根据用户U的头部的取向而改变。然后,可以基于用户U的头部的取向粗略地指定用户U的视点。因此,在本实施方式中,姿态检测信息用于指定虚拟用户视点。这样,基于姿态检测单元22的姿态检测信息来指定虚拟用户视点。因此,用户U可以通过改变头部的取向来移动虚拟用户视点。
此处,姿态检测传感器可以是检测用户U的视线的视线检测传感器(即,捕获用户的眼睛附近的图像的成像装置)。在这种情况下,姿态检测传感器可以直接检测用户U的视线。此外,用户U可以通过改变视线来移动虚拟用户视点。
显示单元23包括例如头戴式显示面板,并且在显示控制单元24的控制下显示显示图像等。显示控制单元24包括例如CPU等,并且控制显示装置20的每个部件。此外,显示控制单元24使显示单元23显示从通信单元21提供的显示图像。此外,显示控制单元24将从姿态检测单元22提供的姿态检测信息输出至通信单元21。
[1-4.操作装置的配置]
图4是示出操作装置30的配置示例的框图。操作装置30包括通信单元31、姿态检测单元32、操作单元33和操作控制单元34。作为具体的硬件配置,操作装置30包括CPU、RAM、ROM、姿态检测传感器、操作开关、通信装置等。ROM存储操作装置30进行处理所需的信息,例如程序等。CPU读取并执行存储在ROM中的程序。注意,程序可以存储在诸如通用串行总线(USB)存储器的外部存储装置中,或者可以经由网络提供,或者由另一信息处理装置经由网络部分地执行。
通信单元31例如包括通信装置等,并且经由通信线路50与控制装置10通信。通信单元31将从操作控制单元34给出的信息(例如,姿态检测信息和操作信息)发送至控制装置10。
姿态检测单元32包括例如姿态检测传感器,并且检测操作装置30的姿态。姿态检测传感器可以是例如陀螺仪传感器。姿态检测单元32生成与操作装置30的姿态有关的姿态检测信息,并且将该姿态检测信息输出至操作控制单元34。此处,操作装置30的姿态根据握持操作装置30的用户U的手的运动而改变。因此,在本实施方式中,该姿态检测信息用于移动上述模型。注意,在移动模型时使用的信息可以是当用户U操作操作单元33时生成的操作信息。
操作单元33包括例如诸如操作按钮或操作杆的操作开关,根据用户操作生成操作信息,并且将所生成的操作信息提供给操作控制单元34。操作控制单元34包括例如CPU等,并且控制操作装置30的每个部件。此外,操作控制单元34将从姿态检测单元32给出的信息(例如,姿态检测信息)和从操作单元33给出的信息(例如,操作信息)输出至通信单元31。
注意,信息处理系统1可以包括检测用户U的整个身体的姿态的传感器(例如,成像装置)。然后,控制装置10的控制单元13可以基于从传感器给出的检测信息指定虚拟用户视点。即,在这种情况下,控制单元13以全面的方式使用用户的面部、身体和视线的取向。类似地,控制单元13可以基于从传感器给出的检测信息指定操作装置30的姿态。
[1-5.显示控制处理]
接下来,将描述伴随视点改变的显示图像的状态转变。注意,在以下描述中,将描述虚拟现实空间(VR空间)用作上述虚拟空间的情况作为示例。此外,将描述显示缩影模型的情况作为示例,在该缩影模型中,包括VR空间中的所有显示对象的模型相对于真实尺寸被缩小。
图5是示出显示图像的状态转变的示例的视图。在图5中,“用户”列表示与要由用户视觉识别的显示图像相关的控制定时,“缩影”列表示缩影模型的控制定时,并且“VR空间”列表示VR空间的控制定时。在图5中,状态X表示显示图像正被显示,状态Y表示缩影模型正被显示图像显示,并且状态Z表示VR空间正被显示图像显示。注意,在以下描述中参考的图6至图13是示出由用户U观看的图像示例的视图。
如图6所示,对伴随着视点改变的显示图像的控制从由显示图像显示VR空间S的状态(初始状态A)开始。该初始状态A是用户U处于VR空间S中的状态。在示出的示例中,显示图像显示在显示装置20上,使得可以看到VR空间S,在VR空间S中,室内空间由用户U前面的墙壁和地板围绕,桌子放置在室内空间的中心墙壁附近的地板上,并且坐在桌子上的熊的装饰物面向用户U。
然后,当从初始状态A发出开启缩影显示的指令时,VR空间S的缩影模型M与上述VR空间S一起显示(缩影显示状态B),如图7所示。在示出的示例中,包括图6所示的整个室内空间(VR空间S的显示对象)的缩影模型M与VR空间S一起显示。
注意,优选地显示缩影模型M,以在比VR空间S更靠近用户U的位置处被看到。例如,在缩影模型M的中心位置比VR空间S的中心位置更靠近用户U的位置处显示缩影模型M,因此,可以使得用户U容易地看到缩影模型M。如图中所示,缩影模型M具体地显示在用户U的附近,更具体地,靠近用户U的手。注意,缩影模型M的显示位置不限于这些位置。
然后,用户U从如图8所示的缩影显示状态B移动虚拟用户视点与缩影模型M之间的位置关系(视点移动状态C),并且如图9所示确定用户U期望的任何位置关系。即,确定虚拟用户视点相对于缩影模型M的位置(视点确定状态D)。注意,缩影模型M被配置成与由用户操作的操作装置30的移动一起移动,并且被显示为使得可以搜索用户U期望改变视点的位置(获得期望外观的位置)。例如,显示缩影模型M以便其能够绕诸如其中心部分的预定点在所有方向上旋转。注意,缩影模型M可以绕预定轴而不是预定点旋转。例如,在视点的高度不改变的情况下,例如用户U的水平移动,仅需要缩影模型M能够绕沿垂直方向延伸的轴旋转。此外,显示缩影模型M,使得可以调整距用户U的距离。具体地,用户U通过接近或远离缩影模型M来调整距离。注意,该距离可以通过移动缩影模型M来调整。根据从操作装置30给出到控制装置10的控制单元13的姿态检测信息等,控制缩影模型M的旋转角度和距用户U的距离。注意,用户U可以操作装置30的操作单元33,并且可以基于通过操作获得的操作信息来执行控制。
在图8所示的示例中,图7所示的缩影模型M被移动至用户U从左上侧的位置看到的状态。注意,不是缩影模型M而是用户U可以移动,或者用户U可以在移动缩影模型M的同时移动。
在图9所示的示例中,通过从图8所示的状态看缩影模型M,将虚拟用户视点相对于缩影模型M的位置确定为用户U和缩影模型M彼此接近的位置。例如,可以基于缩影模型M是否注视预定的时间段或更长的时间段来确定虚拟用户视点的位置。注意,用户U可以通过操作装置30的操作单元33来直接给出指令。
具体地,虚拟用户视点相对于缩影模型M的位置由以虚拟空间中的预定位置作为参考点的坐标位置(缩影坐标系视点位置)来表示。然后,响应于缩影坐标系视点位置的确定,确定虚拟用户视点在VR空间中的与视点位置(VR空间坐标系视点位置)相对应的位置。稍后将描述该对应关系的细节。具体地,虚拟用户视点在VR空间中的位置由以虚拟空间中的预定位置作为参考点的坐标位置(VR空间坐标系视点位置)来表示。
接下来,如图10所示,删除VR空间S(VR空间删除状态E)。在所示的示例中,通过以黑色显示除了缩影模型M之外的VR空间S已经显示的部分以执行暗显示,删除VR空间S。注意,VR空间S的删除可以通过使得场景能够平滑切换的任何显示器来执行,并且例如可以通过显示除了黑色之外的颜色(例如白色或灰色)或者通过淡出来执行。
此外,除了删除VR空间S之外,还如图5所示开始显示图像的显示的移动效果。在开始移动效果之后,基于如上所述确定的VR空间S中的视点位置(VR坐标系视点坐标)来执行VR空间S中的虚拟用户视点的移动(VR空间坐标系移动),并且完成移动效果。然后,因此,如图11所示显示虚拟用户视点的移动之后的VR空间S(移动目的地VR空间显示状态F)。在所示示例中,视点移动之后的VR空间S显示在缩影模型M后面。例如,VR空间S的显示可以淡入。因此,可以显示VR空间S而没有不舒适的感觉。
在显示视点移动后的VR空间S之后,删除缩影模型M的显示,如图12所示。即,缩影模型M被隐藏(缩影删除状态G)。注意,为了消除不舒适的感觉,可以通过淡出来删除缩影模型M。对伴随着视点改变的显示图像的控制随着缩影模型M的删除而结束。
在视点改变目的地处再次执行视点改变的情况下,如图13所示,再次显示缩影模型M(缩影显示状态B1)来控制显示图像,这与上述的情况类似。在所示示例中,显示了与图6所示的缩影模型M相同的缩影模型M。注意,也可以显示图12所示的移动后的状态下的缩影模型M。
缩影模型M不限于如参照图6至图13所述的包括预定VR空间S中的所有显示对象的缩影模型,并且可以是如下所述的由用户U从预定的VR空间S中的显示对象中部分选择的缩影模型。注意,除了缩影模型M的显示不同之外,以下描述与上述的情况(参照图6至图13描述的情况)相同,并且可以适当省略其描述。
在这种情况下,对伴随着视点改变的显示图像的控制从显示图像显示VR空间S的状态(初始状态A)开始,如图14所示。在示出的示例中,可以看到类似于图6所示的VR空间S。
然后,当从初始状态A发出开启缩影显示的指令时,从VR空间S的显示对象中选择的缩影模型M与上述VR空间S一起显示(缩影显示状态B),如图15所示。在示出的示例中,显示了由用户U从图14所示的室内空间选择的熊装饰物的缩影模型M。具体地,用户U使用操作装置30从VR空间中的显示对象中选择并确定任何目标,由此显示缩影模型M。注意,选择方法不限于此,并且例如,成像装置可以读取由用户U执行的激光指示器的照射,并且可以选择照射点的目标作为缩影模型M。因此,用户U可以容易地选择目标。注意,激光指示器可以包括在操作装置30中,或者可以单独地设置在信息处理系统1中。
然后,用户U从缩影显示状态B移动虚拟用户视点与缩影模型M之间的位置关系(视点移动状态C),并且如图16所示确定用户U期望的任何位置关系。即,确定虚拟用户视点相对于缩影模型M的位置(视点确定状态D)。
然后,响应于视点位置的确定来确定缩影坐标系视点位置,并且确定与缩影坐标系视点位置相对应的VR空间坐标系视点位置。
接下来,如图17所示,删除VR空间S(具体地,以暗显示)(VR空间删除状态E)。此外,除了删除VR空间S之外,还开始显示图像的显示的移动效果。在开始移动效果之后,基于VR空间坐标系视点位置执行VR空间坐标系移动,并且完成移动效果。然后,因此,如图18所示显示虚拟用户视点的移动之后的VR空间S(移动目的地VR空间显示状态F)。
在显示视点移动后的VR空间S之后,删除缩影模型M的显示,如图19所示。即,缩影模型M被隐藏(缩影删除状态G)。对伴随着视点改变的显示图像的控制随着缩影模型M的删除而结束。
图20是示出缩影模型M的显示示例的视图。在示出的示例中,操作装置30被虚拟地显示,即,对应于操作装置30的用于手动操作的虚拟控制器C被显示以在控制器C上显示缩影模型M。例如,控制器C显示靠近用户U的手的信息。控制控制器C的显示,使得控制装置10的控制单元13使用从操作装置30给出的姿态检测信息与操作装置30一起移动(与操作装置30相同的移动)。由于缩影模型M以这种方式显示在控制器C上,所以用户U可以直观且容易地移动缩影模型M。例如,在这种情况下,通过使缩影模型M绕控制器C的中心部分旋转,缩影模型M可以与操作装置30的移动一起操作,而没有不舒适的感觉。例如,在音乐会图像等的内容中,使用户U从多个人中选择最喜欢的艺术家,并且在虚拟控制器C上显示所选择的艺术家的缩影模型。以这种方式,可以享受从最喜欢的位置和角度观看最喜欢的目标。此外,可以执行更接近最喜欢的目标的观看。注意,可以类似地显示参照图6至图13描述的缩影模型M。
接下来,将详细描述由执行显示图像的控制的控制装置10进行的显示控制处理。图21是示出控制装置10的控制单元13的显示控制处理的流程的示例的流程图。注意,只要在每个处理中不存在问题,可以以改变的顺序执行以下处理。
在该显示控制处理中,首先,响应于用于缩影显示的指令执行控制以显示缩影模型M(步骤S1)。例如,用于缩影显示的指令由用户U使用操作装置30来指示。
接下来,基于从显示装置20提供的姿态检测信息等,确定用户U是否正在观看缩影模型M,并且在确定用户正在观看的情况下,执行使缩影模型M的背景模糊以不显眼的背景处理(步骤S2)。当背景模糊时,可以由用户U聚焦缩影模型M。注意,该背景处理不限于模糊,并且可以通过具有白色填充等的显示来执行,并且可以根据需要适当地执行。
接下来,确定用户是否注视作为视点改变的参考的目标,即缩影模型M(步骤S3)。在步骤S3中确定目标未被注视的情况下(否),重复步骤S3中的处理,直到确定目标被注视。例如,在确定即使在经过预定时间段之后目标仍未被注视的情况下,可以删除缩影模型M以结束处理。
在步骤S3中确定目标正被注视的情况下(是),基于如上所述确定的用户视点在局部坐标系中的位置(缩影坐标系视点位置)来计算用户视点在世界坐标系中的位置(VR空间坐标系视点位置)(步骤S4)。具体地,基于用户视点在局部坐标系中的位置矢量来计算用户视点在世界坐标系中的位置(VR空间坐标系视点位置)。可以通过已知的计算方法获得该VR空间坐标系视点位置。
图22是示出局部坐标系与世界坐标系之间的关系的示例的视图。图22A示出虚拟用户视点在局部坐标系中的位置的示例,并且图22B示出虚拟用户视点在世界坐标系中的位置的示例。控制单元13获得虚拟用户视点在世界坐标系中的位置(坐标),其中虚拟用户视点的外观与当用户U从局部坐标系中的虚拟用户视点注视注视点(缩影模型M的头部)时的外观相同。注意,视线取向与局部坐标系中的取向相同,并且可以由例如从显示装置20给出的姿态检测信息来指定。例如,通过将用户视点在局部坐标系中的位置的坐标转换为用户视点在世界坐标系中的位置来获得虚拟用户视点在世界坐标系中的位置。此时,执行比例转换,使得VR空间S中的缩影模型M和目标V具有与用户U相同的外观。由于以这种方式指定虚拟用户视点的位置和VR空间S中的视线方向,所以可以获得与VR空间S中的缩影模型M的外观相同的外观。
如图21所示,在计算VR空间坐标系视点位置之后,使用例如真实尺寸空间(VR空间)中的虚拟用户视点与注视点之间的距离来计算双目视差的宽度(步骤S5)。注意,双目视差的宽度可以通过已知的计算方法来计算。此处,根据本实施方式的显示装置20使用双目视差执行三维(3D)显示(立体视图图像的显示)。具体地,上述显示单元23独立地向用户U的左眼和右眼给出不同视点的图像,以在显示装置20后面显示立体图像。即,控制装置10生成立体视图图像(左眼图像和右眼图像)作为显示图像,并且控制显示使得所生成的左眼图像和右眼图像分别显示在用户U的左眼和右眼上。生成左眼图像和右眼图像,以使得根据用户U的瞳孔间距距(瞳孔间距:IPD)在显示面板上具有双目视差(左眼图像与右眼图像在面板表面上的对应点之间的距离)。3D显示的方法不限于上述方法,并且可以是例如在显示面板与用户U等之间投影立体图像的方法。注意,稍后将描述通过上述计算获得的双目视差的宽度的具体使用。
接下来,通过在视场外围中带出以注视点为中心的移动效果来删除(具体地,变暗)VR空间S(步骤S6)。即,删除用户U所注视的缩影模型M周围的VR空间S。
在如上所述执行3D显示的情况下,当到显示对象的距离短时强烈地感觉到立体效果,而当到显示对象的距离长时立体效果减弱。即,远显示对象看起来比近显示对象更平坦。因此,当如上所述删除缩影模型M时,如果突然执行删除以切换到VR空间S的真实尺寸,则由于立体效果的突然改变而生成不舒适的感觉。因此,在本实施方式中,在删除缩影模型M以显示从中删除缩影模型M的VR空间之前,逐渐使缩影模型M的立体效果与删除缩影模型M之后的VR空间S(目标V)的立体效果相同,而不是在删除缩影模型M时突然执行删除来切换显示以显示从中删除缩影模型M的VR空间。具体地,通过逐渐改变上述显示图像的双目视差来调整立体效果。即,逐渐改变显示面板上的双目视差以逐渐使立体效果与观看VR空间S时的立体效果相同。具体地,可以通过改变瞳孔间距来改变显示面板上的双目视差。例如,可以通过在生成显示图像时调整虚拟相机之间的距离来控制瞳孔间距。即,可以通过软件调整左眼虚拟相机与右眼虚拟相机之间的距离来改变瞳孔间距。
因此,如图21所示,在步骤S6中删除VR空间S之后,逐渐改变瞳孔间距,直到双目视差变得与真实尺寸空间(VR空间)中的双目视差相同(步骤S7)。即,双目视差的宽度逐渐改变为与通过上述计算获得的双目视差的宽度相同。然后,更新当前VR空间S的当前视点位置(显示虚拟用户视点移动后的VR空间)(步骤S8),并且最终删除缩影模型M(步骤S9)以结束处理。
图23是用于描述删除缩影模型M时瞳孔间距控制的示例的视图。图23的左侧(上游侧)示出了用户U正在观看缩影模型M的状态,并且图23的右侧(下游侧)示出了在删除缩影模型M之后用户U正在观看VR空间中的目标V的状态。根据用户U的双眼的位置预先设置正常状态下的瞳孔间距IPD。然后,在用户正在观看缩影模型M、虚拟空间中的目标V等的情况下,基于该设置生成左眼图像和右眼图像作为显示图像。具体地,左眼图像和右眼图像分别由与用户U的眼睛位置L和R相对应的两个虚拟相机(左眼虚拟相机和右眼虚拟相机)生成。然后,在左眼显示面板上显示所生成的左眼图像,并且在右眼显示面板上显示右眼图像。因此,用户可以感知立体图像。
如上所述,当删除缩影模型M以显示从中删除缩影模型M的VR空间时,如果执行从图23中左侧的状态到右侧的状态的突然切换,则生成不舒适的感觉。因此,在删除缩影模型M之前,调整(逐渐变窄)瞳孔间距IPD以获得与在如图23的中央部分(中游部分)所示的在VR空间中观看目标V的情况下的立体效果相同的立体效果。图24是用于描述通过改变瞳孔间距IPD控制的双目视差的视图。注意,在图24中以交叠的方式显示左眼图像和右眼图像。例如,假设如上部所示当观看缩影模型M时的双目视差是P1,并且如下部所示当观看VR空间中的目标V时的双目视差是P2。双目视差P1是左眼图像的缩影模型M(左眼)与右眼图像的缩影模型M(右眼)之间的距离,并且双目视差P2是左眼图像的目标V(左眼)与右眼图像的目标V(右眼)之间的距离。
在这种情况下,在缩影模型M被删除之前,改变瞳孔间距IPD,直到双目视差P1逐渐变为P2。例如,在示出的示例的情况下,立体效果逐渐减弱。此时,优选设定不产生不舒适感觉的模式和改变时间(例如,以用户U不注意的程度)。因此,当缩影模型M已经被删除时,可以减少由在VR空间S中到目标V的距离的意义上的突然改变引起的不舒适的感觉。因此,根据本实施方式,立体效果逐渐改变(在示出的示例中减弱)的事实是唯一的外观差异(图像改变),使得自然视点改变成为可能。
如上所述,在控制单元13的控制下,用户U无缝地(在观看缩影模型M时)移动到获得与从缩影模型M看到的视点的外观相同的外观的位置。由于通过用缩影模型M确认外观来无缝地改变视点,所以在掌握VR空间中的自身位置的同时改变视点(不需要连续移动)。因此,可以显着地减轻诸如用户的晕动病的不适。即,当缩影模型M被删除时,与被观看的缩影模型M相同的内容被显示为被观看,并且因此,不会引起VR晕动病并且不会引起混乱。
<2.总结>
如上所述,在对伴随着视点改变的VR空间S的显示的控制期间,控制单元13执行控制,以便以用户U期望的可改变为任何外观的方式显示VR空间S的缩影模型M,并且通过将虚拟用户视点移动到VR空间S上的获得与缩影模型M的外观相同的外观的位置来显示VR空间S。
因此,用户U可以从任何位置观看缩影模型M,并且自由地选择虚拟用户视点的位置。由于外观与缩影模型M的外观相同,所以即使虚拟用户视点的位置不连续(视点不连续地改变),也可以连续地确认外观。此外,在不伴随连续移动并且不识别不连续性的情况下,可以移动到期望的视点位置。即,可以在真实尺寸空间中掌握自身位置的同时在不伴随连续移动的情况下移动视点。
尽管上面已经具体描述了本技术的实施方式,但是本技术不限于上述实施方式,并且基于本技术的技术思想的各种修改是可能的。例如,如下所述的各种修改是可能的。此外,还可以适当地组合要在下面描述的修改的一个或多个任意选择的模式。此外,在不脱离本技术的要旨的情况下,上述实施方式的配置、方法、步骤、形状、材料、数值等可以彼此组合。
在上述实施方式中,显示图像已经被描述为立体视图图像(3D图像),但是可以是2D图像。
尽管在上述实施方式中已经将通过缩小目标V而获得的缩影模型示例为VR空间的模型,但是可以通过对目标V进行同等放大或扩大来获得该模型。
尽管在上述实施方式中已经将目标V的副本例示为VR空间的模型,但是VR空间的模型可以是比目标V更清楚的模型,可以是通过简化目标V或使目标V变形而获得的模型等。
注意,本技术还可以具有以下配置。
(1)
一种信息处理装置,包括
控制单元,其在对伴随视点改变的虚拟空间的显示的控制期间执行控制,以能够改变为用户期望的任何外观的方式显示所述虚拟空间的模型,并且通过将虚拟用户视点移动到所述虚拟空间上的获得与所述模型的外观相同的外观的位置来显示所述虚拟空间。
(2)
根据(1)所述的信息处理装置,其中,
所述控制单元根据移动后的虚拟用户视点显示所述虚拟空间,并且然后删除所述模型以显示从其删除所述模型的所述虚拟空间。
(3)
根据(2)所述的信息处理装置,其中,
在删除所述模型以显示从其删除所述模型的所述虚拟空间之前,所述控制单元逐渐将所述模型的立体效果设置为与删除所述模型之后的所述虚拟空间的立体效果相同。
(4)
根据(3)所述的信息处理装置,其中,
所述控制单元通过逐渐改变显示图像的双目视差来调整所述立体效果。
(5)
根据(4)所述的信息处理装置,其中,
通过改变生成所述显示图像时的虚拟相机之间的瞳孔间距来改变所述双目视差。
(6)
根据(1)至(5)中任一项所述的信息处理装置,其中,
所述控制单元将所述模型显示为在比所述虚拟空间更靠近所述用户的位置处被看到。
(7)
根据(1)至(6)中任一项所述的信息处理装置,其中,
所述模型相对于所述虚拟空间的显示尺寸被放大或缩小。
(8)
根据(1)至(7)中任一项所述的信息处理装置,其中,
所述模型是所述虚拟空间的副本。
(9)
根据(1)至(8)中任一项所述的信息处理装置,其中,
所述模型包括由显示图像显示的整个虚拟空间。
(10)
根据(1)至(9)中任一项所述的信息处理装置,其中,
用户从由显示图像显示的虚拟空间中选择所述模型。
(11)
根据(1)至(10)中任一项所述的信息处理装置,其中,
所述控制单元显示所述模型为移动至任何外观的位置。
(12)
根据(11)所述的信息处理装置,其中,
所述模型与由用户操作的操作装置的移动一起移动。
(13)
根据(1)至(12)中任一项所述的信息处理装置,其中,
所述控制单元虚拟地显示要由用户操作的操作装置,并且在虚拟显示的操作装置上的位置处显示所述模型。
(14)
根据(1)至(13)中任一项所述的信息处理装置,其中,
当用户观看所述模型时,所述控制单元将所述模型的背景显示为不显眼。
(15)
根据(1)至(14)中任一项所述的信息处理装置,其中,
所述控制单元在以暗色显示所述模型以外的部分之后,根据移动后的虚拟用户视点显示所述虚拟空间。
(16)
一种信息处理方法,包括
使处理器
在对伴随视点改变的虚拟空间的显示的控制期间执行控制,以能够改变为用户期望的任何外观的方式显示所述虚拟空间的模型,并且通过将虚拟用户视点移动到所述虚拟空间上的获得与所述模型的外观相同的外观的位置来显示所述虚拟空间。
(17)
一种程序,使计算机:
在对伴随视点改变的虚拟空间的显示的控制期间实现控制功能,所述控制功能被配置成:能够改变为用户期望的任何外观的方式显示所述虚拟空间的模型,并且通过将虚拟用户视点移动到所述虚拟空间上的获得与所述模型的外观相同的外观的位置来显示所述虚拟空间。
附图标记列表
1 信息处理系统
10 控制装置
20 显示装置
30 操作装置
13 控制单元
C 控制器
M 缩影模型
S VR空间
P1,P2 双目视差
IPD 瞳孔间距
Claims (17)
1.一种信息处理装置,包括
控制单元,其在对伴随视点改变的虚拟空间的显示的控制期间执行控制,以能够改变为用户期望的任何外观的方式显示所述虚拟空间的模型,并且通过将虚拟用户视点移动到所述虚拟空间上的获得与所述模型的外观相同的外观的位置来显示所述虚拟空间。
2.根据权利要求1所述的信息处理装置,其中,
所述控制单元根据移动后的虚拟用户视点显示所述虚拟空间,并且然后删除所述模型以显示从其删除所述模型的所述虚拟空间。
3.根据权利要求2所述的信息处理装置,其中,
在删除所述模型以显示从其删除所述模型的所述虚拟空间之前,所述控制单元逐渐将所述模型的立体效果设置为与删除所述模型之后的所述虚拟空间的立体效果相同。
4.根据权利要求3所述的信息处理装置,其中,
所述控制单元通过逐渐改变显示图像的双目视差来调整所述立体效果。
5.根据权利要求4所述的信息处理装置,其中,
通过改变生成所述显示图像时的虚拟相机之间的瞳孔间距来改变所述双目视差。
6.根据权利要求1所述的信息处理装置,其中,
所述控制单元将所述模型显示为在比所述虚拟空间更靠近所述用户的位置处被看到。
7.根据权利要求1所述的信息处理装置,其中,
所述模型相对于所述虚拟空间的显示尺寸被放大或缩小。
8.根据权利要求1所述的信息处理装置,其中,
所述模型是所述虚拟空间的副本。
9.根据权利要求1所述的信息处理装置,其中,
所述模型包括由显示图像显示的整个虚拟空间。
10.根据权利要求1所述的信息处理装置,其中,
用户从由显示图像显示的虚拟空间中选择所述模型。
11.根据权利要求1所述的信息处理装置,其中,
所述控制单元显示所述模型为移动至任何外观的位置。
12.根据权利要求11所述的信息处理装置,其中,
所述模型与由用户操作的操作装置的移动一起移动。
13.根据权利要求1所述的信息处理装置,其中,
所述控制单元虚拟地显示要由用户操作的操作装置,并且在虚拟显示的操作装置上的位置处显示所述模型。
14.根据权利要求1所述的信息处理装置,其中,
当用户观看所述模型时,所述控制单元将所述模型的背景显示为不显眼。
15.根据权利要求1所述的信息处理装置,其中,
所述控制单元在以暗色显示所述模型以外的部分之后,根据移动后的虚拟用户视点显示所述虚拟空间。
16.一种信息处理方法,包括
使处理器
在对伴随视点改变的虚拟空间的显示的控制期间执行控制,以能够改变为用户期望的任何外观的方式显示所述虚拟空间的模型,并且通过将虚拟用户视点移动到所述虚拟空间上的获得与所述模型的外观相同的外观的位置来显示所述虚拟空间。
17.一种程序,使计算机:
在对伴随视点改变的虚拟空间的显示的控制期间实现控制功能,所述控制功能被配置成:以能够改变为用户期望的任何外观的方式显示所述虚拟空间的模型,并且通过将虚拟用户视点移动到所述虚拟空间上的获得与所述模型的外观相同的外观的位置来显示所述虚拟空间。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020060165 | 2020-03-30 | ||
JP2020-060165 | 2020-03-30 | ||
PCT/JP2021/012319 WO2021200494A1 (ja) | 2020-03-30 | 2021-03-24 | 仮想空間における視点変更方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115315684A true CN115315684A (zh) | 2022-11-08 |
Family
ID=77928363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180024134.5A Pending CN115315684A (zh) | 2020-03-30 | 2021-03-24 | 用于改变虚拟空间中的视点的方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US12079923B2 (zh) |
CN (1) | CN115315684A (zh) |
DE (1) | DE112021002093T5 (zh) |
WO (1) | WO2021200494A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12033269B2 (en) | 2021-07-12 | 2024-07-09 | Toyota Jidosha Kabushiki Kaisha | Virtual reality simulator and virtual reality simulation program |
JP2023011262A (ja) * | 2021-07-12 | 2023-01-24 | トヨタ自動車株式会社 | 仮想現実シミュレータ及び仮想現実シミュレーションプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015122108A1 (ja) * | 2014-02-17 | 2015-08-20 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN107615217B (zh) * | 2015-06-12 | 2020-07-17 | 索尼互动娱乐股份有限公司 | 信息处理装置、信息处理方法和计算机可读存储介质 |
CN108027700B (zh) * | 2015-09-25 | 2021-10-08 | 索尼互动娱乐股份有限公司 | 信息处理装置 |
JP6597235B2 (ja) * | 2015-11-30 | 2019-10-30 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP6518578B2 (ja) * | 2015-12-02 | 2019-05-22 | 株式会社ソニー・インタラクティブエンタテインメント | 表示制御装置及び表示制御方法 |
JP2017182130A (ja) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7159057B2 (ja) * | 2017-02-10 | 2022-10-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 自由視点映像生成方法及び自由視点映像生成システム |
JP6684746B2 (ja) * | 2017-05-12 | 2020-04-22 | 株式会社コロプラ | 情報処理方法、コンピュータ及びプログラム |
CN110651304B (zh) | 2017-05-23 | 2024-05-24 | 索尼公司 | 信息处理装置、信息处理方法以及程序 |
JP2019040555A (ja) * | 2017-08-29 | 2019-03-14 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10341537B2 (en) * | 2017-09-29 | 2019-07-02 | Sony Interactive Entertainment America Llc | Spectator view into an interactive gaming world showcased in a live event held in a real-world venue |
JP2019149122A (ja) * | 2018-02-28 | 2019-09-05 | ソニー株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
JP2019152980A (ja) * | 2018-03-01 | 2019-09-12 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7355006B2 (ja) * | 2018-03-30 | 2023-10-03 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、および記録媒体 |
JP7349256B2 (ja) * | 2019-04-23 | 2023-09-22 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置および情報提示方法 |
-
2021
- 2021-03-24 US US17/906,525 patent/US12079923B2/en active Active
- 2021-03-24 DE DE112021002093.5T patent/DE112021002093T5/de active Pending
- 2021-03-24 WO PCT/JP2021/012319 patent/WO2021200494A1/ja active Application Filing
- 2021-03-24 CN CN202180024134.5A patent/CN115315684A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2021200494A1 (ja) | 2021-10-07 |
US20230118515A1 (en) | 2023-04-20 |
DE112021002093T5 (de) | 2023-02-09 |
US12079923B2 (en) | 2024-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11120775B2 (en) | Compositing an image for display | |
US11030771B2 (en) | Information processing apparatus and image generating method | |
US10627628B2 (en) | Information processing apparatus and image generating method | |
US12075157B2 (en) | Image display apparatus having a plurality of display modes | |
JP6097377B1 (ja) | 画像表示方法及びプログラム | |
US20230118515A1 (en) | Method for changing viewpoint in virtual space | |
CN112616048B (zh) | Ar眼镜及其显示方法和系统、图像处理方法及设备 | |
WO2018216402A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6687751B2 (ja) | 画像表示システム、画像表示装置、その制御方法、及びプログラム | |
JP6963399B2 (ja) | プログラム、記録媒体、画像生成装置、画像生成方法 | |
CN114787874A (zh) | 信息处理装置、信息处理方法和记录介质 | |
US11187895B2 (en) | Content generation apparatus and method | |
US20240036327A1 (en) | Head-mounted display and image displaying method | |
CN111345037B (zh) | 虚拟现实影像提供方法及利用其的程序 | |
WO2019235106A1 (ja) | ヒートマップ提示装置およびヒートマップ提示用プログラム | |
JP2017097918A (ja) | 画像表示方法及びプログラム | |
EP3516480B1 (en) | Compositing an image for display | |
WO2023026519A1 (ja) | 情報処理装置、情報処理端末、情報処理方法、および記憶媒体 | |
CN118511146A (zh) | 信息处理设备和地板高度调整方法 | |
JP2023003765A (ja) | 画像生成装置およびその制御方法、画像生成システム、ならびにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |