JP2021177580A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2021177580A
JP2021177580A JP2018134800A JP2018134800A JP2021177580A JP 2021177580 A JP2021177580 A JP 2021177580A JP 2018134800 A JP2018134800 A JP 2018134800A JP 2018134800 A JP2018134800 A JP 2018134800A JP 2021177580 A JP2021177580 A JP 2021177580A
Authority
JP
Japan
Prior art keywords
stereoscopic image
information processing
image
user
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018134800A
Other languages
Japanese (ja)
Inventor
毅 石川
Takeshi Ishikawa
孝悌 清水
Kotei Shimizu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018134800A priority Critical patent/JP2021177580A/en
Priority to PCT/JP2019/027566 priority patent/WO2020017435A1/en
Publication of JP2021177580A publication Critical patent/JP2021177580A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

To provide an information processing device, an information processing method and a program, each of which enables a two-dimensional image to be seen as a three-dimensional image in a pseudo manner in a three-dimensional space.SOLUTION: An information processing apparatus is provided, comprising a control unit performing display control for arranging a two-dimensional image obtained by photographing a real object as a stereoscopic image in a three-dimensional space, and display control for maintaining a state where a straight line connecting a prescribed axis on the stereoscopic image and a user viewpoint is substantially perpendicular to the stereoscopic image, with the prescribed axis on the stereoscopic image as a reference.SELECTED DRAWING: Figure 1

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to information processing devices, information processing methods, and programs.

近年普及しているVR(Virtual Reality)アプリケーションでは、3Dモデルが配置された仮想空間内を、ユーザが任意の視点から視聴することができる。このようなVRの世界は、主にユーザの視界を表示部で覆う非透過型のHMD(Head Mounted Display)を用いて提供され得る。 In a VR (Virtual Reality) application that has become widespread in recent years, a user can view a virtual space in which a 3D model is arranged from an arbitrary viewpoint. Such a VR world can be provided mainly by using a non-transparent HMD (Head Mounted Display) that covers the user's field of view with a display unit.

仮想空間内へのユーザ動作の反映は、例えば実世界を撮影した撮影画像から実世界に係る情報を取得して行われる。具体的には、ユーザの体やマーカーをカメラで撮影し、その像の領域を検出してユーザの動き等の操作入力情報を取得し、仮想空間へ反映する手法が一例として用いられる。 The reflection of the user's operation in the virtual space is performed, for example, by acquiring information related to the real world from a photographed image of the real world. Specifically, a method is used as an example in which a user's body or marker is photographed with a camera, an area of the image is detected, operation input information such as a user's movement is acquired, and the information is reflected in a virtual space.

このような実世界に係る情報の取得はより正確に行われることが望ましく、例えば下記特許文献1では、実世界を撮影した映像を、メインデータの他に補助データとしてユーザに提示し、情報処理装置側で実空間についてどのような認識を行っているかをユーザに示し、不具合に係る気づきを与える技術が開示されている。 It is desirable that such information related to the real world be acquired more accurately. For example, in Patent Document 1 below, an image of the real world is presented to the user as auxiliary data in addition to the main data, and information processing is performed. A technique for showing the user what kind of recognition the real space is performed on the device side and giving awareness of the defect is disclosed.

特開2016−140017号公報Japanese Unexamined Patent Publication No. 2016-140017

ここで、視聴対象に、よりリアルな実世界の人物等の3Dモデルを用いることも想定される。しかしながら、実写映像から人物等を3Dモデル化するには、非常に多くのカメラが設置された特殊な撮影スタジオにて撮影する必要があった。また、そのようにして生成した3Dモデルの映像品質は、テレビなどで通常視聴する人物等の映像品質と比較すると大きく劣化した映像となってしまう。 Here, it is assumed that a 3D model of a more realistic real-world person or the like is used as the viewing target. However, in order to make a person or the like into a 3D model from a live-action image, it was necessary to shoot in a special shooting studio equipped with a large number of cameras. Further, the image quality of the 3D model generated in this way is significantly deteriorated as compared with the image quality of a person or the like who normally watches on a television or the like.

そこで、本開示では、三次元空間において二次元画像を疑似的に三次元画像に見せることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。 Therefore, the present disclosure proposes an information processing device, an information processing method, and a program capable of making a two-dimensional image appear as a pseudo three-dimensional image in a three-dimensional space.

本開示によれば、実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、を行う制御部を備える、情報処理装置を提案する。 According to the present disclosure, display control for arranging a two-dimensional image obtained by photographing a real object as a stereoscopic image in a three-dimensional space and a predetermined axis on the stereoscopic image are used as a reference. We propose an information processing apparatus including a control unit that maintains a state in which a straight line connecting an axis and a user's viewpoint is substantially perpendicular to the stereoscopic image.

本開示によれば、プロセッサが、実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、を行うことを含む、情報処理方法を提案する。 According to the present disclosure, the processor arranges a two-dimensional image obtained by photographing a real object as a stereoscopic image in a three-dimensional space, and a predetermined axis on the stereoscopic image is used as a reference. We propose an information processing method including performing display control for maintaining a state in which a straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the stereoscopic image.

本開示によれば、コンピュータを、実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、を行う制御部として機能させるための、プログラムを提案する。 According to the present disclosure, with reference to display control in which a computer arranges a two-dimensional image obtained by photographing a real object in a three-dimensional space as a stereoscopic image, and a predetermined axis on the stereoscopic image as a reference. We propose a program for functioning as a control unit that performs display control for maintaining a state in which a straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the stereoscopic image.

以上説明したように本開示によれば、三次元空間において二次元画像を疑似的に三次元画像に見せることが可能となる。 As described above, according to the present disclosure, it is possible to make a two-dimensional image appear as a pseudo three-dimensional image in a three-dimensional space.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 It should be noted that the above effects are not necessarily limited, and together with or in place of the above effects, any of the effects shown herein, or any other effect that can be grasped from this specification. May be played.

本開示の一実施形態による情報処理システムの概要について説明する図である。It is a figure explaining the outline of the information processing system by one Embodiment of this disclosure. 本実施形態による仮想空間内におけるユーザ視点の移動を示す図である。It is a figure which shows the movement of the user viewpoint in the virtual space by this embodiment. ステレオ映像による立体視画像を斜めから見た場合に生じる歪みについて説明する図である。It is a figure explaining the distortion which occurs when the stereoscopic image by a stereo image is viewed from an angle. 本実施形態による情報処理システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the information processing system by this embodiment. 本実施形態による情報処理端末の構成の一例を示すブロック図である。It is a block diagram which shows an example of the structure of the information processing terminal by this embodiment. 本実施形態の第1の実施例による立体視画像の回転制御について説明する図である。It is a figure explaining the rotation control of a stereoscopic image by 1st Example of this Embodiment. 本実施形態の第1の実施例による立体視画像を回転制御した際の見え方の一例を示す図である。It is a figure which shows an example of the appearance when the stereoscopic image by the 1st Example of this Embodiment is rotation-controlled. 仮想空間内ユーザ視点に常に正対させるよう制御した際に立体視画像が不自然な姿勢になる場合について説明する図である。It is a figure explaining the case where the stereoscopic image becomes an unnatural posture when it is controlled so that it always faces the user's viewpoint in virtual space. 本実施形態の第1の実施例による立体視画像の回転軸の定義について説明する図である。It is a figure explaining the definition of the rotation axis of the stereoscopic image by 1st Example of this Embodiment. 本実施形態の第1の実施例による制約されている方向から視聴した場合に表示される警告の一例を示す図である。It is a figure which shows an example of the warning which is displayed when viewing from the direction restricted by the 1st Embodiment of this embodiment. 本実施形態の第2の実施例による立体視画像と3Dモデルについて説明する図である。It is a figure explaining the stereoscopic image and 3D model by 2nd Example of this Embodiment. 本実施形態の第2の実施例による立体視画像に対する3Dモデルの装飾表示の一例を示す図である。It is a figure which shows an example of the decorative display of the 3D model with respect to the stereoscopic image by the 2nd Example of this Embodiment. 仮想空間内ユーザ視点が移動した場合の立体視画像の歪みおよび3Dモデルの装飾位置のずれについて説明する図である。It is a figure explaining the distortion of the stereoscopic image and the deviation of the decoration position of a 3D model when the user viewpoint in virtual space moves. 仮想空間内ユーザ視点の移動に応じて立体視画像のみを回転制御した場合における3Dモデルの装飾位置のずれについて説明する図である。It is a figure explaining the deviation of the decoration position of a 3D model in the case where only the stereoscopic image is rotated and controlled according to the movement of the user's viewpoint in the virtual space. 本実施形態の第2の実施例による仮想空間内ユーザ視点の移動に応じた立体視画像および3Dモデルの回転制御について説明する図である。It is a figure explaining the rotation control of the stereoscopic image and the 3D model according to the movement of the user's viewpoint in virtual space by the 2nd Embodiment of this Embodiment. 本実施形態の第2の実施例による装飾した3Dモデルの立体視画像に連動した動きについて説明する図である。It is a figure explaining the movement interlocked with the stereoscopic image of the decorated 3D model by the 2nd Example of this Embodiment. 本実施形態による動作処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of operation processing by this Embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.情報処理端末の構成
3.立体視表示制御例
3−1.第1の実施例
(3−1−1.回転制御)
(3−1−2.回転制約)
(3−1−3.警告)
3−2.第2の実施例
4.動作処理
5.その他
6.まとめ
In addition, the explanation shall be given in the following order.
1. 1. Outline of the information processing system according to the embodiment of the present disclosure 2. Configuration of information processing terminal 3. Stereoscopic display control example 3-1. First Example (3-1-1. Rotation Control)
(3-1-2. Rotation constraint)
(3-1-3. Warning)
3-2. Second Example 4. Operation processing 5. Others 6. summary

<<1.本開示の一実施形態による情報処理システムの概要>>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システムは、例えばユーザの頭部に装着され、ユーザの視界を表示部140で覆う非透過型のHMD等の表示装置により実現される情報処理端末10により、仮想空間の画像をユーザに提示する。HMDを頭部に装着した際に外界を遮る構成にすることで、視聴時の仮想現実感を増すことができる。
<< 1. Outline of information processing system according to one embodiment of the present disclosure >>
FIG. 1 is a diagram illustrating an outline of an information processing system according to an embodiment of the present disclosure. As shown in FIG. 1, the information processing system according to the present embodiment is an information processing terminal realized by a display device such as a non-transmissive HMD that is attached to the user's head and covers the user's field of view with a display unit 140, for example. 10. Presents an image of the virtual space to the user. By configuring the HMD to block the outside world when it is attached to the head, it is possible to increase the virtual reality during viewing.

また、仮想空間内には、例えば、生成された三次元画像(いわゆる3Dモデル)である仮想オブジェクト50a、50bが背景として定位されている(定位仮想オブジェクト)。かかる仮想オブジェクト50a、50bは、仮想空間内で奥行き情報を含めた形状データを有し、任意の視点から視聴しても形状が破綻せずに表示され得る。すなわち、仮想空間に定位された仮想オブジェクト50a、50bは、ユーザの視点や姿勢の変化に対してその運動視差を変化させる。 Further, in the virtual space, for example, virtual objects 50a and 50b which are generated three-dimensional images (so-called 3D models) are localized as a background (localization virtual object). The virtual objects 50a and 50b have shape data including depth information in the virtual space, and can be displayed without breaking the shape even when viewed from an arbitrary viewpoint. That is, the virtual objects 50a and 50b localized in the virtual space change their motion parallax in response to changes in the user's viewpoint and posture.

さらに、本開示による情報処理システムでは、仮想空間内に、実空間の人物等(実オブジェクト)を撮像して得た情報に基づいて立体視画像40を配置する。 Further, in the information processing system according to the present disclosure, the stereoscopic image 40 is arranged in the virtual space based on the information obtained by imaging a person or the like (real object) in the real space.

(背景)
ここで、視聴対象に、よりリアルな実世界の人物等の3Dモデルを用いる場合、実写映像から人物等を3Dモデル化するには、非常に多くのカメラが設置された特殊な撮影スタジオにて撮影する必要がある。また、そのようにして生成した3Dモデルの映像品質は、通常テレビなどで視聴している人物等の映像品質と比較すると大きく劣化した映像となってしまうことがあった。
(background)
Here, when a more realistic 3D model of a person in the real world is used as the viewing target, in order to make the person etc. into a 3D model from the live-action video, in a special shooting studio where a large number of cameras are installed. I need to shoot. In addition, the image quality of the 3D model generated in this way may be significantly deteriorated as compared with the image quality of a person or the like who is normally viewing on a television or the like.

なお、立体視技術として、ステレオ映像技術が知られている。ステレオ映像はステレオカメラにより撮影された2枚の2D映像(左視点画像および右視点画像)から構成され、左視点画像を左目だけに見せ、右視点画像を右目だけに見せることで、ステレオ映像(2D映像)を立体視させることが可能となる。したがって、仮想空間内に、実オブジェクト(例えば人物)を撮影して得たステレオ映像を立体視映像として配置することで、実写映像から3Dモデル化せずに、映像品質を落としたり撮影のコストを掛けたりすることなく、実世界の人物等を仮想空間内で立体視させることが可能となる。 As a stereoscopic vision technique, a stereo image technique is known. A stereo image is composed of two 2D images (left viewpoint image and right viewpoint image) taken by a stereo camera. By showing the left viewpoint image only to the left eye and the right viewpoint image only to the right eye, the stereo image (stereo image) 2D images) can be viewed stereoscopically. Therefore, by arranging the stereo image obtained by shooting a real object (for example, a person) as a stereoscopic image in the virtual space, the image quality can be lowered and the cost of shooting can be reduced without making a 3D model from the live-action image. It is possible to stereoscopically view a person in the real world in a virtual space without hanging it.

しかしながら、仮想空間を特定の視点(正面)からしか視聴しない場合には、ステレオ映像により提示される立体視映像が破綻することはないが、図2に示すように、仮想空間内でユーザが視点を左右に移動させ、立体視画像40を斜めから見た場合、図3に示すように、正面から見た場合は違和感の無い立体視画像40が(図3左参照)、斜めから見ると二次元画像である立体視画像40に歪みが生じてしまう(図3右参照)。 However, when the virtual space is viewed only from a specific viewpoint (front), the stereoscopic image presented by the stereo image does not collapse, but as shown in FIG. 2, the user can view the viewpoint in the virtual space. When the stereoscopic image 40 is viewed from an angle, as shown in FIG. 3, the stereoscopic image 40 does not look strange when viewed from the front (see the left in FIG. 3), and when viewed from an angle, The stereoscopic image 40, which is a dimensional image, is distorted (see the right side of FIG. 3).

そこで、本開示による情報処理システムでは、立体視画像をユーザ視点に対して正対させる状態を維持することで、三次元空間において二次元画像を疑似的に三次元画像に見せることを可能とする。具体的には、本開示による情報処理システムは、立体視画像を通る所定の軸を基準として、当該所定の軸とユーザの視点とを結ぶ直線が、当該立体視画像の面に対して略垂直となるよう立体視画像の向きを回転させることで、ユーザ視点に対して正対させることが可能となる。 Therefore, in the information processing system according to the present disclosure, it is possible to make a two-dimensional image appear as a pseudo three-dimensional image in a three-dimensional space by maintaining a state in which the stereoscopic image faces the user's viewpoint. .. Specifically, in the information processing system according to the present disclosure, a straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the surface of the stereoscopic image with reference to a predetermined axis passing through the stereoscopic image. By rotating the orientation of the stereoscopic image so as to be, it is possible to face the user's viewpoint.

仮想空間内には、背景等、空間定位された3Dモデル(定位仮想オブジェクト)が存在し、ユーザの視点や姿勢の変化に対してその運動視差を変化させるため(定位仮想オブジェクトの表示座標は変化しない)、このような3Dモデルと、立体視画像とを同時に視認するユーザは、視点を変化させた際、立体視画像がユーザ視点に対して正対するよう回転制御されても、当該立体視画像を二次元画像と認識し難く、三次元画像と錯覚し易くなる。 In the virtual space, there is a spatially localized 3D model (localized virtual object) such as a background, and the motion parallax is changed in response to a change in the user's viewpoint or posture (the display coordinates of the localized virtual object change). The user who simultaneously visually recognizes such a 3D model and the stereoscopic image does not, even if the stereoscopic image is rotationally controlled so as to face the user's viewpoint when the viewpoint is changed. Is difficult to recognize as a two-dimensional image, and it is easy to mistake it as a three-dimensional image.

このように、本開示による情報処理システムでは、実写映像から3Dモデル化を行うことなく、撮影時のコストを掛けずに簡易的な装置・設備・手法で生成された二次元画像(具体的にはステレオ映像)を用いて、映像品質を落とさずに、リアルな実世界の人物等を三次元空間内で提示することが可能となる。 As described above, in the information processing system according to the present disclosure, a two-dimensional image (specifically,) generated by a simple device / equipment / method without performing 3D modeling from a live image and without incurring a cost at the time of shooting. Is a stereo image), it is possible to present a real-world person or the like in a three-dimensional space without degrading the image quality.

また、立体視画像をユーザ視線に対して正対させる状態を維持することで、ユーザ視点が移動した場合にも立体視画像の歪みを生じさせずに、二次元画像である立体視画像を疑似的に三次元画像に見せることが可能となる。すなわち、仮想空間内での映像体験において、ユーザの視点の変化に応じた適切な映像変化(擬似的な三次元化)を付与することができ、ユーザの映像体験価値を向上させることができる。 In addition, by maintaining the state in which the stereoscopic image faces the user's line of sight, the stereoscopic image, which is a two-dimensional image, is simulated without causing distortion of the stereoscopic image even when the user's viewpoint moves. It is possible to make it look like a three-dimensional image. That is, in the video experience in the virtual space, it is possible to give an appropriate video change (pseudo three-dimensionalization) according to the change in the user's viewpoint, and it is possible to improve the video experience value of the user.

なお、立体視画像は、実オブジェクトを予め撮影して得た二次元画像に基づいて生成してもよいし、実オブジェクトをリアルタイムで撮影して得た二次元画像に基づいて生成してもよい。 The stereoscopic image may be generated based on a two-dimensional image obtained by photographing a real object in advance, or may be generated based on a two-dimensional image obtained by photographing a real object in real time. ..

続いて、このような本実施形態による情報処理システムの全体構成について図4を参照して説明する。図4は、本実施形態による情報処理システムの全体構成の一例を示す図である。 Subsequently, the overall configuration of the information processing system according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram showing an example of the overall configuration of the information processing system according to the present embodiment.

図4に示すように、本実施形態による情報処理システムは、仮想空間の画像生成や表示部140への表示制御を行う情報処理端末10と、仮想空間のコンテンツ情報を格納するサーバ2とを含む構成であってもよい。情報処理端末10と、サーバ2は、ネットワーク3を介して通信接続し、データの送受信が可能である。 As shown in FIG. 4, the information processing system according to the present embodiment includes an information processing terminal 10 that generates an image of a virtual space and controls display on the display unit 140, and a server 2 that stores content information of the virtual space. It may be a configuration. The information processing terminal 10 and the server 2 can communicate with each other via the network 3 to transmit and receive data.

情報処理端末10は、サーバ2から仮想空間のコンテンツを取得すると共に、当該コンテンツから、ユーザの動きやコントローラ操作等に応じて自由視点画像を生成し、表示部140に提供する。ユーザの動きとは、ユーザの位置や姿勢(頭部の向きを含む)の変化であって、情報処理端末10は、検出したユーザの位置や姿勢から実世界でのユーザ視点位置(3次元位置)を認識し、認識したユーザ視点位置に基づいて仮想空間内でのユーザ視点位置(以下、仮想空間内ユーザ視点とも称す)を算出する。 The information processing terminal 10 acquires the content of the virtual space from the server 2, generates a free viewpoint image from the content according to the movement of the user, the controller operation, and the like, and provides the content to the display unit 140. The movement of the user is a change in the position or posture of the user (including the direction of the head), and the information processing terminal 10 uses the detected position or posture of the user to determine the user's viewpoint position (three-dimensional position) in the real world. ) Is recognized, and the user viewpoint position in the virtual space (hereinafter, also referred to as the user viewpoint in the virtual space) is calculated based on the recognized user viewpoint position.

ユーザに提供される仮想空間のコンテンツは、全天球コンテンツ、自由視点コンテンツ、またはゲームコンテンツ等である。自由視点コンテンツとは、任意の位置に仮想カメラを置いた際の映像を生成し、あらゆる視点からの映像視聴を可能としたものである。また、本明細書で使用する「仮想空間」(または「VR空間」)との用語は、実際のユーザが、1つ以上の表示装置を介して感知し得る、および/または1つ以上のユーザインタフェースを介してインタラクトしうる、1つ以上のプロセッサによってシミュレートされるインタラクションのルールを有する現実または架空の環境の表現を指す。「ユーザインタフェース」との用語は、ユーザが仮想世界との間で、入力を送信するか出力を受信することができる実際のデバイスを指す。 The content of the virtual space provided to the user is spherical content, free-viewpoint content, game content, or the like. The free-viewpoint content generates an image when the virtual camera is placed at an arbitrary position, and enables the image to be viewed from any viewpoint. Also, as used herein, the term "virtual space" (or "VR space") can be perceived by a real user through one or more display devices and / or one or more users. Refers to a representation of a real or fictitious environment with rules of interaction simulated by one or more processors that can interact through an interface. The term "user interface" refers to the actual device on which the user can send input or receive output to and from the virtual world.

仮想空間内では、ユーザがアバターによって表現されてもよいし、ディスプレイにアバターを表示せずに、アバターの視点から仮想空間の世界を表示してもよい。本明細書において、仮想空間におけるユーザの(またはアバターの)視点(仮想空間内ユーザ視点)とは、仮想カメラの視界とみなすことができる。「仮想カメラ」とは、仮想空間内の視点を指し、三次元の仮想空間を二次元画像としてディスプレイ(表示装置)に描画するための計算に使用される。本実施形態による情報処理システムは、さらに、ユーザの意図をシステムに伝えるためのリモートコントローラやゲームコントローラを含んでもよい。 In the virtual space, the user may be represented by an avatar, or the world of the virtual space may be displayed from the viewpoint of the avatar without displaying the avatar on the display. In the present specification, the user's (or avatar's) viewpoint (user's viewpoint in the virtual space) in the virtual space can be regarded as the field of view of the virtual camera. The "virtual camera" refers to a viewpoint in a virtual space, and is used in a calculation for drawing a three-dimensional virtual space as a two-dimensional image on a display (display device). The information processing system according to the present embodiment may further include a remote controller or a game controller for communicating the user's intention to the system.

また、情報処理端末10は、上述したように、例えばユーザの頭部に装着されるHMDにより実現される。HMDは、左右の眼毎の画像表示部を有すると共に、ヘッドフォンを併用し、視覚および聴覚を制御できるよう構成されていてもよい。また、HMDは、左右の眼に違う映像を映し出すことも可能であり、左右の眼に対して視差のある画像を表示することで3D画像を提示することが可能である。また、情報処理端末10は、テレビ装置やスマートフォン、またはタブレット端末等、非装着型のディスプレイに仮想空間画像を提示するデバイスであってもよい。 Further, as described above, the information processing terminal 10 is realized by, for example, an HMD worn on the user's head. The HMD may have an image display unit for each of the left and right eyes, and may be configured to be able to control vision and hearing by using headphones in combination. The HMD can also project different images to the left and right eyes, and can present a 3D image by displaying an image having parallax with respect to the left and right eyes. Further, the information processing terminal 10 may be a device that presents a virtual space image on a non-wearable display such as a television device, a smartphone, or a tablet terminal.

以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる情報処理端末10の具体的な構成について図面を参照して説明する。 The information processing system according to the embodiment of the present disclosure has been described above. Subsequently, a specific configuration of the information processing terminal 10 included in the information processing system according to the present embodiment will be described with reference to the drawings.

<<2.情報処理端末10の構成>>
図5は、本実施形態による情報処理端末10の構成の一例を示すブロック図である。図5に示すように、情報処理端末10は、制御部100、通信部110、操作入力部120、センサ部130、表示部140、スピーカ150、および記憶部160を有する。
<< 2. Configuration of information processing terminal 10 >>
FIG. 5 is a block diagram showing an example of the configuration of the information processing terminal 10 according to the present embodiment. As shown in FIG. 5, the information processing terminal 10 includes a control unit 100, a communication unit 110, an operation input unit 120, a sensor unit 130, a display unit 140, a speaker 150, and a storage unit 160.

制御部100は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理端末10内の動作全般を制御する。制御部100は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部100は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。 The control unit 100 functions as an arithmetic processing unit and a control device, and controls the overall operation in the information processing terminal 10 according to various programs. The control unit 100 is realized by an electronic circuit such as a CPU (Central Processing Unit) or a microprocessor. Further, the control unit 100 may include a ROM (Read Only Memory) for storing programs to be used, calculation parameters, and the like, and a RAM (Random Access Memory) for temporarily storing parameters and the like that change as appropriate.

また、本実施形態による制御部100は、ユーザ視点認識部101、仮想空間視点算出部102、画像生成部103、および表示制御部104としても機能する。 The control unit 100 according to the present embodiment also functions as a user viewpoint recognition unit 101, a virtual space viewpoint calculation unit 102, an image generation unit 103, and a display control unit 104.

ユーザ視点認識部101は、センサ部130等によりセンシングされたユーザの位置や姿勢(頭部の向きを含む)から、実世界でのユーザ視点位置(3次元位置)を認識する。次いで、仮想空間視点算出部102は、ユーザ視点認識部101により認識された実世界のユーザ視点に基づいて、仮想空間内ユーザ視点を算出する。次に、画像生成部103は、仮想空間視点算出部102により算出された仮想空間内ユーザ視点に対応する仮想空間の自由視点画像を生成し、表示制御部104は、当該生成された仮想空間の自由視点画像を、表示部140に表示する。これらの処理を継続的に行うことで、ユーザが実世界で前後左右に移動したり視点を変化させると、仮想空間でも同じ移動量(または所定の比率での対応する移動量)で前後左右に移動したり視点を変化させることができ、没入感の高いVR体験を楽しむことができる。 The user viewpoint recognition unit 101 recognizes the user viewpoint position (three-dimensional position) in the real world from the position and posture (including the orientation of the head) of the user sensed by the sensor unit 130 or the like. Next, the virtual space viewpoint calculation unit 102 calculates the user viewpoint in the virtual space based on the user viewpoint in the real world recognized by the user viewpoint recognition unit 101. Next, the image generation unit 103 generates a free viewpoint image of the virtual space corresponding to the user viewpoint in the virtual space calculated by the virtual space viewpoint calculation unit 102, and the display control unit 104 generates the free viewpoint image of the generated virtual space. The free viewpoint image is displayed on the display unit 140. By continuously performing these processes, when the user moves back and forth and left and right or changes the viewpoint in the real world, the same amount of movement (or the corresponding movement amount at a predetermined ratio) moves back and forth and left and right in the virtual space. You can move and change the viewpoint, and you can enjoy a highly immersive VR experience.

ユーザの位置や姿勢の検出は、例えば情報処理端末10に設けられたセンサ部130により行われる。ユーザ視点認識部101は、センサ部130によりセンシングされたセンシングデータに基づいて、ユーザの頭部の動きを追従したり(ヘッドトラッキング)、視線の動きを追従したり(アイトラッキング)、位置や姿勢を追従したり(ポジショントラッキング)することで、実空間のユーザ視点位置を継続的に認識し得る。 The user's position and posture are detected by, for example, the sensor unit 130 provided in the information processing terminal 10. The user viewpoint recognition unit 101 tracks the movement of the user's head (head tracking), follows the movement of the line of sight (eye tracking), and positions and postures based on the sensing data sensed by the sensor unit 130. By following (position tracking), the user's viewpoint position in the real space can be continuously recognized.

より具体的には、例えばヘッドトラッキングは、ユーザの頭部に装着された情報処理端末10のセンサ部130により検出された9軸の検出結果に基づいて、頭部の姿勢情報を算出することにより行われ得る。また、アイトラッキングは、ユーザの頭部に装着された情報処理端末10のセンサ部130により検出されたユーザの眼の撮像画像(例えば赤外線を眼に発光してその反射を撮像した赤外線画像)に基づいて、ユーザの視線(視線方向)を算出することにより行われ得る。また、ポジショントラッキングには、外部に設置したセンサを利用するアウトサイド・イン方式と、計測したいもの自体(HMD)に搭載したセンサを利用するインサイド・アウト方式と、これらの組み合わせであるハイブリッド方式とがある。 More specifically, for example, in head tracking, the posture information of the head is calculated based on the detection result of 9 axes detected by the sensor unit 130 of the information processing terminal 10 mounted on the user's head. Can be done. Further, the eye tracking is performed on an image of the user's eye detected by the sensor unit 130 of the information processing terminal 10 mounted on the user's head (for example, an infrared image obtained by emitting infrared rays to the eyes and capturing the reflection thereof). Based on this, it can be performed by calculating the line of sight (line-of-sight direction) of the user. For position tracking, there are an outside-in method that uses an external sensor, an inside-out method that uses a sensor mounted on the object to be measured (HMD), and a hybrid method that is a combination of these. There is.

アウトサイド・イン方式では、例えばHMDに設けた複数のLEDライト(マーカー)の位置を外部に設置したカメラにより撮像して取得し、取得したLEDライトの位置情報の変化に基づいて位置および姿勢を算出する。なお、ユーザ視点認識部101は、LEDライトの位置情報の変化と、HMDに設けたモーションセンサデータとに基づいて、ユーザの頭部姿勢を含むユーザ姿勢の算出を行うことも可能である。一方、インサイド・アウト方式では、HMDに設けられたモーションセンサ、深度センサ、および外向きカメラにより取得した情報に基づいて、ユーザの位置および姿勢を算出する。例えば、HMDに設けられた外向きカメラにより外界を撮像し、予めSLAM(Simultaneous Localization and Mapping)技術により生成した空間マップと比較してユーザの位置情報を取得したり、モーションセンサや深度センサの情報と併せてユーザの姿勢を算出したりすることが可能である。 In the outside-in method, for example, the positions of a plurality of LED lights (markers) provided in the HMD are imaged and acquired by a camera installed outside, and the position and posture are determined based on the change in the acquired position information of the LED lights. calculate. The user viewpoint recognition unit 101 can also calculate the user posture including the head posture of the user based on the change in the position information of the LED light and the motion sensor data provided in the HMD. On the other hand, in the inside-out method, the position and posture of the user are calculated based on the information acquired by the motion sensor, the depth sensor, and the outward camera provided in the HMD. For example, the outside world is imaged by an outward camera provided in the HMD, and the user's position information is acquired by comparing with a spatial map generated in advance by SLAM (Simultaneous Localization and Mapping) technology, or information on a motion sensor or a depth sensor. At the same time, it is possible to calculate the posture of the user.

また、本実施形態による画像生成部103は、実オブジェクトを撮影して得た二次元画像(例えば、人物のステレオ映像)を立体視画像として三次元の空間内に配置する画像を生成し得る。これにより、実写の人物等を、撮影コストを掛けず、また、映像品質を落とすことなく、仮想空間内に配置することができる。なお、実写のステレオ映像は、その背景を残したままだと3次元空間の背景と馴染まないため、背景除去を実施したステレオ映像を用いるようにしてもよい。背景除去は、例えばクリーンバックでの撮影等により可能である。 Further, the image generation unit 103 according to the present embodiment can generate an image in which a two-dimensional image (for example, a stereoscopic image of a person) obtained by photographing a real object is arranged in a three-dimensional space as a stereoscopic image. As a result, it is possible to arrange a live-action person or the like in a virtual space without incurring a shooting cost and without degrading the image quality. Since the live-action stereo image does not blend with the background of the three-dimensional space if the background is left, the stereo image with the background removed may be used. Background removal is possible, for example, by shooting with a clean back.

また、表示制御部104は、仮想空間内ユーザ視点が変化した場合に、立体視させている二次元画像に違和感が生じないよう、仮想空間内ユーザ視点に対して当該二次元画像が正対するよう回転させる制御を行い得る。表示制御部104は、立体視させている右目用画像と左目用画像を合わせて1オブジェクトとみなし、当該オブジェクトが視点に対して正対するよう回転させる。これにより、より確実に、三次元空間において二次元画像を疑似的に三次元画像に見せることができ、ユーザの映像体験価値を向上させることが可能となる。 Further, the display control unit 104 makes the two-dimensional image face the user's viewpoint in the virtual space so that the two-dimensional image to be stereoscopically viewed does not feel uncomfortable when the user's viewpoint in the virtual space changes. It is possible to control the rotation. The display control unit 104 considers the image for the right eye and the image for the left eye to be stereoscopically viewed as one object, and rotates the object so as to face the viewpoint. As a result, it is possible to more reliably make the two-dimensional image appear as a pseudo three-dimensional image in the three-dimensional space, and it is possible to improve the video experience value of the user.

このような本実施形態による実オブジェクトを撮影して得た二次元画像の立体視表示制御の詳細に関しては、図面を用いて後述する。 The details of the stereoscopic display control of the two-dimensional image obtained by photographing the real object according to the present embodiment will be described later with reference to the drawings.

(通信部110)
通信部110は、有線または無線によりネットワーク3と接続し、ネットワーク上のサーバ2とデータの送受信を行う。通信部110は、例えば有線/無線LAN(Local Area Network)、またはWi−Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等によりネットワーク3と通信接続する。
(Communication unit 110)
The communication unit 110 connects to the network 3 by wire or wirelessly, and transmits / receives data to / from the server 2 on the network. The communication unit 110 is, for example, a wired / wireless LAN (Local Area Network), Wi-Fi (registered trademark), Bluetooth (registered trademark), a mobile communication network (LTE (Long Term Evolution)), or 3G (third generation mobile body). Communication connection with network 3 by communication method)) or the like.

(操作入力部120)
操作入力部120は、ユーザによる操作指示を受付け、その操作内容を制御部100に出力する。操作入力部120は、例えばタッチセンサ、圧力センサ、若しくは近接センサであってもよい。あるいは、操作入力部120は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。
(Operation input unit 120)
The operation input unit 120 receives an operation instruction by the user and outputs the operation content to the control unit 100. The operation input unit 120 may be, for example, a touch sensor, a pressure sensor, or a proximity sensor. Alternatively, the operation input unit 120 may have a physical configuration such as a button, a switch, and a lever.

(センサ部130)
センサ部130は、ユーザまたは周辺の状況等、実空間をセンシングする機能を有する。具体的には、センサ部130は、位置情報取得部131、カメラ132(内向き/外向きカメラ)、マイク(マイクロホン)133、加速度センサ134、および生体センサ135(脈拍、心拍、発汗、血圧、体温、呼吸、筋電値、脳波)等を含む。なお、センサ部130の具体例はこれに限定されず、例えば、センサ部130は、3軸ジャイロセンサ、3軸加速度センサ、および3軸地磁気センサの合計9軸を検出可能なセンサを有していてもよい。また、センサ部130は、ユーザの視線を検出する視線検出センサとして、例えばユーザの眼前に位置する表示部140の周辺に設けられた赤外線センサ(赤外線発光部および赤外線カメラ)等の内向きカメラや、ユーザの眼の周辺の筋肉の動きを検知する筋電センサ、若しくは脳波センサ等を有していてもよい。
(Sensor unit 130)
The sensor unit 130 has a function of sensing the real space such as the situation of the user or the surroundings. Specifically, the sensor unit 130 includes a position information acquisition unit 131, a camera 132 (inward / outward camera), a microphone (microphone) 133, an acceleration sensor 134, and a biological sensor 135 (pulse, heartbeat, sweating, blood pressure, etc.). Includes body temperature, respiration, myoelectric value, brain wave), etc. The specific example of the sensor unit 130 is not limited to this, and for example, the sensor unit 130 has a sensor capable of detecting a total of 9 axes of a 3-axis gyro sensor, a 3-axis acceleration sensor, and a 3-axis geomagnetic sensor. You may. Further, the sensor unit 130 is an inward camera such as an infrared sensor (infrared light emitting unit and an infrared camera) provided around the display unit 140 located in front of the user's eyes as a line-of-sight detection sensor for detecting the user's line of sight. , A myoelectric sensor that detects the movement of muscles around the user's eye, a brain wave sensor, or the like may be provided.

(表示部140)
表示部140は、例えば情報処理端末10がHMDとして構成される場合、ユーザの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像および右眼用画像を表示する。表示部140の画面は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL((Electro Luminescence)ディスプレイなどの表示パネル、または、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部140は、表示画面を拡大投影して、ユーザの瞳に所定の画角からなる拡大虚像を結像する結像光学系を備えてもよい。
(Display unit 140)
When the information processing terminal 10 is configured as an HMD, for example, the display unit 140 includes left and right screens fixed to the left and right eyes of the user, and displays an image for the left eye and an image for the right eye. The screen of the display unit 140 is composed of, for example, a display panel such as a liquid crystal display (LCD) or an organic EL ((Electro Luminescence) display), or a laser scanning display such as a direct retinal drawing display. The display unit 140 may include an imaging optical system that magnifies and projects the display screen and forms an enlarged imaginary image having a predetermined angle of view on the pupil of the user.

(スピーカ150)
スピーカ150は、例えば情報処理端末10がHMDとして構成される場合、ユーザの頭部に装着されるヘッドフォンとして構成され、音声信号を再生する。なおスピーカ150は、ヘッドフォン型に限定されず、イヤフォン、若しくは骨伝導スピーカとして構成されてもよい。
(Speaker 150)
For example, when the information processing terminal 10 is configured as an HMD, the speaker 150 is configured as headphones worn on the user's head and reproduces an audio signal. The speaker 150 is not limited to the headphone type, and may be configured as an earphone or a bone conduction speaker.

(記憶部160)
記憶部160は、制御部100の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
(Storage unit 160)
The storage unit 160 is realized by a ROM (Read Only Memory) that stores programs and arithmetic parameters used for processing of the control unit 100, and a RAM (Random Access Memory) that temporarily stores parameters and the like that change as appropriate.

以上、情報処理端末10の構成について具体的に説明したが、本開示による情報処理端末10の構成は図5に示す例に限定されない。例えば、情報処理端末10は、複数の装置により実現されてもよい。具体的には、HMD等により実現される表示装置(少なくとも表示部140に対応)と、スマートフォンやタブレット端末、PC等により実現される情報処理装置(少なくとも制御部100に対応)とを含む構成であってもよい。また、上述した情報処理端末10によるトラッキング処理を外部装置で行ってもよい。 Although the configuration of the information processing terminal 10 has been specifically described above, the configuration of the information processing terminal 10 according to the present disclosure is not limited to the example shown in FIG. For example, the information processing terminal 10 may be realized by a plurality of devices. Specifically, the configuration includes a display device realized by an HMD or the like (corresponding to at least the display unit 140) and an information processing device realized by a smartphone, a tablet terminal, a PC or the like (corresponding to at least the control unit 100). There may be. Further, the tracking process by the information processing terminal 10 described above may be performed by an external device.

また、情報処理端末10の制御部100が有する各機能を、ネットワーク上に設けられたサーバで実現してもよいし、ユーザと同一空間に配置された専用端末や、スマートフォン、タブレット端末、またはPC等により実現してもよい。 Further, each function of the control unit 100 of the information processing terminal 10 may be realized by a server provided on the network, or a dedicated terminal, a smartphone, a tablet terminal, or a PC arranged in the same space as the user. It may be realized by such as.

<<3.立体視表示制御例>>
<3−1.第1の実施例>
本実施形態による情報処理端末10は、仮想空間内ユーザ視点に対して、実オブジェクトを撮影して取得した二次元画像に基づく立体視画像が正対した状態を維持することで、仮想空間内ユーザ視点が変化しても立体視画像が破綻することなく見せることができ、三次元空間において二次元画像を疑似的に三次元画像に見せることを可能とする。以下、図6〜図10を参照して本実施形態による二次元画像の立体視表示制御について詳述する。
<< 3. Stereoscopic display control example >>
<3-1. First Example>
The information processing terminal 10 according to the present embodiment maintains a state in which the stereoscopic image based on the two-dimensional image acquired by photographing the real object faces the user's viewpoint in the virtual space, so that the user in the virtual space Even if the viewpoint changes, the stereoscopic image can be shown without being broken, and the two-dimensional image can be shown as a pseudo three-dimensional image in the three-dimensional space. Hereinafter, the stereoscopic display control of the two-dimensional image according to the present embodiment will be described in detail with reference to FIGS. 6 to 10.

(3−1−1.回転制御)
図6は、本実施形態の第1の実施例による立体視画像40の回転制御について説明する図である。図6に示すように、情報処理端末10は、仮想空間内において、立体視画像40をユーザ視点に正対させた状態を維持するよう、立体視画像40を通る所定の軸42を基準として立体視画像40を回転させる。より具体的には、情報処理端末10は、立体視画像40を通る所定の軸42とユーザの視点(仮想空間内ユーザ視点)とを結ぶ直線45が、当該立体視画像40(の面)に対して略垂直となるよう、立体視画像40を所定の軸42を基準として回転させる。図6に示す例では、情報処理端末10は、立体視画像40を通る所定の軸42を基準とした回転、すなわちyaw方向に(左右に)立体視画像40を回転させる。
(3-1-1. Rotation control)
FIG. 6 is a diagram illustrating rotation control of the stereoscopic image 40 according to the first embodiment of the present embodiment. As shown in FIG. 6, the information processing terminal 10 stereoscopically uses a predetermined axis 42 passing through the stereoscopic image 40 as a reference so as to maintain a state in which the stereoscopic image 40 faces the user's viewpoint in the virtual space. The visual image 40 is rotated. More specifically, in the information processing terminal 10, a straight line 45 connecting a predetermined axis 42 passing through the stereoscopic image 40 and the user's viewpoint (user's viewpoint in the virtual space) is formed on the stereoscopic image 40 (plane). The stereoscopic image 40 is rotated with respect to a predetermined axis 42 so as to be substantially vertical to the stereoscopic image 40. In the example shown in FIG. 6, the information processing terminal 10 rotates the stereoscopic image 40 with respect to a predetermined axis 42 passing through the stereoscopic image 40, that is, rotates the stereoscopic image 40 in the yaw direction (left and right).

このように立体視画像40を回転制御した場合の見え方の一例を、図7に示す。例えば、図7左に示す立体視画像40を正面から見ている視点から、立体視画像40に対して視点を右側に移動した場合、立体視画像40はユーザの視点に正対するよう回転されるため、図3右に示すような歪みが生じることなく、図7右に示すように、違和感無く見ることができる。 FIG. 7 shows an example of how the stereoscopic image 40 looks when the rotation is controlled. For example, when the viewpoint is moved to the right with respect to the stereoscopic image 40 from the viewpoint when the stereoscopic image 40 shown on the left of FIG. 7 is viewed from the front, the stereoscopic image 40 is rotated so as to face the user's viewpoint. Therefore, as shown on the right side of FIG. 7, the image can be viewed without discomfort without the distortion shown on the right side of FIG.

(3−1−2.回転制約)
ここで、仮想空間内ユーザ視点に常に正対させるよう立体視画像40の回転制御を行うと、立体視画像40(被写体)によっては、不自然な姿勢になってしまう場合がある。
(3-1-2. Rotation constraint)
Here, if the rotation control of the stereoscopic image 40 is performed so as to always face the user's viewpoint in the virtual space, the posture may be unnatural depending on the stereoscopic image 40 (subject).

図8は、仮想空間内ユーザ視点に常に正対させるよう制御した際に立体視画像40が不自然な姿勢になる場合について説明する図である。例えば、図8左に示すような立体視画像40を正面から見ている視点から、仮想空間内ユーザ視点を立体視画像40に対して上側に移動した場合(すなわち立体視画像40に対して上から見下ろすような角度となった場合)について説明する。この場合、立体視画像40がユーザの視点に正対するよう回転されると(具体的には、立体視画像40の中心を通る水平方向の軸を基準としてPitch方向に(上下に)回転される)、図8右に示すように、立体視画像40が地面に倒れているような不自然な姿勢となってしまう。 FIG. 8 is a diagram illustrating a case where the stereoscopic image 40 has an unnatural posture when controlled so as to always face the user's viewpoint in the virtual space. For example, when the user's viewpoint in the virtual space is moved upward with respect to the stereoscopic image 40 from the viewpoint of viewing the stereoscopic image 40 from the front as shown on the left of FIG. 8 (that is, above the stereoscopic image 40). (When the angle looks down from) will be explained. In this case, when the stereoscopic image 40 is rotated so as to face the user's viewpoint (specifically, it is rotated (up and down) in the Pitch direction with reference to the horizontal axis passing through the center of the stereoscopic image 40. ), As shown on the right side of FIG. 8, the stereoscopic image 40 has an unnatural posture as if it were lying on the ground.

従って、本実施形態による情報処理システムでは、各立体視画像に対して回転制約を設定し、回転制約内で回転制御を行うことで、不自然な姿勢となってしまうことを回避することを可能とする。回転制約には、回転可能軸(回転方向)や回転可能角度(回転量)に関する制約が含まれる。 Therefore, in the information processing system according to the present embodiment, it is possible to avoid an unnatural posture by setting a rotation constraint for each stereoscopic image and performing rotation control within the rotation constraint. And. Rotational constraints include constraints on the rotatable axis (rotational direction) and the rotatable angle (rotation amount).

ここで、本明細書で用いる回転軸の定義について、図9を参照して説明する。図9は、本実施形態の第1の実施例による立体視画像40の回転軸の定義について説明する図である。図9に示すように、立体視画像40の中心を縦に通る軸(すなわち、仮想空間において垂直方向の軸)を基準とする左右の回転をYaw回転と称し、立体視画像40の中心を横に通る軸(すなわち、仮想空間において水平方向の軸)を基準とする上下の回転をPitch回転と称する。また、立体視画像40の中心を立体視画像40の面に対して垂直に通る軸(すなわち、仮想空間において前後方向の軸)を基準とする回転をRoll回転と称する。 Here, the definition of the rotation axis used in the present specification will be described with reference to FIG. FIG. 9 is a diagram illustrating a definition of a rotation axis of the stereoscopic image 40 according to the first embodiment of the present embodiment. As shown in FIG. 9, left-right rotation with respect to an axis vertically passing through the center of the stereoscopic image 40 (that is, an axis in the vertical direction in the virtual space) is called Yaw rotation, and the center of the stereoscopic image 40 is horizontal. The vertical rotation with respect to the axis passing through (that is, the horizontal axis in the virtual space) is referred to as Pitch rotation. Further, rotation based on an axis (that is, an axis in the front-rear direction in the virtual space) that passes through the center of the stereoscopic image 40 perpendicularly to the plane of the stereoscopic image 40 is referred to as Roll rotation.

回転制約は、立体視画像毎に設定してもよい。また、回転制約は、回転軸毎に回転可能な角度の情報を含むものであってもよい。例えば実オブジェクトが人物の場合、回転をYaw回転に限定することで不自然な姿勢になってしまうことを回避することができる。この場合の回転制約情報のパラメータの一例を下記に示す。
・回転制約パラメータ
Yaw:0°〜360°
Pitch:0°
Roll:0°
The rotation constraint may be set for each stereoscopic image. Further, the rotation constraint may include information on the angle at which the rotation can be performed for each rotation axis. For example, when the real object is a person, it is possible to avoid an unnatural posture by limiting the rotation to the Yaw rotation. An example of the parameters of the rotation constraint information in this case is shown below.
-Rotation constraint parameter Yaw: 0 ° to 360 °
Pitch: 0 °
Roll: 0 °

なお回転制約は、パラメータとして立体視画像が有することを想定するが、本実施形態はこれに限定されず、アプリケーション内に固定値として埋め込んでもよい。 The rotation constraint is assumed to be possessed by the stereoscopic image as a parameter, but the present embodiment is not limited to this, and may be embedded as a fixed value in the application.

また、上述した例では、Yaw回転において0°〜360°が回転可能と設定しているが、本実施形態はこれに限定されず、例えばユーザが人物(立体視画像40)を真後ろから見た場合にも人物が正面に見えると、後ろ側が見えないことに違和感を持つ場合もあるため、Yaw:0°〜180°等に設定してもよい。また、この場合、180°付近において、別カメラがある場合、当該別カメラで撮影した映像(例えば当該人物を横から撮影したステレオ映像)に切り替えるようにしてもよい。 Further, in the above-described example, 0 ° to 360 ° is set to be rotatable in Yaw rotation, but the present embodiment is not limited to this, and for example, the user views a person (stereoscopic image 40) from directly behind. Even in this case, if the person can be seen in the front, it may be uncomfortable to see the back side, so Yaw: 0 ° to 180 ° or the like may be set. Further, in this case, if there is another camera in the vicinity of 180 °, the image may be switched to the image taken by the other camera (for example, the stereo image of the person taken from the side).

また、回転制約で設定される回転角度は、視聴開始点を基準とした角度であってもよいし、仮想空間のグローバル座標における正面を基準とした角度であってもよい。 Further, the rotation angle set by the rotation constraint may be an angle with reference to the viewing start point, or may be an angle with reference to the front in the global coordinates of the virtual space.

(3−1−3.警告)
回転制約内で回転制御を行うことで、上述したように、立体視画像40が不自然な姿勢になることを回避できるが、制約されている方向から視聴した際に、立体視画像40の映像が大きく歪んでしまう場合がある。この場合、情報処理端末10は、推奨される視聴方向をユーザに示す等の警告(音声、表示、振動等を用いた警告)を行って、快適な視聴が実現できるようにしてもよい。
(3-1-3. Warning)
By controlling the rotation within the rotation constraint, it is possible to prevent the stereoscopic image 40 from being in an unnatural posture as described above, but when the stereoscopic image 40 is viewed from the restricted direction, the image of the stereoscopic image 40 is displayed. May be greatly distorted. In this case, the information processing terminal 10 may issue a warning (warning using voice, display, vibration, etc.) such as indicating the recommended viewing direction to the user so that comfortable viewing can be realized.

図10は、本実施形態の第1の実施例による制約されている方向から視聴した場合に表示される警告の一例を示す図である。例えば図10左に示すように、仮想空間内ユーザ視点が立体視画像40に対して上側に移動した場合(すなわち上から見下ろすような角度になった場合)、回転制約により立体視画像40をPitch回転できないため、図10右に示すように、立体視画像40が大きく歪んで見える。この場合、情報処理端末10は、「なるべく正面から視聴してください」といった、推奨される視聴方向を通知する警告表示142を表示してもよい。なお、情報処理端末10は、立体視画像40に対して、回転が制約されている方向において一定以上の角度で視聴を行っている場合に警告を行うようにしてもよい。 FIG. 10 is a diagram showing an example of a warning displayed when viewing from a restricted direction according to the first embodiment of the present embodiment. For example, as shown on the left side of FIG. 10, when the user's viewpoint in the virtual space moves upward with respect to the stereoscopic image 40 (that is, when the angle is such that it looks down from above), the stereoscopic image 40 is touched due to rotation restrictions. As shown on the right side of FIG. 10, the stereoscopic image 40 appears to be greatly distorted because it cannot be rotated. In this case, the information processing terminal 10 may display a warning display 142 notifying the recommended viewing direction, such as "Please watch from the front as much as possible". The information processing terminal 10 may give a warning to the stereoscopic image 40 when the stereoscopic image 40 is viewed at an angle of a certain value or more in a direction in which rotation is restricted.

<3−2.第2の実施例>
続いて、本実施形態の第2の実施例として、上述したような回転制御を行う立体視画像に対して、3Dモデル(三次元の形状データを有する仮想オブジェクト)による装飾表現を行う場合について、図11〜図16を参照して説明する。
<3-2. Second Example>
Subsequently, as a second embodiment of the present embodiment, a case where a 3D model (a virtual object having three-dimensional shape data) is used to decorate a stereoscopic image that performs rotation control as described above is used. This will be described with reference to FIGS. 11 to 16.

図11は、本実施形態の第2の実施例による立体視画像40と3Dモデル60について説明する図である。図11に示すように、立体視画像40は、2枚の二次元画像から成るステレオ映像であり、これらを左右の目に個別に提示することで立体視を実現している。これに対し、3Dモデル60は、仮想空間内で奥行き情報を含めた3次元の形状データを有する立体物であり、任意の視点から視聴しても形状が破綻しない。本実施例では、このような二次元データである立体視画像40と、三次元データである3Dモデル60とを組み合わせた表現を実現し、ユーザの視聴体験をさらに向上させることを可能とする。 FIG. 11 is a diagram illustrating a stereoscopic image 40 and a 3D model 60 according to a second embodiment of the present embodiment. As shown in FIG. 11, the stereoscopic image 40 is a stereo image composed of two two-dimensional images, and the stereoscopic image is realized by presenting these separately to the left and right eyes. On the other hand, the 3D model 60 is a three-dimensional object having three-dimensional shape data including depth information in the virtual space, and the shape does not collapse even when viewed from an arbitrary viewpoint. In this embodiment, it is possible to realize an expression in which the stereoscopic image 40 which is such two-dimensional data and the 3D model 60 which is three-dimensional data are combined, and it is possible to further improve the viewing experience of the user.

図12は、本実施例による立体視画像40に対する3Dモデル60の装飾表示の一例を示す図である。図12に示すように、立体視画像40の手前側において、立体視画像40(人物)の手の位置に3Dモデル60(プレゼント画像)を配置することで、人物がプレゼントを持っているように見せる装飾表示を実現することができる。なお3Dモデル60は、仮想空間内においてインタラクション可能な仮想オブジェクトである。また、立体視画像40の実空間における手の位置の情報は、画像解析により認識してもよいし、撮影時に被写体人物が手に有しているコントローラを検出して認識してもよい。また、このように撮影時等に認識した手の位置の情報(3次元位置情報)を記録しておいてもよい。 FIG. 12 is a diagram showing an example of a decorative display of the 3D model 60 with respect to the stereoscopic image 40 according to the present embodiment. As shown in FIG. 12, by arranging the 3D model 60 (present image) at the position of the hand of the stereoscopic image 40 (person) on the front side of the stereoscopic image 40, the person holds the present. It is possible to realize a decorative display to be shown. The 3D model 60 is a virtual object that can be interacted with in the virtual space. Further, the information on the position of the hand in the real space of the stereoscopic image 40 may be recognized by image analysis, or the controller held by the subject person in the hand at the time of shooting may be detected and recognized. In addition, information on the position of the hand (three-dimensional position information) recognized at the time of shooting or the like may be recorded in this way.

ここで、仮想空間内ユーザ視点が移動した場合、図13に示すように、二次元データである立体視画像40には歪みが生じ、また、3Dモデルは三次元データであるため画像の歪みは生じず任意の位置から視聴しても形状は破綻しないが、立体視画像40に対する装飾位置がずれてしまう(人物の手の位置からずれる)。 Here, when the user's viewpoint in the virtual space moves, as shown in FIG. 13, distortion occurs in the stereoscopic image 40 which is two-dimensional data, and since the 3D model is three-dimensional data, the distortion of the image is caused. The shape does not collapse even if the image is viewed from an arbitrary position without occurring, but the decorative position with respect to the stereoscopic image 40 shifts (shifts from the position of the person's hand).

一方、仮想空間内ユーザ視点の移動に応じて立体視画像40のみを(仮想空間内ユーザ視点に正対するよう)回転制御した場合、図14に示すように、立体視画像40の映像の歪みは解消されるが、依然として、3Dモデル60の装飾位置のずれが生じる。 On the other hand, when the rotation of only the stereoscopic image 40 (so as to face the user's viewpoint in the virtual space) is controlled according to the movement of the user's viewpoint in the virtual space, the distortion of the image of the stereoscopic image 40 is as shown in FIG. Although it is resolved, there is still a shift in the decorative position of the 3D model 60.

そこで、本実施例では、仮想空間内ユーザ視点の移動に応じて、図15左に示すように、所定の軸42を基準として、立体視画像40の面が仮想空間内ユーザ視点に正対するよう立体視画像40を回転制御すると共に、併せて、同回転軸(すなわち、所定の軸42)を基準として、3Dモデル60を、(立体視画像40と)同回転量(回転方向、回転角度)回転させる。 Therefore, in this embodiment, as shown on the left side of FIG. 15, the surface of the stereoscopic image 40 faces the user viewpoint in the virtual space with reference to the predetermined axis 42 according to the movement of the user viewpoint in the virtual space. In addition to controlling the rotation of the stereoscopic image 40, the 3D model 60 (with the stereoscopic image 40) has the same amount of rotation (rotation direction, rotation angle) with reference to the same rotation axis (that is, a predetermined axis 42). Rotate.

情報処理端末10は、立体視画像40の回転軸である所定の軸42を基準として、3Dモデル60を公転させることで、立体視画像40と3Dモデル60を回転させた際に3Dモデル60の立体視画像40に対する相対位置を維持することができる。3Dモデル60を公転させるとは、すなわち、3Dモデル60を、所定の軸42を中心として所定の軸42の周りを周回させる(当該所定の軸を中心に円状の軌道に沿って回転させる)ことであり、仮想空間内での3Dモデル60の座標位置は変化する。一方、立体視画像40は、立体視画像40を通る所定の軸42を基準として自転(すなわち仮想空間内での座標位置は変化せずにその場で所定の軸42を中心として回転)する。 The information processing terminal 10 revolves the 3D model 60 with reference to a predetermined axis 42, which is the rotation axis of the stereoscopic image 40, so that when the stereoscopic image 40 and the 3D model 60 are rotated, the 3D model 60 The position relative to the stereoscopic image 40 can be maintained. Revolving the 3D model 60 means that the 3D model 60 is orbited around a predetermined axis 42 around a predetermined axis 42 (rotated along a circular orbit around the predetermined axis). That is, the coordinate position of the 3D model 60 in the virtual space changes. On the other hand, the stereoscopic image 40 rotates about a predetermined axis 42 passing through the stereoscopic image 40 (that is, the coordinate position in the virtual space does not change and rotates about the predetermined axis 42 on the spot).

これにより、図15右に示すように、立体視画像40の映像の歪みを解消すると共に、3Dモデル60の装飾位置のずれも解消することができる。 As a result, as shown on the right side of FIG. 15, the distortion of the image of the stereoscopic image 40 can be eliminated, and the deviation of the decorative position of the 3D model 60 can also be eliminated.

なお、第2の実施例においても、立体視画像40に回転制約が設定されている場合、情報処理端末10は、回転制約内で回転制御を行い、また、必要に応じて警告を行い得る。 Also in the second embodiment, when the rotation constraint is set on the stereoscopic image 40, the information processing terminal 10 can perform rotation control within the rotation constraint and give a warning if necessary.

また、3Dモデル60の表示位置は固定ではなく、立体視画像40に連動して動かすようにしてもよい。図16は、本実施例による装飾した3Dモデル60の立体視画像40に連動した動きについて説明する図である。図16上段に示すように、例えば立体視画像40の人物の手の位置に合わせて3Dモデル60(例えばプレゼント画像)を表示している場合、3Dモデル60の表示位置を、手の位置の動きに追従させることが可能である。立体視画像40の人物の手の位置情報は、上述したように、例えば撮影時に認識して記録しておくことで、再生時に、当該手の位置に合せて3Dモデル60を配置することが可能となる。 Further, the display position of the 3D model 60 is not fixed, but may be moved in conjunction with the stereoscopic image 40. FIG. 16 is a diagram for explaining the movement of the decorated 3D model 60 according to the present embodiment in conjunction with the stereoscopic image 40. As shown in the upper part of FIG. 16, for example, when the 3D model 60 (for example, a present image) is displayed according to the position of the hand of the person in the stereoscopic image 40, the display position of the 3D model 60 is changed to the movement of the hand position. It is possible to follow. As described above, the position information of the hand of the person in the stereoscopic image 40 can be recognized and recorded at the time of shooting, for example, so that the 3D model 60 can be arranged according to the position of the hand at the time of reproduction. It becomes.

また、図16下段に示すように、立体視画像40の人物がプレゼント(3Dモデル60)をユーザに手渡すような表現を行うことも可能となる。手の位置の情報には、奥行き情報(深度情報)も含まれ、プレゼント(3Dモデル60)がユーザに近付いた場合は、3Dモデル60が大きく見えるよう表示制御することが可能である。 Further, as shown in the lower part of FIG. 16, it is possible to express that the person in the stereoscopic image 40 hands the present (3D model 60) to the user. The information on the position of the hand also includes depth information (depth information), and when the present (3D model 60) approaches the user, it is possible to control the display so that the 3D model 60 looks large.

なお、3Dモデル60の表示位置を立体視画像40に連動して動かす際も、仮想空間内ユーザ視点の変化に応じて立体視画像40をユーザ視点に正対させるよう回転制御する際は、3Dモデル60も、図15を参照して説明したように、立体視画像40と同じ回転軸および同じ回転量で回転させることで、3Dモデル60が手の位置から外れることなく表現することが可能となる。 Even when the display position of the 3D model 60 is moved in conjunction with the stereoscopic image 40, when the rotation control is performed so that the stereoscopic image 40 faces the user's viewpoint in response to a change in the user's viewpoint in the virtual space, 3D As explained with reference to FIG. 15, the model 60 can also be expressed without deviating from the position of the hand by rotating the model 60 with the same rotation axis and the same amount of rotation as the stereoscopic image 40. Become.

<<4.動作処理>>
続いて、本実施形態による情報処理システムの動作処理について、図17を用いて具体的に説明する。図17は、本実施形態による表示制御処理の流れの一例を示すフローチャートである。ここでは一例として、第2の実施例で説明した3Dモデル60の装飾や、第1の実施例で説明した回転制約および必要に応じた警告に関する処理を含めて説明する。
<< 4. Operation processing >>
Subsequently, the operation processing of the information processing system according to the present embodiment will be specifically described with reference to FIG. FIG. 17 is a flowchart showing an example of the flow of the display control process according to the present embodiment. Here, as an example, the decoration of the 3D model 60 described in the second embodiment, the rotation constraint described in the first embodiment, and the processing related to the warning as necessary will be described.

図17に示すように、まず、情報処理端末10は、実世界での視点位置に基づいて、仮想空間内での視点位置(仮想空間内ユーザ視点)を算出する(ステップS103)。仮想空間内ユーザ視点は、実世界におけるユーザの頭部の向きや視線をセンシングして算出してもよいし、ユーザが操作するコントローラに基づいて算出してもよい。 As shown in FIG. 17, first, the information processing terminal 10 calculates the viewpoint position in the virtual space (user viewpoint in the virtual space) based on the viewpoint position in the real world (step S103). The user viewpoint in the virtual space may be calculated by sensing the direction and line of sight of the user's head in the real world, or may be calculated based on the controller operated by the user.

次に、情報処理端末10は、仮想空間内での視点位置に正対するよう、(実オブジェクトを撮影して得た二次元画像に基づく)立体視画像40を回転させる(ステップS106)。これにより、仮想空間内ユーザ視点が変化しても、二次元データである立体視画像40の映像に歪みが生じることを回避することができる。また、情報処理端末10は、この際、立体視画像40に設定されている回転制約内で(回転可能な方向、角度にのみ)回転させるようにしてもよい。 Next, the information processing terminal 10 rotates the stereoscopic image 40 (based on the two-dimensional image obtained by photographing the real object) so as to face the viewpoint position in the virtual space (step S106). As a result, even if the user's viewpoint in the virtual space changes, it is possible to prevent the image of the stereoscopic image 40, which is two-dimensional data, from being distorted. Further, at this time, the information processing terminal 10 may be rotated within the rotation constraint set in the stereoscopic image 40 (only in the rotatable direction and angle).

次いで、情報処理端末10は、立体視画像40に3Dモデル60を装飾表示していた際、立体視画像40と同じ回転軸で同じ回転量(角度)だけ3Dモデル60を回転させる(ステップS109)。これにより、立体視画像40が回転しても3Dモデル60の表示位置がずれないようにすることができる。 Next, when the 3D model 60 is decoratively displayed on the stereoscopic image 40, the information processing terminal 10 rotates the 3D model 60 by the same amount of rotation (angle) on the same rotation axis as the stereoscopic image 40 (step S109). .. As a result, the display position of the 3D model 60 can be prevented from shifting even if the stereoscopic image 40 is rotated.

次に、立体視画像40に対する仮想空間内ユーザ視点が、回転制約方向において一定以上の角度になった場合(ステップS113/Yes)、情報処理端末10は、推奨される視聴方向を示す等、ユーザへの警告通知などを実施する(ステップS115)。 Next, when the user's viewpoint in the virtual space with respect to the stereoscopic image 40 becomes an angle of a certain value or more in the rotation constraint direction (step S113 / Yes), the information processing terminal 10 indicates a recommended viewing direction, and the like. (Step S115).

そして、情報処理端末10は、仮想空間内での視点位置に従って全オブジェクトを描画する(ステップS118)。 Then, the information processing terminal 10 draws all the objects according to the viewpoint position in the virtual space (step S118).

以上、本実施形態による動作処理の一例を説明した。なお図17に示す動作処理は一例であって、本開示は図17に示す例に限定されない。例えば、本開示は、図17に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。例えば、ステップS115の処理とステップS118の処理は並列に処理されてもよいし、逆の順番で処理されてもよい。 An example of the operation processing according to the present embodiment has been described above. The operation process shown in FIG. 17 is an example, and the present disclosure is not limited to the example shown in FIG. For example, the present disclosure is not limited to the order of the steps shown in FIG. At least one of the steps may be processed in parallel or in reverse order. For example, the process of step S115 and the process of step S118 may be processed in parallel, or may be processed in the reverse order.

また、図17に示す全ての処理が必ずしも実行されてなくともよい。また、図17に示す全ての処理が必ずしも単一の装置で行われなくともよい。 Further, not all the processes shown in FIG. 17 need to be executed. Further, not all the processes shown in FIG. 17 need to be performed by a single device.

<<5.その他>>
本実施形態による情報処理システムについて、以下補足する。
<< 5. Others >>
The information processing system according to this embodiment will be supplemented below.

情報処理端末10は、立体視画像40を回転制御したとき、対応する音声情報の音源位置を、立体視画像40の回転制御に併せて移動させるようにしてもよい。例えば情報処理端末10は、立体視画像40の人物の音声情報が、立体視画像40が回転した場合でも常に立体視画像40の正面から聞こえるよう音像定位処理を行うようにしてもよい。また、情報処理端末10は、仮想オブジェクトで立体視画像40が遮蔽された際、立体視画像40に対応する音声情報を変化させてもよい。例えば、立体視画像40の人物に、3Dモデル60(プレゼント画像)を装飾表示している際に、立体視画像40の人物がプレゼントで口元を隠した場合、情報処理端末10は、立体視画像40の人物の音声を、籠った声に変化させてもよい。 When the stereoscopic image 40 is rotated and controlled, the information processing terminal 10 may move the sound source position of the corresponding audio information in accordance with the rotation control of the stereoscopic image 40. For example, the information processing terminal 10 may perform sound image localization processing so that the voice information of the person in the stereoscopic image 40 can always be heard from the front of the stereoscopic image 40 even when the stereoscopic image 40 is rotated. Further, the information processing terminal 10 may change the audio information corresponding to the stereoscopic image 40 when the stereoscopic image 40 is shielded by the virtual object. For example, when the 3D model 60 (present image) is decoratively displayed on the person in the stereoscopic image 40, when the person in the stereoscopic image 40 hides his mouth with a present, the information processing terminal 10 uses the stereoscopic image. The voices of 40 people may be changed into a clogged voice.

また、情報処理端末10は、立体視画像40の回転角度に応じて、仮想空間内の照明位置に基づく立体視画像40の照明演出(影の位置、大きさ、濃さ等)を変化(再照明付与)させてもよい。立体視画像40の照明演出の変化は、予め生成(または撮影)しておいてもよい。 Further, the information processing terminal 10 changes (re-uses, etc.) the lighting effect (shadow position, size, density, etc.) of the stereoscopic image 40 based on the illumination position in the virtual space according to the rotation angle of the stereoscopic image 40. Lighting may be added). The change in the lighting effect of the stereoscopic image 40 may be generated (or photographed) in advance.

また、視聴位置が特殊な位置になった場合(例えば、立体視画像40の裏側に回り込んだ場合等)、その方向に立体視画像40の被写体が向くことがあり得ない等の場合には、情報処理端末10は、立体視画像40の回転制御を行わず、「この方向からは見えません」等の警告表示を行うようにしてもよい。これにより、立体視画像40があり得ない方向を向いている等の違和感を軽減することが可能となる。なお、立体視画像40の被写体が向くことがあり得ない方向等の情報は、回転制約として設定しておいてもよい。 In addition, when the viewing position is set to a special position (for example, when the subject wraps around the back side of the stereoscopic image 40), the subject of the stereoscopic image 40 cannot face in that direction. The information processing terminal 10 may not control the rotation of the stereoscopic image 40 and may display a warning such as "not visible from this direction". This makes it possible to reduce a sense of discomfort such as the stereoscopic image 40 facing an impossible direction. Information such as the direction in which the subject of the stereoscopic image 40 cannot be directed may be set as a rotation constraint.

<<6.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、三次元空間において二次元画像を疑似的に三次元画像に見せることが可能となる。
<< 6. Summary >>
As described above, in the information processing system according to the embodiment of the present disclosure, it is possible to make a two-dimensional image appear as a pseudo three-dimensional image in a three-dimensional space.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the present technology is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can come up with various modifications or modifications within the scope of the technical ideas described in the claims. Of course, it is understood that the above also belongs to the technical scope of the present disclosure.

例えば、上述した情報処理端末10、またはサーバ2に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理端末10、またはサーバ2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。 For example, it is possible to create a computer program for exerting the functions of the information processing terminal 10 or the server 2 on the hardware such as the CPU, ROM, and RAM built in the information processing terminal 10 or the server 2 described above. .. Also provided is a computer-readable storage medium that stores the computer program.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the techniques according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description herein, in addition to or in place of the above effects.

なお、本技術は以下のような構成も取ることができる。
(1)
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行う制御部を備える、情報処理装置。
(2)
前記制御部は、
前記所定の軸と前記ユーザ視点とを結ぶ前記直線が前記立体視画像に対して略垂直となるよう、前記立体視画像を前記所定の軸で回転させる制御を行う、前記(1)に記載の情報処理装置。
(3)
前記制御部は、
前記二次元画像に対応する回転制約内で回転制御を行う、前記(2)に記載の情報処理装置。
(4)
前記回転制約は、回転可能軸に関する制約であり、
前記制御部は、前記立体視画像上の所定の軸のうち、回転可能に設定されている軸で前記立体視画像を回転させ、前記所定の軸と前記ユーザ視点とを結ぶ前記直線が前記立体視画像に対して略垂直となる状態を維持する、前記(3)に記載の情報処理装置。
(5)
前記回転制約は、回転可能角度に関する制約であり、
前記制御部は、前記立体視画像上の所定の軸で前記立体視画像を回転させる際、前記回転可能角度内で回転制御を行う、前記(3)または(4)に記載の情報処理装置。
(6)
前記制御部は、
前記回転制約により、前記所定の軸と前記ユーザ視点とを結ぶ前記直線が、前記立体視画像に対して略垂直となる状態が維持できない場合、警告通知を行う、前記(3)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記制御部は、
前記所定の軸と前記ユーザ視点とを結ぶ前記直線が、前記立体視画像に対し、前記回転が制限されている方向に一定以上の角度を有している場合、推奨される視点方向を通知する、前記(6)に記載の情報処理装置。
(8)
前記立体視画像は、人物を撮影したステレオ映像であり、
前記回転可能軸は、前記立体視画像上の所定の軸のうち、前記三次元の空間において垂直方向となる軸とする、前記(4)に記載の情報処理装置。
(9)
前記制御部は、
前記立体視画像の位置に合わせて、三次元画像である仮想オブジェクトを表示する制御を行う、前記(2)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記制御部は、
前記仮想オブジェクトの前記三次元の空間における表示座標は、前記立体視画像の所定箇所に追従するよう変化する、前記(9)に記載の情報処理装置。
(11)
前記制御部は、
前記立体視画像を前記所定の軸で回転させる際、前記仮想オブジェクトを、当該所定の軸を基準として、前記立体視画像の回転と同じ方向に同じ回転量で回転させる、前記(9)または(10)に記載の情報処理装置。
(12)
前記制御部は、
前記3次元の空間に定位された三次元画像の定位仮想オブジェクトを表示し、
前記ユーザ視点が変化した際、前記定位仮想オブジェクトの前記三次元の空間における表示座標は変化させずに、前記ユーザ視点からの前記定位仮想オブジェクトを生成し、表示する、前記(2)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記情報処理装置は、表示部を備え、
前記制御部は、
実空間から取得した情報に基づいて前記三次元の空間内における前記ユーザ視点を算出し、
前記表示部に、生成した前記ユーザ視点の前記三次元の空間の画像を表示する、前記(2)〜(12)のいずれか1項に記載の情報処理装置。
(14)
プロセッサが、
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行うことを含む、情報処理方法。
(15)
コンピュータを、
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行う制御部として機能させるための、プログラム。
The present technology can also have the following configurations.
(1)
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
An information processing device provided with a control unit for performing the above.
(2)
The control unit
The above (1), wherein the stereoscopic image is controlled to be rotated by the predetermined axis so that the straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the stereoscopic image. Information processing device.
(3)
The control unit
The information processing apparatus according to (2) above, which controls rotation within a rotation constraint corresponding to the two-dimensional image.
(4)
The rotation constraint is a constraint on the rotatable axis.
The control unit rotates the stereoscopic image on a axis set to be rotatable among the predetermined axes on the stereoscopic image, and the straight line connecting the predetermined axis and the user's viewpoint is the stereoscopic image. The information processing apparatus according to (3) above, which maintains a state of being substantially perpendicular to a visual image.
(5)
The rotation constraint is a constraint on the rotatable angle.
The information processing device according to (3) or (4), wherein the control unit controls rotation within the rotatable angle when rotating the stereoscopic image on a predetermined axis on the stereoscopic image.
(6)
The control unit
When the straight line connecting the predetermined axis and the user's viewpoint cannot be maintained in a state of being substantially perpendicular to the stereoscopic image due to the rotation constraint, a warning is given, according to the above (3) to (5). The information processing apparatus according to any one of the above items.
(7)
The control unit
When the straight line connecting the predetermined axis and the user viewpoint has an angle of a certain value or more in the direction in which the rotation is restricted with respect to the stereoscopic image, the recommended viewpoint direction is notified. , The information processing apparatus according to (6) above.
(8)
The stereoscopic image is a stereo image of a person, and is a stereoscopic image.
The information processing apparatus according to (4), wherein the rotatable axis is an axis that is perpendicular to the three-dimensional space among predetermined axes on the stereoscopic image.
(9)
The control unit
The information processing device according to any one of (2) to (8) above, which controls the display of a virtual object which is a three-dimensional image according to the position of the stereoscopic image.
(10)
The control unit
The information processing apparatus according to (9), wherein the display coordinates of the virtual object in the three-dimensional space change so as to follow a predetermined position of the stereoscopic image.
(11)
The control unit
(9) or ( The information processing apparatus according to 10).
(12)
The control unit
A localization virtual object of a three-dimensional image localized in the three-dimensional space is displayed, and the object is displayed.
When the user viewpoint changes, the localization virtual object from the user viewpoint is generated and displayed without changing the display coordinates of the localization virtual object in the three-dimensional space. The information processing apparatus according to any one of ().
(13)
The information processing device includes a display unit.
The control unit
Based on the information acquired from the real space, the user's viewpoint in the three-dimensional space is calculated.
The information processing device according to any one of (2) to (12), wherein the generated image of the three-dimensional space of the user's viewpoint is displayed on the display unit.
(14)
The processor,
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
Information processing methods, including doing.
(15)
Computer,
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
A program to function as a control unit that performs

2 サーバ
3 ネットワーク
10 情報処理端末
100 制御部
101 ユーザ視点認識部
102 仮想空間視点算出部
103 画像生成部
104 表示制御部
110 通信部
120 操作入力部
130 センサ部
131 位置情報取得部
132 カメラ
133 マイク(マイクロホン)
134 加速度センサ
135 生体センサ
140 表示部
142 警告表示
150 スピーカ
160 記憶部
40 立体視画像
42 所定の軸
50a 仮想オブジェクト(定位仮想オブジェクト)
50b 仮想オブジェクト(定位仮想オブジェクト)
60 3Dモデル(仮想オブジェクト)
2 Server 3 Network 10 Information processing terminal 100 Control unit 101 User viewpoint recognition unit 102 Virtual space viewpoint calculation unit 103 Image generation unit 104 Display control unit 110 Communication unit 120 Operation input unit 130 Sensor unit 131 Position information acquisition unit 132 Camera 133 Microphone ( Microphone)
134 Accelerometer 135 Biological sensor 140 Display unit 142 Warning display 150 Speaker 160 Storage unit 40 Stereoscopic image 42 Predetermined axis 50a Virtual object (localization virtual object)
50b virtual object (localized virtual object)
60 3D model (virtual object)

Claims (15)

実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行う制御部を備える、情報処理装置。
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
An information processing device provided with a control unit for performing the above.
前記制御部は、
前記所定の軸と前記ユーザ視点とを結ぶ前記直線が前記立体視画像に対して略垂直となるよう、前記立体視画像を前記所定の軸で回転させる制御を行う、請求項1に記載の情報処理装置。
The control unit
The information according to claim 1, wherein the stereoscopic image is controlled to be rotated by the predetermined axis so that the straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the stereoscopic image. Processing equipment.
前記制御部は、
前記二次元画像に対応する回転制約内で回転制御を行う、請求項2に記載の情報処理装置。
The control unit
The information processing apparatus according to claim 2, wherein rotation control is performed within the rotation constraint corresponding to the two-dimensional image.
前記回転制約は、回転可能軸に関する制約であり、
前記制御部は、前記立体視画像上の所定の軸のうち、回転可能に設定されている軸で前記立体視画像を回転させ、前記所定の軸と前記ユーザ視点とを結ぶ前記直線が前記立体視画像に対して略垂直となる状態を維持する、請求項3に記載の情報処理装置。
The rotation constraint is a constraint on the rotatable axis.
The control unit rotates the stereoscopic image on a axis set to be rotatable among the predetermined axes on the stereoscopic image, and the straight line connecting the predetermined axis and the user's viewpoint is the stereoscopic image. The information processing apparatus according to claim 3, which maintains a state of being substantially perpendicular to the visual image.
前記回転制約は、回転可能角度に関する制約であり、
前記制御部は、前記立体視画像上の所定の軸で前記立体視画像を回転させる際、前記回転可能角度内で回転制御を行う、請求項3に記載の情報処理装置。
The rotation constraint is a constraint on the rotatable angle.
The information processing device according to claim 3, wherein the control unit controls rotation within the rotatable angle when rotating the stereoscopic image on a predetermined axis on the stereoscopic image.
前記制御部は、
前記回転制約により、前記所定の軸と前記ユーザ視点とを結ぶ前記直線が、前記立体視画像に対して略垂直となる状態が維持できない場合、警告通知を行う、請求項3に記載の情報処理装置。
The control unit
The information processing according to claim 3, wherein a warning is given when the straight line connecting the predetermined axis and the user's viewpoint cannot be maintained in a state of being substantially perpendicular to the stereoscopic image due to the rotation constraint. Device.
前記制御部は、
前記所定の軸と前記ユーザ視点とを結ぶ前記直線が、前記立体視画像に対し、前記回転が制限されている方向に一定以上の角度を有している場合、推奨される視点方向を通知する、請求項6に記載の情報処理装置。
The control unit
When the straight line connecting the predetermined axis and the user viewpoint has an angle of a certain value or more in the direction in which the rotation is restricted with respect to the stereoscopic image, the recommended viewpoint direction is notified. , The information processing apparatus according to claim 6.
前記立体視画像は、人物を撮影したステレオ映像であり、
前記回転可能軸は、前記立体視画像上の所定の軸のうち、前記三次元の空間において垂直方向となる軸とする、請求項4に記載の情報処理装置。
The stereoscopic image is a stereo image of a person, and is a stereoscopic image.
The information processing apparatus according to claim 4, wherein the rotatable axis is an axis that is perpendicular to the three-dimensional space among predetermined axes on the stereoscopic image.
前記制御部は、
前記立体視画像の位置に合わせて、三次元画像である仮想オブジェクトを表示する制御を行う、請求項2に記載の情報処理装置。
The control unit
The information processing apparatus according to claim 2, wherein the information processing device controls to display a virtual object which is a three-dimensional image according to the position of the stereoscopic image.
前記制御部は、
前記仮想オブジェクトの前記三次元の空間における表示座標は、前記立体視画像の所定箇所に追従するよう変化する、請求項9に記載の情報処理装置。
The control unit
The information processing apparatus according to claim 9, wherein the display coordinates of the virtual object in the three-dimensional space change so as to follow a predetermined portion of the stereoscopic image.
前記制御部は、
前記立体視画像を前記所定の軸で回転させる際、前記仮想オブジェクトを、当該所定の軸を基準として、前記立体視画像の回転と同じ方向に同じ回転量で回転させる、請求項9に記載の情報処理装置。
The control unit
The ninth aspect of claim 9, wherein when the stereoscopic image is rotated about the predetermined axis, the virtual object is rotated with the same rotation amount in the same direction as the rotation of the stereoscopic image with respect to the predetermined axis. Information processing device.
前記制御部は、
前記3次元の空間に定位された三次元画像の定位仮想オブジェクトを表示し、
前記ユーザ視点が変化した際、前記定位仮想オブジェクトの前記三次元の空間における表示座標は変化させずに、前記ユーザ視点からの前記定位仮想オブジェクトを生成し、表示する、請求項2に記載の情報処理装置。
The control unit
A localization virtual object of a three-dimensional image localized in the three-dimensional space is displayed, and the object is displayed.
The information according to claim 2, wherein when the user viewpoint changes, the localization virtual object from the user viewpoint is generated and displayed without changing the display coordinates of the localization virtual object in the three-dimensional space. Processing equipment.
前記情報処理装置は、表示部を備え、
前記制御部は、
実空間から取得した情報に基づいて前記三次元の空間内における前記ユーザ視点を算出し、
前記表示部に、生成した前記ユーザ視点の前記三次元の空間の画像を表示する、請求項2に記載の情報処理装置。
The information processing device includes a display unit.
The control unit
Based on the information acquired from the real space, the user's viewpoint in the three-dimensional space is calculated.
The information processing device according to claim 2, wherein the generated image of the three-dimensional space of the user's viewpoint is displayed on the display unit.
プロセッサが、
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行うことを含む、情報処理方法。
The processor,
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
Information processing methods, including doing.
コンピュータを、
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行う制御部として機能させるための、プログラム。
Computer,
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
A program to function as a control unit that performs
JP2018134800A 2018-07-18 2018-07-18 Information processing apparatus, information processing method, and program Pending JP2021177580A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018134800A JP2021177580A (en) 2018-07-18 2018-07-18 Information processing apparatus, information processing method, and program
PCT/JP2019/027566 WO2020017435A1 (en) 2018-07-18 2019-07-11 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018134800A JP2021177580A (en) 2018-07-18 2018-07-18 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2021177580A true JP2021177580A (en) 2021-11-11

Family

ID=69164018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018134800A Pending JP2021177580A (en) 2018-07-18 2018-07-18 Information processing apparatus, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2021177580A (en)
WO (1) WO2020017435A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074596A1 (en) 2021-10-29 2023-05-04 日油株式会社 Treatment fluid for soft contact lens
WO2023140120A1 (en) * 2022-01-21 2023-07-27 ソニーグループ株式会社 Surgical robot system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022192306A1 (en) * 2021-03-11 2022-09-15 Dathomir Laboratories Llc Image display within a three-dimensional environment

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3958150B2 (en) * 2002-08-22 2007-08-15 シャープ株式会社 Display correction apparatus, display correction method, display correction program, and recording medium on which display correction program is recorded
JP3871061B2 (en) * 2003-03-25 2007-01-24 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP4688768B2 (en) * 2006-09-26 2011-05-25 シャープ株式会社 Image adjustment method and projector
JP5183277B2 (en) * 2008-04-03 2013-04-17 三菱電機株式会社 Stereoscopic image display device
JP5386883B2 (en) * 2008-08-20 2014-01-15 セイコーエプソン株式会社 Projector and projector control method
JP5552197B2 (en) * 2012-01-18 2014-07-16 パナソニック株式会社 3D image processing apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023074596A1 (en) 2021-10-29 2023-05-04 日油株式会社 Treatment fluid for soft contact lens
WO2023140120A1 (en) * 2022-01-21 2023-07-27 ソニーグループ株式会社 Surgical robot system

Also Published As

Publication number Publication date
WO2020017435A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP6646620B2 (en) Wide-ranging simultaneous remote digital presentation world
EP3008698B1 (en) Head-mountable apparatus and systems
US9842433B2 (en) Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality
CN106170083B (en) Image processing for head mounted display device
US11277603B2 (en) Head-mountable display system
US20150054734A1 (en) Head-mountable apparatus and systems
JP7496460B2 (en) Image generating device and image generating method
WO2014199155A1 (en) Head-mountable apparatus and systems
US20200089333A1 (en) Virtual reality
CN106168855B (en) Portable MR glasses, mobile phone and MR glasses system
WO2017051570A1 (en) Information processing device, information processing method, and program
CN107810634A (en) Display for three-dimensional augmented reality
WO2020017435A1 (en) Information processing device, information processing method, and program
WO2017126433A1 (en) Information processing device and user guide presentation method
KR20240121342A (en) Systems and methods for augmented reality
WO2017191702A1 (en) Image processing device
JP2012223357A (en) Video game device and video game control method
US20240036327A1 (en) Head-mounted display and image displaying method
WO2018115840A1 (en) Virtual reality content control
EP3673348B1 (en) Data processing device, method and non-transitory machine-readable medium for detecting motion of the data processing device
JP7104539B2 (en) Simulation system and program
WO2020234559A1 (en) Data processing
WO2018173206A1 (en) Information processing device
JP7111848B2 (en) Program, Information Processing Apparatus, and Method
WO2021153413A1 (en) Information processing device, information processing system, and information processing method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222