JP2021177580A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2021177580A JP2021177580A JP2018134800A JP2018134800A JP2021177580A JP 2021177580 A JP2021177580 A JP 2021177580A JP 2018134800 A JP2018134800 A JP 2018134800A JP 2018134800 A JP2018134800 A JP 2018134800A JP 2021177580 A JP2021177580 A JP 2021177580A
- Authority
- JP
- Japan
- Prior art keywords
- stereoscopic image
- information processing
- image
- user
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
- H04N13/279—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/361—Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法、およびプログラムに関する。 The present disclosure relates to information processing devices, information processing methods, and programs.
近年普及しているVR(Virtual Reality)アプリケーションでは、3Dモデルが配置された仮想空間内を、ユーザが任意の視点から視聴することができる。このようなVRの世界は、主にユーザの視界を表示部で覆う非透過型のHMD(Head Mounted Display)を用いて提供され得る。 In a VR (Virtual Reality) application that has become widespread in recent years, a user can view a virtual space in which a 3D model is arranged from an arbitrary viewpoint. Such a VR world can be provided mainly by using a non-transparent HMD (Head Mounted Display) that covers the user's field of view with a display unit.
仮想空間内へのユーザ動作の反映は、例えば実世界を撮影した撮影画像から実世界に係る情報を取得して行われる。具体的には、ユーザの体やマーカーをカメラで撮影し、その像の領域を検出してユーザの動き等の操作入力情報を取得し、仮想空間へ反映する手法が一例として用いられる。 The reflection of the user's operation in the virtual space is performed, for example, by acquiring information related to the real world from a photographed image of the real world. Specifically, a method is used as an example in which a user's body or marker is photographed with a camera, an area of the image is detected, operation input information such as a user's movement is acquired, and the information is reflected in a virtual space.
このような実世界に係る情報の取得はより正確に行われることが望ましく、例えば下記特許文献1では、実世界を撮影した映像を、メインデータの他に補助データとしてユーザに提示し、情報処理装置側で実空間についてどのような認識を行っているかをユーザに示し、不具合に係る気づきを与える技術が開示されている。 It is desirable that such information related to the real world be acquired more accurately. For example, in Patent Document 1 below, an image of the real world is presented to the user as auxiliary data in addition to the main data, and information processing is performed. A technique for showing the user what kind of recognition the real space is performed on the device side and giving awareness of the defect is disclosed.
ここで、視聴対象に、よりリアルな実世界の人物等の3Dモデルを用いることも想定される。しかしながら、実写映像から人物等を3Dモデル化するには、非常に多くのカメラが設置された特殊な撮影スタジオにて撮影する必要があった。また、そのようにして生成した3Dモデルの映像品質は、テレビなどで通常視聴する人物等の映像品質と比較すると大きく劣化した映像となってしまう。 Here, it is assumed that a 3D model of a more realistic real-world person or the like is used as the viewing target. However, in order to make a person or the like into a 3D model from a live-action image, it was necessary to shoot in a special shooting studio equipped with a large number of cameras. Further, the image quality of the 3D model generated in this way is significantly deteriorated as compared with the image quality of a person or the like who normally watches on a television or the like.
そこで、本開示では、三次元空間において二次元画像を疑似的に三次元画像に見せることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。 Therefore, the present disclosure proposes an information processing device, an information processing method, and a program capable of making a two-dimensional image appear as a pseudo three-dimensional image in a three-dimensional space.
本開示によれば、実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、を行う制御部を備える、情報処理装置を提案する。 According to the present disclosure, display control for arranging a two-dimensional image obtained by photographing a real object as a stereoscopic image in a three-dimensional space and a predetermined axis on the stereoscopic image are used as a reference. We propose an information processing apparatus including a control unit that maintains a state in which a straight line connecting an axis and a user's viewpoint is substantially perpendicular to the stereoscopic image.
本開示によれば、プロセッサが、実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、を行うことを含む、情報処理方法を提案する。 According to the present disclosure, the processor arranges a two-dimensional image obtained by photographing a real object as a stereoscopic image in a three-dimensional space, and a predetermined axis on the stereoscopic image is used as a reference. We propose an information processing method including performing display control for maintaining a state in which a straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the stereoscopic image.
本開示によれば、コンピュータを、実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、を行う制御部として機能させるための、プログラムを提案する。 According to the present disclosure, with reference to display control in which a computer arranges a two-dimensional image obtained by photographing a real object in a three-dimensional space as a stereoscopic image, and a predetermined axis on the stereoscopic image as a reference. We propose a program for functioning as a control unit that performs display control for maintaining a state in which a straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the stereoscopic image.
以上説明したように本開示によれば、三次元空間において二次元画像を疑似的に三次元画像に見せることが可能となる。 As described above, according to the present disclosure, it is possible to make a two-dimensional image appear as a pseudo three-dimensional image in a three-dimensional space.
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 It should be noted that the above effects are not necessarily limited, and together with or in place of the above effects, any of the effects shown herein, or any other effect that can be grasped from this specification. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.情報処理端末の構成
3.立体視表示制御例
3−1.第1の実施例
(3−1−1.回転制御)
(3−1−2.回転制約)
(3−1−3.警告)
3−2.第2の実施例
4.動作処理
5.その他
6.まとめ
In addition, the explanation shall be given in the following order.
1. 1. Outline of the information processing system according to the embodiment of the present disclosure 2. Configuration of
(3-1-2. Rotation constraint)
(3-1-3. Warning)
3-2. Second Example 4. Operation processing 5. Others 6. summary
<<1.本開示の一実施形態による情報処理システムの概要>>
図1は、本開示の一実施形態による情報処理システムの概要について説明する図である。図1に示すように、本実施形態による情報処理システムは、例えばユーザの頭部に装着され、ユーザの視界を表示部140で覆う非透過型のHMD等の表示装置により実現される情報処理端末10により、仮想空間の画像をユーザに提示する。HMDを頭部に装着した際に外界を遮る構成にすることで、視聴時の仮想現実感を増すことができる。
<< 1. Outline of information processing system according to one embodiment of the present disclosure >>
FIG. 1 is a diagram illustrating an outline of an information processing system according to an embodiment of the present disclosure. As shown in FIG. 1, the information processing system according to the present embodiment is an information processing terminal realized by a display device such as a non-transmissive HMD that is attached to the user's head and covers the user's field of view with a
また、仮想空間内には、例えば、生成された三次元画像(いわゆる3Dモデル)である仮想オブジェクト50a、50bが背景として定位されている(定位仮想オブジェクト)。かかる仮想オブジェクト50a、50bは、仮想空間内で奥行き情報を含めた形状データを有し、任意の視点から視聴しても形状が破綻せずに表示され得る。すなわち、仮想空間に定位された仮想オブジェクト50a、50bは、ユーザの視点や姿勢の変化に対してその運動視差を変化させる。
Further, in the virtual space, for example,
さらに、本開示による情報処理システムでは、仮想空間内に、実空間の人物等(実オブジェクト)を撮像して得た情報に基づいて立体視画像40を配置する。
Further, in the information processing system according to the present disclosure, the
(背景)
ここで、視聴対象に、よりリアルな実世界の人物等の3Dモデルを用いる場合、実写映像から人物等を3Dモデル化するには、非常に多くのカメラが設置された特殊な撮影スタジオにて撮影する必要がある。また、そのようにして生成した3Dモデルの映像品質は、通常テレビなどで視聴している人物等の映像品質と比較すると大きく劣化した映像となってしまうことがあった。
(background)
Here, when a more realistic 3D model of a person in the real world is used as the viewing target, in order to make the person etc. into a 3D model from the live-action video, in a special shooting studio where a large number of cameras are installed. I need to shoot. In addition, the image quality of the 3D model generated in this way may be significantly deteriorated as compared with the image quality of a person or the like who is normally viewing on a television or the like.
なお、立体視技術として、ステレオ映像技術が知られている。ステレオ映像はステレオカメラにより撮影された2枚の2D映像(左視点画像および右視点画像)から構成され、左視点画像を左目だけに見せ、右視点画像を右目だけに見せることで、ステレオ映像(2D映像)を立体視させることが可能となる。したがって、仮想空間内に、実オブジェクト(例えば人物)を撮影して得たステレオ映像を立体視映像として配置することで、実写映像から3Dモデル化せずに、映像品質を落としたり撮影のコストを掛けたりすることなく、実世界の人物等を仮想空間内で立体視させることが可能となる。 As a stereoscopic vision technique, a stereo image technique is known. A stereo image is composed of two 2D images (left viewpoint image and right viewpoint image) taken by a stereo camera. By showing the left viewpoint image only to the left eye and the right viewpoint image only to the right eye, the stereo image (stereo image) 2D images) can be viewed stereoscopically. Therefore, by arranging the stereo image obtained by shooting a real object (for example, a person) as a stereoscopic image in the virtual space, the image quality can be lowered and the cost of shooting can be reduced without making a 3D model from the live-action image. It is possible to stereoscopically view a person in the real world in a virtual space without hanging it.
しかしながら、仮想空間を特定の視点(正面)からしか視聴しない場合には、ステレオ映像により提示される立体視映像が破綻することはないが、図2に示すように、仮想空間内でユーザが視点を左右に移動させ、立体視画像40を斜めから見た場合、図3に示すように、正面から見た場合は違和感の無い立体視画像40が(図3左参照)、斜めから見ると二次元画像である立体視画像40に歪みが生じてしまう(図3右参照)。
However, when the virtual space is viewed only from a specific viewpoint (front), the stereoscopic image presented by the stereo image does not collapse, but as shown in FIG. 2, the user can view the viewpoint in the virtual space. When the
そこで、本開示による情報処理システムでは、立体視画像をユーザ視点に対して正対させる状態を維持することで、三次元空間において二次元画像を疑似的に三次元画像に見せることを可能とする。具体的には、本開示による情報処理システムは、立体視画像を通る所定の軸を基準として、当該所定の軸とユーザの視点とを結ぶ直線が、当該立体視画像の面に対して略垂直となるよう立体視画像の向きを回転させることで、ユーザ視点に対して正対させることが可能となる。 Therefore, in the information processing system according to the present disclosure, it is possible to make a two-dimensional image appear as a pseudo three-dimensional image in a three-dimensional space by maintaining a state in which the stereoscopic image faces the user's viewpoint. .. Specifically, in the information processing system according to the present disclosure, a straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the surface of the stereoscopic image with reference to a predetermined axis passing through the stereoscopic image. By rotating the orientation of the stereoscopic image so as to be, it is possible to face the user's viewpoint.
仮想空間内には、背景等、空間定位された3Dモデル(定位仮想オブジェクト)が存在し、ユーザの視点や姿勢の変化に対してその運動視差を変化させるため(定位仮想オブジェクトの表示座標は変化しない)、このような3Dモデルと、立体視画像とを同時に視認するユーザは、視点を変化させた際、立体視画像がユーザ視点に対して正対するよう回転制御されても、当該立体視画像を二次元画像と認識し難く、三次元画像と錯覚し易くなる。 In the virtual space, there is a spatially localized 3D model (localized virtual object) such as a background, and the motion parallax is changed in response to a change in the user's viewpoint or posture (the display coordinates of the localized virtual object change). The user who simultaneously visually recognizes such a 3D model and the stereoscopic image does not, even if the stereoscopic image is rotationally controlled so as to face the user's viewpoint when the viewpoint is changed. Is difficult to recognize as a two-dimensional image, and it is easy to mistake it as a three-dimensional image.
このように、本開示による情報処理システムでは、実写映像から3Dモデル化を行うことなく、撮影時のコストを掛けずに簡易的な装置・設備・手法で生成された二次元画像(具体的にはステレオ映像)を用いて、映像品質を落とさずに、リアルな実世界の人物等を三次元空間内で提示することが可能となる。 As described above, in the information processing system according to the present disclosure, a two-dimensional image (specifically,) generated by a simple device / equipment / method without performing 3D modeling from a live image and without incurring a cost at the time of shooting. Is a stereo image), it is possible to present a real-world person or the like in a three-dimensional space without degrading the image quality.
また、立体視画像をユーザ視線に対して正対させる状態を維持することで、ユーザ視点が移動した場合にも立体視画像の歪みを生じさせずに、二次元画像である立体視画像を疑似的に三次元画像に見せることが可能となる。すなわち、仮想空間内での映像体験において、ユーザの視点の変化に応じた適切な映像変化(擬似的な三次元化)を付与することができ、ユーザの映像体験価値を向上させることができる。 In addition, by maintaining the state in which the stereoscopic image faces the user's line of sight, the stereoscopic image, which is a two-dimensional image, is simulated without causing distortion of the stereoscopic image even when the user's viewpoint moves. It is possible to make it look like a three-dimensional image. That is, in the video experience in the virtual space, it is possible to give an appropriate video change (pseudo three-dimensionalization) according to the change in the user's viewpoint, and it is possible to improve the video experience value of the user.
なお、立体視画像は、実オブジェクトを予め撮影して得た二次元画像に基づいて生成してもよいし、実オブジェクトをリアルタイムで撮影して得た二次元画像に基づいて生成してもよい。 The stereoscopic image may be generated based on a two-dimensional image obtained by photographing a real object in advance, or may be generated based on a two-dimensional image obtained by photographing a real object in real time. ..
続いて、このような本実施形態による情報処理システムの全体構成について図4を参照して説明する。図4は、本実施形態による情報処理システムの全体構成の一例を示す図である。 Subsequently, the overall configuration of the information processing system according to the present embodiment will be described with reference to FIG. FIG. 4 is a diagram showing an example of the overall configuration of the information processing system according to the present embodiment.
図4に示すように、本実施形態による情報処理システムは、仮想空間の画像生成や表示部140への表示制御を行う情報処理端末10と、仮想空間のコンテンツ情報を格納するサーバ2とを含む構成であってもよい。情報処理端末10と、サーバ2は、ネットワーク3を介して通信接続し、データの送受信が可能である。
As shown in FIG. 4, the information processing system according to the present embodiment includes an
情報処理端末10は、サーバ2から仮想空間のコンテンツを取得すると共に、当該コンテンツから、ユーザの動きやコントローラ操作等に応じて自由視点画像を生成し、表示部140に提供する。ユーザの動きとは、ユーザの位置や姿勢(頭部の向きを含む)の変化であって、情報処理端末10は、検出したユーザの位置や姿勢から実世界でのユーザ視点位置(3次元位置)を認識し、認識したユーザ視点位置に基づいて仮想空間内でのユーザ視点位置(以下、仮想空間内ユーザ視点とも称す)を算出する。
The
ユーザに提供される仮想空間のコンテンツは、全天球コンテンツ、自由視点コンテンツ、またはゲームコンテンツ等である。自由視点コンテンツとは、任意の位置に仮想カメラを置いた際の映像を生成し、あらゆる視点からの映像視聴を可能としたものである。また、本明細書で使用する「仮想空間」(または「VR空間」)との用語は、実際のユーザが、1つ以上の表示装置を介して感知し得る、および/または1つ以上のユーザインタフェースを介してインタラクトしうる、1つ以上のプロセッサによってシミュレートされるインタラクションのルールを有する現実または架空の環境の表現を指す。「ユーザインタフェース」との用語は、ユーザが仮想世界との間で、入力を送信するか出力を受信することができる実際のデバイスを指す。 The content of the virtual space provided to the user is spherical content, free-viewpoint content, game content, or the like. The free-viewpoint content generates an image when the virtual camera is placed at an arbitrary position, and enables the image to be viewed from any viewpoint. Also, as used herein, the term "virtual space" (or "VR space") can be perceived by a real user through one or more display devices and / or one or more users. Refers to a representation of a real or fictitious environment with rules of interaction simulated by one or more processors that can interact through an interface. The term "user interface" refers to the actual device on which the user can send input or receive output to and from the virtual world.
仮想空間内では、ユーザがアバターによって表現されてもよいし、ディスプレイにアバターを表示せずに、アバターの視点から仮想空間の世界を表示してもよい。本明細書において、仮想空間におけるユーザの(またはアバターの)視点(仮想空間内ユーザ視点)とは、仮想カメラの視界とみなすことができる。「仮想カメラ」とは、仮想空間内の視点を指し、三次元の仮想空間を二次元画像としてディスプレイ(表示装置)に描画するための計算に使用される。本実施形態による情報処理システムは、さらに、ユーザの意図をシステムに伝えるためのリモートコントローラやゲームコントローラを含んでもよい。 In the virtual space, the user may be represented by an avatar, or the world of the virtual space may be displayed from the viewpoint of the avatar without displaying the avatar on the display. In the present specification, the user's (or avatar's) viewpoint (user's viewpoint in the virtual space) in the virtual space can be regarded as the field of view of the virtual camera. The "virtual camera" refers to a viewpoint in a virtual space, and is used in a calculation for drawing a three-dimensional virtual space as a two-dimensional image on a display (display device). The information processing system according to the present embodiment may further include a remote controller or a game controller for communicating the user's intention to the system.
また、情報処理端末10は、上述したように、例えばユーザの頭部に装着されるHMDにより実現される。HMDは、左右の眼毎の画像表示部を有すると共に、ヘッドフォンを併用し、視覚および聴覚を制御できるよう構成されていてもよい。また、HMDは、左右の眼に違う映像を映し出すことも可能であり、左右の眼に対して視差のある画像を表示することで3D画像を提示することが可能である。また、情報処理端末10は、テレビ装置やスマートフォン、またはタブレット端末等、非装着型のディスプレイに仮想空間画像を提示するデバイスであってもよい。
Further, as described above, the
以上、本開示の一実施形態による情報処理システムについて説明した。続いて、本実施形態による情報処理システムに含まれる情報処理端末10の具体的な構成について図面を参照して説明する。
The information processing system according to the embodiment of the present disclosure has been described above. Subsequently, a specific configuration of the
<<2.情報処理端末10の構成>>
図5は、本実施形態による情報処理端末10の構成の一例を示すブロック図である。図5に示すように、情報処理端末10は、制御部100、通信部110、操作入力部120、センサ部130、表示部140、スピーカ150、および記憶部160を有する。
<< 2. Configuration of
FIG. 5 is a block diagram showing an example of the configuration of the
制御部100は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理端末10内の動作全般を制御する。制御部100は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部100は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。
The
また、本実施形態による制御部100は、ユーザ視点認識部101、仮想空間視点算出部102、画像生成部103、および表示制御部104としても機能する。
The
ユーザ視点認識部101は、センサ部130等によりセンシングされたユーザの位置や姿勢(頭部の向きを含む)から、実世界でのユーザ視点位置(3次元位置)を認識する。次いで、仮想空間視点算出部102は、ユーザ視点認識部101により認識された実世界のユーザ視点に基づいて、仮想空間内ユーザ視点を算出する。次に、画像生成部103は、仮想空間視点算出部102により算出された仮想空間内ユーザ視点に対応する仮想空間の自由視点画像を生成し、表示制御部104は、当該生成された仮想空間の自由視点画像を、表示部140に表示する。これらの処理を継続的に行うことで、ユーザが実世界で前後左右に移動したり視点を変化させると、仮想空間でも同じ移動量(または所定の比率での対応する移動量)で前後左右に移動したり視点を変化させることができ、没入感の高いVR体験を楽しむことができる。
The user
ユーザの位置や姿勢の検出は、例えば情報処理端末10に設けられたセンサ部130により行われる。ユーザ視点認識部101は、センサ部130によりセンシングされたセンシングデータに基づいて、ユーザの頭部の動きを追従したり(ヘッドトラッキング)、視線の動きを追従したり(アイトラッキング)、位置や姿勢を追従したり(ポジショントラッキング)することで、実空間のユーザ視点位置を継続的に認識し得る。
The user's position and posture are detected by, for example, the
より具体的には、例えばヘッドトラッキングは、ユーザの頭部に装着された情報処理端末10のセンサ部130により検出された9軸の検出結果に基づいて、頭部の姿勢情報を算出することにより行われ得る。また、アイトラッキングは、ユーザの頭部に装着された情報処理端末10のセンサ部130により検出されたユーザの眼の撮像画像(例えば赤外線を眼に発光してその反射を撮像した赤外線画像)に基づいて、ユーザの視線(視線方向)を算出することにより行われ得る。また、ポジショントラッキングには、外部に設置したセンサを利用するアウトサイド・イン方式と、計測したいもの自体(HMD)に搭載したセンサを利用するインサイド・アウト方式と、これらの組み合わせであるハイブリッド方式とがある。
More specifically, for example, in head tracking, the posture information of the head is calculated based on the detection result of 9 axes detected by the
アウトサイド・イン方式では、例えばHMDに設けた複数のLEDライト(マーカー)の位置を外部に設置したカメラにより撮像して取得し、取得したLEDライトの位置情報の変化に基づいて位置および姿勢を算出する。なお、ユーザ視点認識部101は、LEDライトの位置情報の変化と、HMDに設けたモーションセンサデータとに基づいて、ユーザの頭部姿勢を含むユーザ姿勢の算出を行うことも可能である。一方、インサイド・アウト方式では、HMDに設けられたモーションセンサ、深度センサ、および外向きカメラにより取得した情報に基づいて、ユーザの位置および姿勢を算出する。例えば、HMDに設けられた外向きカメラにより外界を撮像し、予めSLAM(Simultaneous Localization and Mapping)技術により生成した空間マップと比較してユーザの位置情報を取得したり、モーションセンサや深度センサの情報と併せてユーザの姿勢を算出したりすることが可能である。
In the outside-in method, for example, the positions of a plurality of LED lights (markers) provided in the HMD are imaged and acquired by a camera installed outside, and the position and posture are determined based on the change in the acquired position information of the LED lights. calculate. The user
また、本実施形態による画像生成部103は、実オブジェクトを撮影して得た二次元画像(例えば、人物のステレオ映像)を立体視画像として三次元の空間内に配置する画像を生成し得る。これにより、実写の人物等を、撮影コストを掛けず、また、映像品質を落とすことなく、仮想空間内に配置することができる。なお、実写のステレオ映像は、その背景を残したままだと3次元空間の背景と馴染まないため、背景除去を実施したステレオ映像を用いるようにしてもよい。背景除去は、例えばクリーンバックでの撮影等により可能である。
Further, the
また、表示制御部104は、仮想空間内ユーザ視点が変化した場合に、立体視させている二次元画像に違和感が生じないよう、仮想空間内ユーザ視点に対して当該二次元画像が正対するよう回転させる制御を行い得る。表示制御部104は、立体視させている右目用画像と左目用画像を合わせて1オブジェクトとみなし、当該オブジェクトが視点に対して正対するよう回転させる。これにより、より確実に、三次元空間において二次元画像を疑似的に三次元画像に見せることができ、ユーザの映像体験価値を向上させることが可能となる。
Further, the
このような本実施形態による実オブジェクトを撮影して得た二次元画像の立体視表示制御の詳細に関しては、図面を用いて後述する。 The details of the stereoscopic display control of the two-dimensional image obtained by photographing the real object according to the present embodiment will be described later with reference to the drawings.
(通信部110)
通信部110は、有線または無線によりネットワーク3と接続し、ネットワーク上のサーバ2とデータの送受信を行う。通信部110は、例えば有線/無線LAN(Local Area Network)、またはWi−Fi(登録商標)、Bluetooth(登録商標)、携帯通信網(LTE(Long Term Evolution)、3G(第3世代の移動体通信方式))等によりネットワーク3と通信接続する。
(Communication unit 110)
The
(操作入力部120)
操作入力部120は、ユーザによる操作指示を受付け、その操作内容を制御部100に出力する。操作入力部120は、例えばタッチセンサ、圧力センサ、若しくは近接センサであってもよい。あるいは、操作入力部120は、ボタン、スイッチ、およびレバーなど、物理的構成であってもよい。
(Operation input unit 120)
The
(センサ部130)
センサ部130は、ユーザまたは周辺の状況等、実空間をセンシングする機能を有する。具体的には、センサ部130は、位置情報取得部131、カメラ132(内向き/外向きカメラ)、マイク(マイクロホン)133、加速度センサ134、および生体センサ135(脈拍、心拍、発汗、血圧、体温、呼吸、筋電値、脳波)等を含む。なお、センサ部130の具体例はこれに限定されず、例えば、センサ部130は、3軸ジャイロセンサ、3軸加速度センサ、および3軸地磁気センサの合計9軸を検出可能なセンサを有していてもよい。また、センサ部130は、ユーザの視線を検出する視線検出センサとして、例えばユーザの眼前に位置する表示部140の周辺に設けられた赤外線センサ(赤外線発光部および赤外線カメラ)等の内向きカメラや、ユーザの眼の周辺の筋肉の動きを検知する筋電センサ、若しくは脳波センサ等を有していてもよい。
(Sensor unit 130)
The
(表示部140)
表示部140は、例えば情報処理端末10がHMDとして構成される場合、ユーザの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像および右眼用画像を表示する。表示部140の画面は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL((Electro Luminescence)ディスプレイなどの表示パネル、または、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部140は、表示画面を拡大投影して、ユーザの瞳に所定の画角からなる拡大虚像を結像する結像光学系を備えてもよい。
(Display unit 140)
When the
(スピーカ150)
スピーカ150は、例えば情報処理端末10がHMDとして構成される場合、ユーザの頭部に装着されるヘッドフォンとして構成され、音声信号を再生する。なおスピーカ150は、ヘッドフォン型に限定されず、イヤフォン、若しくは骨伝導スピーカとして構成されてもよい。
(Speaker 150)
For example, when the
(記憶部160)
記憶部160は、制御部100の処理に用いられるプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、および適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)により実現される。
(Storage unit 160)
The
以上、情報処理端末10の構成について具体的に説明したが、本開示による情報処理端末10の構成は図5に示す例に限定されない。例えば、情報処理端末10は、複数の装置により実現されてもよい。具体的には、HMD等により実現される表示装置(少なくとも表示部140に対応)と、スマートフォンやタブレット端末、PC等により実現される情報処理装置(少なくとも制御部100に対応)とを含む構成であってもよい。また、上述した情報処理端末10によるトラッキング処理を外部装置で行ってもよい。
Although the configuration of the
また、情報処理端末10の制御部100が有する各機能を、ネットワーク上に設けられたサーバで実現してもよいし、ユーザと同一空間に配置された専用端末や、スマートフォン、タブレット端末、またはPC等により実現してもよい。
Further, each function of the
<<3.立体視表示制御例>>
<3−1.第1の実施例>
本実施形態による情報処理端末10は、仮想空間内ユーザ視点に対して、実オブジェクトを撮影して取得した二次元画像に基づく立体視画像が正対した状態を維持することで、仮想空間内ユーザ視点が変化しても立体視画像が破綻することなく見せることができ、三次元空間において二次元画像を疑似的に三次元画像に見せることを可能とする。以下、図6〜図10を参照して本実施形態による二次元画像の立体視表示制御について詳述する。
<< 3. Stereoscopic display control example >>
<3-1. First Example>
The
(3−1−1.回転制御)
図6は、本実施形態の第1の実施例による立体視画像40の回転制御について説明する図である。図6に示すように、情報処理端末10は、仮想空間内において、立体視画像40をユーザ視点に正対させた状態を維持するよう、立体視画像40を通る所定の軸42を基準として立体視画像40を回転させる。より具体的には、情報処理端末10は、立体視画像40を通る所定の軸42とユーザの視点(仮想空間内ユーザ視点)とを結ぶ直線45が、当該立体視画像40(の面)に対して略垂直となるよう、立体視画像40を所定の軸42を基準として回転させる。図6に示す例では、情報処理端末10は、立体視画像40を通る所定の軸42を基準とした回転、すなわちyaw方向に(左右に)立体視画像40を回転させる。
(3-1-1. Rotation control)
FIG. 6 is a diagram illustrating rotation control of the
このように立体視画像40を回転制御した場合の見え方の一例を、図7に示す。例えば、図7左に示す立体視画像40を正面から見ている視点から、立体視画像40に対して視点を右側に移動した場合、立体視画像40はユーザの視点に正対するよう回転されるため、図3右に示すような歪みが生じることなく、図7右に示すように、違和感無く見ることができる。
FIG. 7 shows an example of how the
(3−1−2.回転制約)
ここで、仮想空間内ユーザ視点に常に正対させるよう立体視画像40の回転制御を行うと、立体視画像40(被写体)によっては、不自然な姿勢になってしまう場合がある。
(3-1-2. Rotation constraint)
Here, if the rotation control of the
図8は、仮想空間内ユーザ視点に常に正対させるよう制御した際に立体視画像40が不自然な姿勢になる場合について説明する図である。例えば、図8左に示すような立体視画像40を正面から見ている視点から、仮想空間内ユーザ視点を立体視画像40に対して上側に移動した場合(すなわち立体視画像40に対して上から見下ろすような角度となった場合)について説明する。この場合、立体視画像40がユーザの視点に正対するよう回転されると(具体的には、立体視画像40の中心を通る水平方向の軸を基準としてPitch方向に(上下に)回転される)、図8右に示すように、立体視画像40が地面に倒れているような不自然な姿勢となってしまう。
FIG. 8 is a diagram illustrating a case where the
従って、本実施形態による情報処理システムでは、各立体視画像に対して回転制約を設定し、回転制約内で回転制御を行うことで、不自然な姿勢となってしまうことを回避することを可能とする。回転制約には、回転可能軸(回転方向)や回転可能角度(回転量)に関する制約が含まれる。 Therefore, in the information processing system according to the present embodiment, it is possible to avoid an unnatural posture by setting a rotation constraint for each stereoscopic image and performing rotation control within the rotation constraint. And. Rotational constraints include constraints on the rotatable axis (rotational direction) and the rotatable angle (rotation amount).
ここで、本明細書で用いる回転軸の定義について、図9を参照して説明する。図9は、本実施形態の第1の実施例による立体視画像40の回転軸の定義について説明する図である。図9に示すように、立体視画像40の中心を縦に通る軸(すなわち、仮想空間において垂直方向の軸)を基準とする左右の回転をYaw回転と称し、立体視画像40の中心を横に通る軸(すなわち、仮想空間において水平方向の軸)を基準とする上下の回転をPitch回転と称する。また、立体視画像40の中心を立体視画像40の面に対して垂直に通る軸(すなわち、仮想空間において前後方向の軸)を基準とする回転をRoll回転と称する。
Here, the definition of the rotation axis used in the present specification will be described with reference to FIG. FIG. 9 is a diagram illustrating a definition of a rotation axis of the
回転制約は、立体視画像毎に設定してもよい。また、回転制約は、回転軸毎に回転可能な角度の情報を含むものであってもよい。例えば実オブジェクトが人物の場合、回転をYaw回転に限定することで不自然な姿勢になってしまうことを回避することができる。この場合の回転制約情報のパラメータの一例を下記に示す。
・回転制約パラメータ
Yaw:0°〜360°
Pitch:0°
Roll:0°
The rotation constraint may be set for each stereoscopic image. Further, the rotation constraint may include information on the angle at which the rotation can be performed for each rotation axis. For example, when the real object is a person, it is possible to avoid an unnatural posture by limiting the rotation to the Yaw rotation. An example of the parameters of the rotation constraint information in this case is shown below.
-Rotation constraint parameter Yaw: 0 ° to 360 °
Pitch: 0 °
Roll: 0 °
なお回転制約は、パラメータとして立体視画像が有することを想定するが、本実施形態はこれに限定されず、アプリケーション内に固定値として埋め込んでもよい。 The rotation constraint is assumed to be possessed by the stereoscopic image as a parameter, but the present embodiment is not limited to this, and may be embedded as a fixed value in the application.
また、上述した例では、Yaw回転において0°〜360°が回転可能と設定しているが、本実施形態はこれに限定されず、例えばユーザが人物(立体視画像40)を真後ろから見た場合にも人物が正面に見えると、後ろ側が見えないことに違和感を持つ場合もあるため、Yaw:0°〜180°等に設定してもよい。また、この場合、180°付近において、別カメラがある場合、当該別カメラで撮影した映像(例えば当該人物を横から撮影したステレオ映像)に切り替えるようにしてもよい。 Further, in the above-described example, 0 ° to 360 ° is set to be rotatable in Yaw rotation, but the present embodiment is not limited to this, and for example, the user views a person (stereoscopic image 40) from directly behind. Even in this case, if the person can be seen in the front, it may be uncomfortable to see the back side, so Yaw: 0 ° to 180 ° or the like may be set. Further, in this case, if there is another camera in the vicinity of 180 °, the image may be switched to the image taken by the other camera (for example, the stereo image of the person taken from the side).
また、回転制約で設定される回転角度は、視聴開始点を基準とした角度であってもよいし、仮想空間のグローバル座標における正面を基準とした角度であってもよい。 Further, the rotation angle set by the rotation constraint may be an angle with reference to the viewing start point, or may be an angle with reference to the front in the global coordinates of the virtual space.
(3−1−3.警告)
回転制約内で回転制御を行うことで、上述したように、立体視画像40が不自然な姿勢になることを回避できるが、制約されている方向から視聴した際に、立体視画像40の映像が大きく歪んでしまう場合がある。この場合、情報処理端末10は、推奨される視聴方向をユーザに示す等の警告(音声、表示、振動等を用いた警告)を行って、快適な視聴が実現できるようにしてもよい。
(3-1-3. Warning)
By controlling the rotation within the rotation constraint, it is possible to prevent the
図10は、本実施形態の第1の実施例による制約されている方向から視聴した場合に表示される警告の一例を示す図である。例えば図10左に示すように、仮想空間内ユーザ視点が立体視画像40に対して上側に移動した場合(すなわち上から見下ろすような角度になった場合)、回転制約により立体視画像40をPitch回転できないため、図10右に示すように、立体視画像40が大きく歪んで見える。この場合、情報処理端末10は、「なるべく正面から視聴してください」といった、推奨される視聴方向を通知する警告表示142を表示してもよい。なお、情報処理端末10は、立体視画像40に対して、回転が制約されている方向において一定以上の角度で視聴を行っている場合に警告を行うようにしてもよい。
FIG. 10 is a diagram showing an example of a warning displayed when viewing from a restricted direction according to the first embodiment of the present embodiment. For example, as shown on the left side of FIG. 10, when the user's viewpoint in the virtual space moves upward with respect to the stereoscopic image 40 (that is, when the angle is such that it looks down from above), the
<3−2.第2の実施例>
続いて、本実施形態の第2の実施例として、上述したような回転制御を行う立体視画像に対して、3Dモデル(三次元の形状データを有する仮想オブジェクト)による装飾表現を行う場合について、図11〜図16を参照して説明する。
<3-2. Second Example>
Subsequently, as a second embodiment of the present embodiment, a case where a 3D model (a virtual object having three-dimensional shape data) is used to decorate a stereoscopic image that performs rotation control as described above is used. This will be described with reference to FIGS. 11 to 16.
図11は、本実施形態の第2の実施例による立体視画像40と3Dモデル60について説明する図である。図11に示すように、立体視画像40は、2枚の二次元画像から成るステレオ映像であり、これらを左右の目に個別に提示することで立体視を実現している。これに対し、3Dモデル60は、仮想空間内で奥行き情報を含めた3次元の形状データを有する立体物であり、任意の視点から視聴しても形状が破綻しない。本実施例では、このような二次元データである立体視画像40と、三次元データである3Dモデル60とを組み合わせた表現を実現し、ユーザの視聴体験をさらに向上させることを可能とする。
FIG. 11 is a diagram illustrating a
図12は、本実施例による立体視画像40に対する3Dモデル60の装飾表示の一例を示す図である。図12に示すように、立体視画像40の手前側において、立体視画像40(人物)の手の位置に3Dモデル60(プレゼント画像)を配置することで、人物がプレゼントを持っているように見せる装飾表示を実現することができる。なお3Dモデル60は、仮想空間内においてインタラクション可能な仮想オブジェクトである。また、立体視画像40の実空間における手の位置の情報は、画像解析により認識してもよいし、撮影時に被写体人物が手に有しているコントローラを検出して認識してもよい。また、このように撮影時等に認識した手の位置の情報(3次元位置情報)を記録しておいてもよい。
FIG. 12 is a diagram showing an example of a decorative display of the
ここで、仮想空間内ユーザ視点が移動した場合、図13に示すように、二次元データである立体視画像40には歪みが生じ、また、3Dモデルは三次元データであるため画像の歪みは生じず任意の位置から視聴しても形状は破綻しないが、立体視画像40に対する装飾位置がずれてしまう(人物の手の位置からずれる)。
Here, when the user's viewpoint in the virtual space moves, as shown in FIG. 13, distortion occurs in the
一方、仮想空間内ユーザ視点の移動に応じて立体視画像40のみを(仮想空間内ユーザ視点に正対するよう)回転制御した場合、図14に示すように、立体視画像40の映像の歪みは解消されるが、依然として、3Dモデル60の装飾位置のずれが生じる。
On the other hand, when the rotation of only the stereoscopic image 40 (so as to face the user's viewpoint in the virtual space) is controlled according to the movement of the user's viewpoint in the virtual space, the distortion of the image of the
そこで、本実施例では、仮想空間内ユーザ視点の移動に応じて、図15左に示すように、所定の軸42を基準として、立体視画像40の面が仮想空間内ユーザ視点に正対するよう立体視画像40を回転制御すると共に、併せて、同回転軸(すなわち、所定の軸42)を基準として、3Dモデル60を、(立体視画像40と)同回転量(回転方向、回転角度)回転させる。
Therefore, in this embodiment, as shown on the left side of FIG. 15, the surface of the
情報処理端末10は、立体視画像40の回転軸である所定の軸42を基準として、3Dモデル60を公転させることで、立体視画像40と3Dモデル60を回転させた際に3Dモデル60の立体視画像40に対する相対位置を維持することができる。3Dモデル60を公転させるとは、すなわち、3Dモデル60を、所定の軸42を中心として所定の軸42の周りを周回させる(当該所定の軸を中心に円状の軌道に沿って回転させる)ことであり、仮想空間内での3Dモデル60の座標位置は変化する。一方、立体視画像40は、立体視画像40を通る所定の軸42を基準として自転(すなわち仮想空間内での座標位置は変化せずにその場で所定の軸42を中心として回転)する。
The
これにより、図15右に示すように、立体視画像40の映像の歪みを解消すると共に、3Dモデル60の装飾位置のずれも解消することができる。
As a result, as shown on the right side of FIG. 15, the distortion of the image of the
なお、第2の実施例においても、立体視画像40に回転制約が設定されている場合、情報処理端末10は、回転制約内で回転制御を行い、また、必要に応じて警告を行い得る。
Also in the second embodiment, when the rotation constraint is set on the
また、3Dモデル60の表示位置は固定ではなく、立体視画像40に連動して動かすようにしてもよい。図16は、本実施例による装飾した3Dモデル60の立体視画像40に連動した動きについて説明する図である。図16上段に示すように、例えば立体視画像40の人物の手の位置に合わせて3Dモデル60(例えばプレゼント画像)を表示している場合、3Dモデル60の表示位置を、手の位置の動きに追従させることが可能である。立体視画像40の人物の手の位置情報は、上述したように、例えば撮影時に認識して記録しておくことで、再生時に、当該手の位置に合せて3Dモデル60を配置することが可能となる。
Further, the display position of the
また、図16下段に示すように、立体視画像40の人物がプレゼント(3Dモデル60)をユーザに手渡すような表現を行うことも可能となる。手の位置の情報には、奥行き情報(深度情報)も含まれ、プレゼント(3Dモデル60)がユーザに近付いた場合は、3Dモデル60が大きく見えるよう表示制御することが可能である。
Further, as shown in the lower part of FIG. 16, it is possible to express that the person in the
なお、3Dモデル60の表示位置を立体視画像40に連動して動かす際も、仮想空間内ユーザ視点の変化に応じて立体視画像40をユーザ視点に正対させるよう回転制御する際は、3Dモデル60も、図15を参照して説明したように、立体視画像40と同じ回転軸および同じ回転量で回転させることで、3Dモデル60が手の位置から外れることなく表現することが可能となる。
Even when the display position of the
<<4.動作処理>>
続いて、本実施形態による情報処理システムの動作処理について、図17を用いて具体的に説明する。図17は、本実施形態による表示制御処理の流れの一例を示すフローチャートである。ここでは一例として、第2の実施例で説明した3Dモデル60の装飾や、第1の実施例で説明した回転制約および必要に応じた警告に関する処理を含めて説明する。
<< 4. Operation processing >>
Subsequently, the operation processing of the information processing system according to the present embodiment will be specifically described with reference to FIG. FIG. 17 is a flowchart showing an example of the flow of the display control process according to the present embodiment. Here, as an example, the decoration of the
図17に示すように、まず、情報処理端末10は、実世界での視点位置に基づいて、仮想空間内での視点位置(仮想空間内ユーザ視点)を算出する(ステップS103)。仮想空間内ユーザ視点は、実世界におけるユーザの頭部の向きや視線をセンシングして算出してもよいし、ユーザが操作するコントローラに基づいて算出してもよい。
As shown in FIG. 17, first, the
次に、情報処理端末10は、仮想空間内での視点位置に正対するよう、(実オブジェクトを撮影して得た二次元画像に基づく)立体視画像40を回転させる(ステップS106)。これにより、仮想空間内ユーザ視点が変化しても、二次元データである立体視画像40の映像に歪みが生じることを回避することができる。また、情報処理端末10は、この際、立体視画像40に設定されている回転制約内で(回転可能な方向、角度にのみ)回転させるようにしてもよい。
Next, the
次いで、情報処理端末10は、立体視画像40に3Dモデル60を装飾表示していた際、立体視画像40と同じ回転軸で同じ回転量(角度)だけ3Dモデル60を回転させる(ステップS109)。これにより、立体視画像40が回転しても3Dモデル60の表示位置がずれないようにすることができる。
Next, when the
次に、立体視画像40に対する仮想空間内ユーザ視点が、回転制約方向において一定以上の角度になった場合(ステップS113/Yes)、情報処理端末10は、推奨される視聴方向を示す等、ユーザへの警告通知などを実施する(ステップS115)。
Next, when the user's viewpoint in the virtual space with respect to the
そして、情報処理端末10は、仮想空間内での視点位置に従って全オブジェクトを描画する(ステップS118)。
Then, the
以上、本実施形態による動作処理の一例を説明した。なお図17に示す動作処理は一例であって、本開示は図17に示す例に限定されない。例えば、本開示は、図17に示すステップの順序に限定されない。少なくともいずれかのステップが並列に処理されてもよいし、逆の順番で処理されてもよい。例えば、ステップS115の処理とステップS118の処理は並列に処理されてもよいし、逆の順番で処理されてもよい。 An example of the operation processing according to the present embodiment has been described above. The operation process shown in FIG. 17 is an example, and the present disclosure is not limited to the example shown in FIG. For example, the present disclosure is not limited to the order of the steps shown in FIG. At least one of the steps may be processed in parallel or in reverse order. For example, the process of step S115 and the process of step S118 may be processed in parallel, or may be processed in the reverse order.
また、図17に示す全ての処理が必ずしも実行されてなくともよい。また、図17に示す全ての処理が必ずしも単一の装置で行われなくともよい。 Further, not all the processes shown in FIG. 17 need to be executed. Further, not all the processes shown in FIG. 17 need to be performed by a single device.
<<5.その他>>
本実施形態による情報処理システムについて、以下補足する。
<< 5. Others >>
The information processing system according to this embodiment will be supplemented below.
情報処理端末10は、立体視画像40を回転制御したとき、対応する音声情報の音源位置を、立体視画像40の回転制御に併せて移動させるようにしてもよい。例えば情報処理端末10は、立体視画像40の人物の音声情報が、立体視画像40が回転した場合でも常に立体視画像40の正面から聞こえるよう音像定位処理を行うようにしてもよい。また、情報処理端末10は、仮想オブジェクトで立体視画像40が遮蔽された際、立体視画像40に対応する音声情報を変化させてもよい。例えば、立体視画像40の人物に、3Dモデル60(プレゼント画像)を装飾表示している際に、立体視画像40の人物がプレゼントで口元を隠した場合、情報処理端末10は、立体視画像40の人物の音声を、籠った声に変化させてもよい。
When the
また、情報処理端末10は、立体視画像40の回転角度に応じて、仮想空間内の照明位置に基づく立体視画像40の照明演出(影の位置、大きさ、濃さ等)を変化(再照明付与)させてもよい。立体視画像40の照明演出の変化は、予め生成(または撮影)しておいてもよい。
Further, the
また、視聴位置が特殊な位置になった場合(例えば、立体視画像40の裏側に回り込んだ場合等)、その方向に立体視画像40の被写体が向くことがあり得ない等の場合には、情報処理端末10は、立体視画像40の回転制御を行わず、「この方向からは見えません」等の警告表示を行うようにしてもよい。これにより、立体視画像40があり得ない方向を向いている等の違和感を軽減することが可能となる。なお、立体視画像40の被写体が向くことがあり得ない方向等の情報は、回転制約として設定しておいてもよい。
In addition, when the viewing position is set to a special position (for example, when the subject wraps around the back side of the stereoscopic image 40), the subject of the
<<6.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、三次元空間において二次元画像を疑似的に三次元画像に見せることが可能となる。
<< 6. Summary >>
As described above, in the information processing system according to the embodiment of the present disclosure, it is possible to make a two-dimensional image appear as a pseudo three-dimensional image in a three-dimensional space.
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the present technology is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can come up with various modifications or modifications within the scope of the technical ideas described in the claims. Of course, it is understood that the above also belongs to the technical scope of the present disclosure.
例えば、上述した情報処理端末10、またはサーバ2に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理端末10、またはサーバ2の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
For example, it is possible to create a computer program for exerting the functions of the
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the techniques according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description herein, in addition to or in place of the above effects.
なお、本技術は以下のような構成も取ることができる。
(1)
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行う制御部を備える、情報処理装置。
(2)
前記制御部は、
前記所定の軸と前記ユーザ視点とを結ぶ前記直線が前記立体視画像に対して略垂直となるよう、前記立体視画像を前記所定の軸で回転させる制御を行う、前記(1)に記載の情報処理装置。
(3)
前記制御部は、
前記二次元画像に対応する回転制約内で回転制御を行う、前記(2)に記載の情報処理装置。
(4)
前記回転制約は、回転可能軸に関する制約であり、
前記制御部は、前記立体視画像上の所定の軸のうち、回転可能に設定されている軸で前記立体視画像を回転させ、前記所定の軸と前記ユーザ視点とを結ぶ前記直線が前記立体視画像に対して略垂直となる状態を維持する、前記(3)に記載の情報処理装置。
(5)
前記回転制約は、回転可能角度に関する制約であり、
前記制御部は、前記立体視画像上の所定の軸で前記立体視画像を回転させる際、前記回転可能角度内で回転制御を行う、前記(3)または(4)に記載の情報処理装置。
(6)
前記制御部は、
前記回転制約により、前記所定の軸と前記ユーザ視点とを結ぶ前記直線が、前記立体視画像に対して略垂直となる状態が維持できない場合、警告通知を行う、前記(3)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記制御部は、
前記所定の軸と前記ユーザ視点とを結ぶ前記直線が、前記立体視画像に対し、前記回転が制限されている方向に一定以上の角度を有している場合、推奨される視点方向を通知する、前記(6)に記載の情報処理装置。
(8)
前記立体視画像は、人物を撮影したステレオ映像であり、
前記回転可能軸は、前記立体視画像上の所定の軸のうち、前記三次元の空間において垂直方向となる軸とする、前記(4)に記載の情報処理装置。
(9)
前記制御部は、
前記立体視画像の位置に合わせて、三次元画像である仮想オブジェクトを表示する制御を行う、前記(2)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記制御部は、
前記仮想オブジェクトの前記三次元の空間における表示座標は、前記立体視画像の所定箇所に追従するよう変化する、前記(9)に記載の情報処理装置。
(11)
前記制御部は、
前記立体視画像を前記所定の軸で回転させる際、前記仮想オブジェクトを、当該所定の軸を基準として、前記立体視画像の回転と同じ方向に同じ回転量で回転させる、前記(9)または(10)に記載の情報処理装置。
(12)
前記制御部は、
前記3次元の空間に定位された三次元画像の定位仮想オブジェクトを表示し、
前記ユーザ視点が変化した際、前記定位仮想オブジェクトの前記三次元の空間における表示座標は変化させずに、前記ユーザ視点からの前記定位仮想オブジェクトを生成し、表示する、前記(2)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記情報処理装置は、表示部を備え、
前記制御部は、
実空間から取得した情報に基づいて前記三次元の空間内における前記ユーザ視点を算出し、
前記表示部に、生成した前記ユーザ視点の前記三次元の空間の画像を表示する、前記(2)〜(12)のいずれか1項に記載の情報処理装置。
(14)
プロセッサが、
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行うことを含む、情報処理方法。
(15)
コンピュータを、
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行う制御部として機能させるための、プログラム。
The present technology can also have the following configurations.
(1)
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
An information processing device provided with a control unit for performing the above.
(2)
The control unit
The above (1), wherein the stereoscopic image is controlled to be rotated by the predetermined axis so that the straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the stereoscopic image. Information processing device.
(3)
The control unit
The information processing apparatus according to (2) above, which controls rotation within a rotation constraint corresponding to the two-dimensional image.
(4)
The rotation constraint is a constraint on the rotatable axis.
The control unit rotates the stereoscopic image on a axis set to be rotatable among the predetermined axes on the stereoscopic image, and the straight line connecting the predetermined axis and the user's viewpoint is the stereoscopic image. The information processing apparatus according to (3) above, which maintains a state of being substantially perpendicular to a visual image.
(5)
The rotation constraint is a constraint on the rotatable angle.
The information processing device according to (3) or (4), wherein the control unit controls rotation within the rotatable angle when rotating the stereoscopic image on a predetermined axis on the stereoscopic image.
(6)
The control unit
When the straight line connecting the predetermined axis and the user's viewpoint cannot be maintained in a state of being substantially perpendicular to the stereoscopic image due to the rotation constraint, a warning is given, according to the above (3) to (5). The information processing apparatus according to any one of the above items.
(7)
The control unit
When the straight line connecting the predetermined axis and the user viewpoint has an angle of a certain value or more in the direction in which the rotation is restricted with respect to the stereoscopic image, the recommended viewpoint direction is notified. , The information processing apparatus according to (6) above.
(8)
The stereoscopic image is a stereo image of a person, and is a stereoscopic image.
The information processing apparatus according to (4), wherein the rotatable axis is an axis that is perpendicular to the three-dimensional space among predetermined axes on the stereoscopic image.
(9)
The control unit
The information processing device according to any one of (2) to (8) above, which controls the display of a virtual object which is a three-dimensional image according to the position of the stereoscopic image.
(10)
The control unit
The information processing apparatus according to (9), wherein the display coordinates of the virtual object in the three-dimensional space change so as to follow a predetermined position of the stereoscopic image.
(11)
The control unit
(9) or ( The information processing apparatus according to 10).
(12)
The control unit
A localization virtual object of a three-dimensional image localized in the three-dimensional space is displayed, and the object is displayed.
When the user viewpoint changes, the localization virtual object from the user viewpoint is generated and displayed without changing the display coordinates of the localization virtual object in the three-dimensional space. The information processing apparatus according to any one of ().
(13)
The information processing device includes a display unit.
The control unit
Based on the information acquired from the real space, the user's viewpoint in the three-dimensional space is calculated.
The information processing device according to any one of (2) to (12), wherein the generated image of the three-dimensional space of the user's viewpoint is displayed on the display unit.
(14)
The processor,
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
Information processing methods, including doing.
(15)
Computer,
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
A program to function as a control unit that performs
2 サーバ
3 ネットワーク
10 情報処理端末
100 制御部
101 ユーザ視点認識部
102 仮想空間視点算出部
103 画像生成部
104 表示制御部
110 通信部
120 操作入力部
130 センサ部
131 位置情報取得部
132 カメラ
133 マイク(マイクロホン)
134 加速度センサ
135 生体センサ
140 表示部
142 警告表示
150 スピーカ
160 記憶部
40 立体視画像
42 所定の軸
50a 仮想オブジェクト(定位仮想オブジェクト)
50b 仮想オブジェクト(定位仮想オブジェクト)
60 3Dモデル(仮想オブジェクト)
2
134
50b virtual object (localized virtual object)
60 3D model (virtual object)
Claims (15)
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行う制御部を備える、情報処理装置。 Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
An information processing device provided with a control unit for performing the above.
前記所定の軸と前記ユーザ視点とを結ぶ前記直線が前記立体視画像に対して略垂直となるよう、前記立体視画像を前記所定の軸で回転させる制御を行う、請求項1に記載の情報処理装置。 The control unit
The information according to claim 1, wherein the stereoscopic image is controlled to be rotated by the predetermined axis so that the straight line connecting the predetermined axis and the user's viewpoint is substantially perpendicular to the stereoscopic image. Processing equipment.
前記二次元画像に対応する回転制約内で回転制御を行う、請求項2に記載の情報処理装置。 The control unit
The information processing apparatus according to claim 2, wherein rotation control is performed within the rotation constraint corresponding to the two-dimensional image.
前記制御部は、前記立体視画像上の所定の軸のうち、回転可能に設定されている軸で前記立体視画像を回転させ、前記所定の軸と前記ユーザ視点とを結ぶ前記直線が前記立体視画像に対して略垂直となる状態を維持する、請求項3に記載の情報処理装置。 The rotation constraint is a constraint on the rotatable axis.
The control unit rotates the stereoscopic image on a axis set to be rotatable among the predetermined axes on the stereoscopic image, and the straight line connecting the predetermined axis and the user's viewpoint is the stereoscopic image. The information processing apparatus according to claim 3, which maintains a state of being substantially perpendicular to the visual image.
前記制御部は、前記立体視画像上の所定の軸で前記立体視画像を回転させる際、前記回転可能角度内で回転制御を行う、請求項3に記載の情報処理装置。 The rotation constraint is a constraint on the rotatable angle.
The information processing device according to claim 3, wherein the control unit controls rotation within the rotatable angle when rotating the stereoscopic image on a predetermined axis on the stereoscopic image.
前記回転制約により、前記所定の軸と前記ユーザ視点とを結ぶ前記直線が、前記立体視画像に対して略垂直となる状態が維持できない場合、警告通知を行う、請求項3に記載の情報処理装置。 The control unit
The information processing according to claim 3, wherein a warning is given when the straight line connecting the predetermined axis and the user's viewpoint cannot be maintained in a state of being substantially perpendicular to the stereoscopic image due to the rotation constraint. Device.
前記所定の軸と前記ユーザ視点とを結ぶ前記直線が、前記立体視画像に対し、前記回転が制限されている方向に一定以上の角度を有している場合、推奨される視点方向を通知する、請求項6に記載の情報処理装置。 The control unit
When the straight line connecting the predetermined axis and the user viewpoint has an angle of a certain value or more in the direction in which the rotation is restricted with respect to the stereoscopic image, the recommended viewpoint direction is notified. , The information processing apparatus according to claim 6.
前記回転可能軸は、前記立体視画像上の所定の軸のうち、前記三次元の空間において垂直方向となる軸とする、請求項4に記載の情報処理装置。 The stereoscopic image is a stereo image of a person, and is a stereoscopic image.
The information processing apparatus according to claim 4, wherein the rotatable axis is an axis that is perpendicular to the three-dimensional space among predetermined axes on the stereoscopic image.
前記立体視画像の位置に合わせて、三次元画像である仮想オブジェクトを表示する制御を行う、請求項2に記載の情報処理装置。 The control unit
The information processing apparatus according to claim 2, wherein the information processing device controls to display a virtual object which is a three-dimensional image according to the position of the stereoscopic image.
前記仮想オブジェクトの前記三次元の空間における表示座標は、前記立体視画像の所定箇所に追従するよう変化する、請求項9に記載の情報処理装置。 The control unit
The information processing apparatus according to claim 9, wherein the display coordinates of the virtual object in the three-dimensional space change so as to follow a predetermined portion of the stereoscopic image.
前記立体視画像を前記所定の軸で回転させる際、前記仮想オブジェクトを、当該所定の軸を基準として、前記立体視画像の回転と同じ方向に同じ回転量で回転させる、請求項9に記載の情報処理装置。 The control unit
The ninth aspect of claim 9, wherein when the stereoscopic image is rotated about the predetermined axis, the virtual object is rotated with the same rotation amount in the same direction as the rotation of the stereoscopic image with respect to the predetermined axis. Information processing device.
前記3次元の空間に定位された三次元画像の定位仮想オブジェクトを表示し、
前記ユーザ視点が変化した際、前記定位仮想オブジェクトの前記三次元の空間における表示座標は変化させずに、前記ユーザ視点からの前記定位仮想オブジェクトを生成し、表示する、請求項2に記載の情報処理装置。 The control unit
A localization virtual object of a three-dimensional image localized in the three-dimensional space is displayed, and the object is displayed.
The information according to claim 2, wherein when the user viewpoint changes, the localization virtual object from the user viewpoint is generated and displayed without changing the display coordinates of the localization virtual object in the three-dimensional space. Processing equipment.
前記制御部は、
実空間から取得した情報に基づいて前記三次元の空間内における前記ユーザ視点を算出し、
前記表示部に、生成した前記ユーザ視点の前記三次元の空間の画像を表示する、請求項2に記載の情報処理装置。 The information processing device includes a display unit.
The control unit
Based on the information acquired from the real space, the user's viewpoint in the three-dimensional space is calculated.
The information processing device according to claim 2, wherein the generated image of the three-dimensional space of the user's viewpoint is displayed on the display unit.
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行うことを含む、情報処理方法。 The processor,
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
Information processing methods, including doing.
実オブジェクトを撮影して得た二次元画像を立体視画像として三次元の空間内に配置する表示制御と、
前記立体視画像上の所定の軸を基準として、当該所定の軸とユーザ視点とを結ぶ直線が、前記立体視画像に対して略垂直となる状態を維持する表示制御と、
を行う制御部として機能させるための、プログラム。 Computer,
Display control that arranges a two-dimensional image obtained by shooting a real object as a stereoscopic image in a three-dimensional space,
Display control that maintains a state in which a straight line connecting the predetermined axis and the user's viewpoint with respect to the predetermined axis on the stereoscopic image is substantially perpendicular to the stereoscopic image.
A program to function as a control unit that performs
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018134800A JP2021177580A (en) | 2018-07-18 | 2018-07-18 | Information processing apparatus, information processing method, and program |
PCT/JP2019/027566 WO2020017435A1 (en) | 2018-07-18 | 2019-07-11 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018134800A JP2021177580A (en) | 2018-07-18 | 2018-07-18 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021177580A true JP2021177580A (en) | 2021-11-11 |
Family
ID=69164018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018134800A Pending JP2021177580A (en) | 2018-07-18 | 2018-07-18 | Information processing apparatus, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021177580A (en) |
WO (1) | WO2020017435A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023074596A1 (en) | 2021-10-29 | 2023-05-04 | 日油株式会社 | Treatment fluid for soft contact lens |
WO2023140120A1 (en) * | 2022-01-21 | 2023-07-27 | ソニーグループ株式会社 | Surgical robot system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022192306A1 (en) * | 2021-03-11 | 2022-09-15 | Dathomir Laboratories Llc | Image display within a three-dimensional environment |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3958150B2 (en) * | 2002-08-22 | 2007-08-15 | シャープ株式会社 | Display correction apparatus, display correction method, display correction program, and recording medium on which display correction program is recorded |
JP3871061B2 (en) * | 2003-03-25 | 2007-01-24 | セイコーエプソン株式会社 | Image processing system, projector, program, information storage medium, and image processing method |
JP4688768B2 (en) * | 2006-09-26 | 2011-05-25 | シャープ株式会社 | Image adjustment method and projector |
JP5183277B2 (en) * | 2008-04-03 | 2013-04-17 | 三菱電機株式会社 | Stereoscopic image display device |
JP5386883B2 (en) * | 2008-08-20 | 2014-01-15 | セイコーエプソン株式会社 | Projector and projector control method |
JP5552197B2 (en) * | 2012-01-18 | 2014-07-16 | パナソニック株式会社 | 3D image processing apparatus and method |
-
2018
- 2018-07-18 JP JP2018134800A patent/JP2021177580A/en active Pending
-
2019
- 2019-07-11 WO PCT/JP2019/027566 patent/WO2020017435A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023074596A1 (en) | 2021-10-29 | 2023-05-04 | 日油株式会社 | Treatment fluid for soft contact lens |
WO2023140120A1 (en) * | 2022-01-21 | 2023-07-27 | ソニーグループ株式会社 | Surgical robot system |
Also Published As
Publication number | Publication date |
---|---|
WO2020017435A1 (en) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6646620B2 (en) | Wide-ranging simultaneous remote digital presentation world | |
EP3008698B1 (en) | Head-mountable apparatus and systems | |
US9842433B2 (en) | Method, apparatus, and smart wearable device for fusing augmented reality and virtual reality | |
CN106170083B (en) | Image processing for head mounted display device | |
US11277603B2 (en) | Head-mountable display system | |
US20150054734A1 (en) | Head-mountable apparatus and systems | |
JP7496460B2 (en) | Image generating device and image generating method | |
WO2014199155A1 (en) | Head-mountable apparatus and systems | |
US20200089333A1 (en) | Virtual reality | |
CN106168855B (en) | Portable MR glasses, mobile phone and MR glasses system | |
WO2017051570A1 (en) | Information processing device, information processing method, and program | |
CN107810634A (en) | Display for three-dimensional augmented reality | |
WO2020017435A1 (en) | Information processing device, information processing method, and program | |
WO2017126433A1 (en) | Information processing device and user guide presentation method | |
KR20240121342A (en) | Systems and methods for augmented reality | |
WO2017191702A1 (en) | Image processing device | |
JP2012223357A (en) | Video game device and video game control method | |
US20240036327A1 (en) | Head-mounted display and image displaying method | |
WO2018115840A1 (en) | Virtual reality content control | |
EP3673348B1 (en) | Data processing device, method and non-transitory machine-readable medium for detecting motion of the data processing device | |
JP7104539B2 (en) | Simulation system and program | |
WO2020234559A1 (en) | Data processing | |
WO2018173206A1 (en) | Information processing device | |
JP7111848B2 (en) | Program, Information Processing Apparatus, and Method | |
WO2021153413A1 (en) | Information processing device, information processing system, and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |