JP2019045998A - Information processing device, method thereof and program - Google Patents
Information processing device, method thereof and program Download PDFInfo
- Publication number
- JP2019045998A JP2019045998A JP2017166109A JP2017166109A JP2019045998A JP 2019045998 A JP2019045998 A JP 2019045998A JP 2017166109 A JP2017166109 A JP 2017166109A JP 2017166109 A JP2017166109 A JP 2017166109A JP 2019045998 A JP2019045998 A JP 2019045998A
- Authority
- JP
- Japan
- Prior art keywords
- display
- information processing
- user
- processing apparatus
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザに対する情報表示に関するものである。 The present invention relates to displaying information to a user.
近年、現実空間と仮想空間とのつなぎ目のない結合を目的とした、複合現実感(Mixed Reality:MR)システムの研究が盛んに行われている。これらのシステムの提示を行う画像表示装置は、たとえば頭部装着型ディスプレイ(Head Mount Display:HMD)を用いることができる。MRシステム研究の進展に伴い、MRに表示される仮想オブジェクトは多種多様となっている。現実物体を模した仮想オブジェクトだけでなく、例えばユーザの手を表すハンドオブジェクトや、情報を提示するパネルの役割を持つ3Dオブジェクトである。特許文献1は、HMDのように、没入感の高い表示部を用いる場合のユーザの安全確保を目的とした、現実物体との接近を報知する仮想オブジェクトを表示可能とする。 BACKGROUND ART In recent years, research on mixed reality (MR) systems has been actively conducted for the purpose of seamless connection between real space and virtual space. For example, a head mounted display (HMD) can be used as an image display device that presents these systems. With the progress of MR system research, the virtual objects displayed on the MR are diverse. Not only a virtual object imitating a real object, for example, a hand object representing a user's hand or a 3D object having a role of a panel presenting information. Patent Document 1 enables display of a virtual object for notifying approach to a real object for the purpose of securing the safety of the user when using a display unit with a high sense of immersion, such as an HMD.
特許文献1の方法は、現実物体との接近警告報知オブジェクトを表示するものであるが、その手前に別の仮想オブジェクトが表示されている場合は、警告報知が遮られてしまいユーザに視認されない可能性がある。このように多数の表示情報が存在する場合、表示順序が定められていないため、ユーザの必要とする表示情報が、他の表示情報に遮られ、ユーザが視認できなくなる課題がある。 Although the method of Patent Document 1 displays an approach alert notification object with a real object, when another virtual object is displayed in front of it, the alert notification is interrupted and may not be viewed by the user. There is sex. As described above, when a large number of pieces of display information exist, the display order required by the user is interrupted by other display information because the display order is not determined, and there is a problem that the user can not visually recognize.
本発明は上記課題を鑑みてなされたものであり、複数の表示情報を効率的に表示することを目的とする。 The present invention has been made in view of the above problems, and has an object of efficiently displaying a plurality of display information.
本発明の1態様によれば、情報処理装置に、ユーザの視点の位置姿勢を取得する取得手段と、複数の仮想物体をそれぞれの表示属性とともに保持する保持手段と、前記複数の仮想物体のうちユーザに表示すべき複数の表示要素を選択する選択手段と、前記ユーザの視点の位置姿勢と前記複数の表示要素のそれぞれの表示属性とに基づいて、当該複数の表示要素を表示の前後関係を制御して表示装置に表示するように制御する制御手段とを備える。 According to one aspect of the present invention, an information processing apparatus includes an acquisition unit that acquires the position and orientation of a user's viewpoint, a holding unit that holds a plurality of virtual objects together with their respective display attributes, and the plurality of virtual objects. Based on the selection means for selecting a plurality of display elements to be displayed to the user, the position and orientation of the viewpoint of the user, and the display attribute of each of the plurality of display elements, the anteroposterior relationship of the display of the plurality of display elements is And control means for controlling and displaying on the display device.
本発明によれば、ユーザに適切な情報を表示することができる。 According to the present invention, it is possible to display information appropriate for the user.
以下、図面を参照しながら本発明の好適な実施形態について詳細に説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific embodiments of the configuration described in the claims.
(第1の実施形態)
図1は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1に示すように、本実施形態に係るシステムは、情報処理装置と、頭部装着型表示装置の一例としてのHMDと、画像表示装置1200で構成されている。
First Embodiment
FIG. 1 is a block diagram showing an example of a functional configuration of a system according to the present embodiment. As shown in FIG. 1, the system according to the present embodiment includes an information processing device, an HMD as an example of a head-mounted display device, and an
情報処理装置1000は、撮像画像取得部1010、位置姿勢計測部1020、仮想データ保持部1030、表示構成要素選択部1040、表示構成要素設定部1050、表示構成制御部1060を備える。情報処理装置1000は、さらに仮想空間生成部1070、複合現実画像生成部1080を備える。
The
HMD1100は、画像撮像部1110、画像表示部1120とで構成されている。ここで、情報処理装置1000とHMD1100とはデータ通信が可能なように接続されている。情報処理装置1000とHMD1100との間の接続は、有線、無線の何れであっても構わない。
The HMD 1100 includes an
先ず、情報処理装置1000について説明する。図2は、本実施形態における情報処理装置1000のハードウェア構成図である。同図において、CPU2010は、バス2000を介して接続する各デバイスを統括的に制御する。CPU2010は、読み出し専用メモリ(ROM)2020に記憶された処理命令やプログラムを読み出して実行する。オペレーティングシステム(OS)をはじめ、本実施形態に係る各処理プログラム、デバイスドライバ等はROM2020に記憶されており、ランダムアクセスメモリ(RAM)2030に一時記憶され、CPU2010によって適宜実行される。また、入力I/F2040は、外部の装置(表示装置や操作装置など)から情報処理装置1000で処理可能な形式で入力信号を入力する。また、出力I/F2050は、外部の装置(表示装置など)へ外部の装置が処理可能な形式で出力信号を出力する。
First, the
撮像画像取得部1010は、画像撮像部1110により撮像された現実空間の画像(現実空間画像)を取得し、位置姿勢計測部1020、複合現実画像生成部1080に入力する。
The captured
位置姿勢計測部1020は、撮像画像取得部1010により取得された現実空間画像を用いて画像処理を行い、画像中の点や線などの特徴的な情報(特徴情報)を抽出する。抽出された特徴情報を予め用意された特徴情報の設定位置と対応付けることで、ユーザの視点の位置姿勢を計測する。さらに位置姿勢が求められたHMD1100から観測された位置から、他の現実物体の位置姿勢を求めることもできる。複合現実画像生成部1080及び仮想データ保持部1030に入力する。本実施形態では画像処理による位置姿勢計測を説明するが、赤外光を用いて位置姿勢を計測しても良いし、超音波を用いて位置姿勢を計測しても良いし、磁気センサを用いて位置姿勢を計測しても良い。更に奥行きセンサを用いて位置姿勢を計測しても良いし、機械的に位置姿勢を計測しても良い。
The position and
仮想データ保持部1040は、仮想空間を構成する仮想物体に係るデータ(形状情報や位置姿勢情報)や仮想空間中に照射する光源に係るデータなど、仮想空間のデータを保持する。これらのデータは、仮想空間生成部1070、表示構成要素選択部1040、表示構成制御部1060で利用される。
The virtual
表示構成要素選択部1040は、仮想データ保持部1030より取得した仮想物体に係るデータから、ユーザに対して表示する表示構成要素を選択し、仮想物体の形状情報及び位置姿勢情報を表示構成要素設定部1050に入力する。
The display
図3は、本実施形態において表示を想定している表示構成要素を示しており、それぞれ、ユーザの視界の固定位置に表示される報知オブジェクト3000、メニューパネル3200、ハンドモデル3301と3DCGモデル3302である。
FIG. 3 shows display components assumed to be displayed in this embodiment, and each of the
報知オブジェクト3000とは、たとえば、複数ユーザ同士の接近や、現実物体との接近及び衝突の危険を報知するオブジェクトを指す。本実施形態では、報知オブジェクト3000を衝突の危険を報知するオブジェクトとして説明するが、本発明はこれに限定されない。すなわち、長時間使用していた場合の注意喚起であってもよいし、ユーザが最優先に表示すべき情報を設定してもよい。
The
メニューパネル3200は、選択した仮想物体に対して行う、たとえば、仮想物体の移動や表示非表示の制御を含むメニューを指す。本実施形態では、メニューパネル3200と報知オブジェクト3000を特定のオブジェクトとして、表示位置を視界の固定位置に表示させる場合を説明するが、本発明はこれに限定されない。すなわち、メニューの表示位置を仮想空間中に固定するメニューであってもよいし、ユーザにより表示位置を指定させるメニューであってもよい。更に、表示位置を視界に固定させるか仮想空間中に固定するかを切り替えることの出来るメニューであってもよい。
The
ハンドモデル3301は、位置姿勢計測部1020にて取得可能な、ユーザの手をCGでマスクしたオブジェクトである。本実施形態におけるハンドモデルは、これに限定されず、たとえば手以外のユーザの身体の一部であってもよい。尚、所定の位置から見えるハンドモデルを生成するための技術については既知の事実であるので、これについての詳細な説明は省略する。
The
本実施形態において、3DCGモデル3302は3DCGモデルであるが、本発明はこれに限定されない。すなわち、仮想空間における3Dモデル同士の接触部位を表すようなオブジェクトでもよいし、モデル名称を示すテキストであっても構わない。更に、表示位置を視界に固定させるか仮想空間中に固定するかを切り替えることの出来るメニューであってもよい。
In the present embodiment, the
表示構成要素設定部1050は、表示要素を分類するための表示属性を設定する。本実施形態では報知オブジェクト3000を属性1、メニューパネル3200を属性2、ハンドモデル3301と3DCGモデル3302を属性3と設定し、設定情報を表示順序決定部に入力する。本発明において、属性の設定は、たとえば事前に決めた設定情報を適用してもよいし、ユーザが決めた設定を適用してもよい。
The display
表示構成制御部1060は、表示構成要素設定部1050によって設定された属性情報と、仮想データ保持部1030から取得した複数オブジェクトの位置情報から、表示構成要素間の前後関係を算出し制御する。本実施形態では属性1から番号の順にユーザの視線方向に対して手前に表示し、同属性のハンドモデルと3DCGモデルの前後関係は、各モデルの位置姿勢情報に基づき決定する。構成制御情報は仮想空間生成部1070に入力する。
The display
仮想空間生成部1070は、仮想データ保持部1030で保持された仮想データと、表示構成制御部1060から取得した構成制御情報に基づき、仮想空間を生成し複合現実画像生成部1080に入力する。
The virtual
複合現実画像生成部1080は、仮想空間生成部1070で生成された仮想空間と位置姿勢計測部1020の計測結果に基づいて仮想空間画像を生成する。更に、仮想空間画像を撮像画像取得部1010で取得された現実空間画像に重畳し、複合現実空間の画像(複合現実画像)を生成する。尚、所定の位置から見える仮想空間を生成するための技術については公知であるので、これについての詳細な説明は省略する。その後に、複合現実画像生成部1080は、生成した複合現実画像をHMD1100の画像表示部1120に対して出力する(表示制御)。また、画像表示装置1200に同時に表示しても良い。HMDに限ったことではなく表示できる装置であれば良く、タブレット・スマートフォン等の表示端末であっても良い。
The mixed reality
これらの各機能部は、CPU2010が、ROM2020に格納されたプログラムをRAM2030に展開し、後述する各フローチャートに従った処理を実行することで実現されている。例えば、CPU2010を用いたソフトウェア処理の代替としてハードウェアを構成する場合には、ここで説明する各機能部の処理に対応させた演算部や回路を構成すればよい。
These functional units are realized by the
次に、HMD1100について説明する。HMD1100は、液晶画面などで構成される表示装置で、夫々右目用と左目用とが設けられており、夫々はHMD1100を頭部に装着したユーザの右目、左目の眼前に位置するように、HMDに取り付けられている。また、左右の画面には夫々視差のついた画像がステレオ表示される。
Next, the
画像撮像部1110は、HMD1100に映る現実空間を撮像し、撮像画像を現実空間画像として情報処理装置1000に入力する。
The
画像表示部1120は、情報処理装置1000で生成された複合現実画像を表示する。
The
上記のように、本実施形態においてHMD1100は、撮像装置により撮像された画像に基づいて生成された複合現実画像を表示装置に表示するビデオシースルー型のHMDであることとして説明する。しかしながら、HMD1100は、現実空間を透過して観察することが可能な表示媒体に仮想空間画像を重畳して表示する光学シースルー型のHMDを用いてもよい。
As described above, in the present embodiment, the
図4は、情報処理装置1000が、複合現実空間画像を生成し、HMD1100または画像表示装置1200に対して出力するために行う処理のフローチャートである。
FIG. 4 is a flowchart of processing performed by the
先ず、ステップS4000において、位置姿勢計測部1020は画像撮像部1110から現実空間画像を取得し、画像からHMD1100の位置姿勢を計測する。そして、ステップS4100に処理を移す。
First, in step S4000, the position and
ステップS4100において、仮想データ保持部1030は位置姿勢計測部1020から、複数のオブジェクトの位置姿勢及び形状情報を取得し、ステップS4200に処理を移す。
In step S4100, the virtual
ステップS4200において、表示構成要素選択部1040は、仮想データ保持部1030からユーザの位置姿勢情報を取得し、前記位置姿勢情報からユーザに表示するべき構成要素を選択する。例えば、ユーザと現実物体との接近及び衝突の危険を感知した場合は危険報知を構成要素として追加し、ユーザの手の位置情報を取得した場合は、ハンドモデルを構成要素に追加する。そして、ステップS4300に処理を移す。
In step S4200, the display
ステップS4300において、表示構成要素設定部1050は、構成要素の属性を設定する。本実施形態では事前に属性が設定済みであるとし、危険報知を属性1、前記メニューパネルを属性2、前記ハンドモデルと3DCGモデルを属性3と設定する。そして、ステップS4400に処理を移す。
In step S4300, the display
ステップS4400において、表示構成制御部1060は、表示構成要素設定部1050から構成要素の属性情報を取得し、仮想データ保持部1030から複数オブジェクトの位置情報を取得する。さらに、表示構成要素間の前後関係を算出し制御する。そして、ステップS4500に処理を移す。
In step S4400, the display
ステップS4500において、仮想空間生成部1070は仮想データ保持部1030で保持されている仮想空間に係るデータと、表示構成制御部1060において制御された表示構成要素情報を用いて仮想空間を生成する。
In step S4500, the virtual
ステップS4500において、表示構成制御部1060の制御によって表示順序が変わる例を、図5を用いて説明する。図5は、本実施形態に係る表示構成制御部1060の制御例を示す図である。
An example in which the display order is changed by the control of the display
図5(A)は、表示構成要素設定部1050によって報知オブジェクト3100とハンドモデル3301が検出されず、メニューパネル3200と3DCGモデル3302に対し属性が設定された場合の図である。ユーザから見た複数オブジェクトの配置を示している。表示構成要素設定部1050によってメニューパネル3200には属性2が、3DCGモデル3302には属性3が設定されている。このとき、表示構成制御部1060によって、属性の1から順にユーザの視線方向に対して手前に表示するように制御される。結果、図5(A)に示すように、ユーザの視線方向に対して手前にメニューパネル3200が、奥に3DCGモデル3302が表示される。
FIG. 5A is a diagram when the display
図5(B)、(C)は、表示構成要素設定部1050によって報知オブジェクト3100とメニューパネル3200が検出されず、ハンドモデル3301と3DCGモデル3302に対して属性が設定された場合を示した図である。ユーザから見た複数オブジェクトの配置を示している。表示構成要素設定部1050によってハンドモデル3301と3DCGモデル3302には属性3が設定されている。同属性の場合、表示構成制御部1060によって、仮想空間の奥行情報をもとに表示構成を制御する。仮想空間において、ユーザに対しハンドモデル3301の奥行情報が、3DCGモデル3302よりも手前にあった場合、図5(B)のように、手前にハンドモデル3301が表示される。一方、仮想空間において、ユーザに対し3DCGモデル3302の奥行情報が、ハンドモデル3301よりも手前にあった場合、図5(C)のように、手前に3DCGモデル3302が表示される。
FIGS. 5B and 5C are diagrams showing the case where the display
図5(D)は表示構成要素設定部1050によって、報知オブジェクト3100、メニューパネル3200、ハンドモデル3301と3DCGモデル3302に対し属性が設定された場合の、ユーザから見た複数オブジェクトの配置を示した図である。表示構成要素設定部1050によって報知オブジェクト3100には属性1、メニューパネル3200には属性2、3DCGモデル3302には属性3が設定されている。このとき、表示構成制御部1060によって、属性1から順にユーザの視線方向に対して手前に表示するように制御される。このため、図5(C)に示すように、ユーザの視線方向に対して最も手前に報知オブジェクト3100が、その奥から順に、メニューパネル3200、3DCGモデル3302、ハンドモデル3301が表示される。
FIG. 5D shows the arrangement of a plurality of objects viewed by the user when the display
ステップS4600において、複合現実画像生成部1080は仮想空間生成部1070で生成された仮想空間と位置姿勢計測部1020の位置姿勢に基づいて、仮想空間画像を生成する。更に、仮想空間画像を撮像画像取得部1010で取得された現実空間画像に重畳し、複合現実画像を生成する。
In step S4600, the mixed reality
ステップS4700において、生成した複合現実画像は、HMDの画像表示部1120または画像表示装置1200に対して出力する。本処理の終了指示が入力されていない場合は、処理をステップS4000に戻す。
In step S4700, the generated mixed reality image is output to image
(変形例)
上記実施形態では、本発明を撮像画像に仮想空間画像を合成した画像を表示させるMRシステムに適用した例を説明した。しかしながら本発明はこれに限定されない。たとえば、本発明は現実モデルのみをレンダリングした画像を表示させるシステムに適用することができる。その場合には、上記実施形態において、仮想空間生成部1070は現実モデルのみにより構成された仮想空間を生成すればよい。
(Modification)
In the above embodiment, an example has been described in which the present invention is applied to an MR system that displays an image obtained by combining a virtual space image with a captured image. However, the present invention is not limited to this. For example, the present invention can be applied to a system that displays an image in which only a real model is rendered. In that case, in the above embodiment, the virtual
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
1000 情報処理装置
1010 撮像画像取得部
1020 位置姿勢計測部
1030 仮想データ保持部
1040 表示構成要素選択部
1050 表示構成要素設定部
1060 表示構成制御部
1070 仮想空間生成部
1080 複合現実画像生成部
1100 HMD
1110 画像撮像部
1120 画像表示部
1200 画像表示装置
1000
1110
Claims (11)
複数の仮想物体をそれぞれの表示属性とともに保持する保持手段と、
前記複数の仮想物体のうちユーザに表示すべき複数の表示要素を選択する選択手段と、
前記ユーザの視点の位置姿勢と前記複数の表示要素のそれぞれの表示属性とに基づいて、当該複数の表示要素を表示の前後関係を制御して表示装置に表示するように制御する制御手段とを備えることを特徴とする情報処理装置。 Acquisition means for acquiring the position and orientation of the user's viewpoint;
Holding means for holding a plurality of virtual objects together with their respective display attributes;
Selection means for selecting a plurality of display elements to be displayed to the user among the plurality of virtual objects;
And control means for controlling the front-rear relationship of the plurality of display elements to display them on the display device based on the position and orientation of the viewpoint of the user and the display attributes of the plurality of display elements. An information processing apparatus comprising:
複数の仮想物体をそれぞれの表示属性とともに保持する保持部から前記複数の仮想物体のうちユーザに表示すべき複数の表示要素を選択する選択工程と、
前記ユーザの視点の位置姿勢と前記複数の表示要素のそれぞれの表示属性とに基づいて、当該複数の表示要素を表示の前後関係を制御して表示装置に表示する表示工程とを備えることを特徴とする情報処理方法。 An acquisition step of acquiring the position and orientation of the user's viewpoint;
A selection step of selecting a plurality of display elements to be displayed to the user from the plurality of virtual objects from a holding unit which holds a plurality of virtual objects together with respective display attributes;
And displaying the plurality of display elements on the display device based on the position and orientation of the viewpoint of the user and the display attributes of the plurality of display elements. Information processing method to be.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017166109A JP2019045998A (en) | 2017-08-30 | 2017-08-30 | Information processing device, method thereof and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017166109A JP2019045998A (en) | 2017-08-30 | 2017-08-30 | Information processing device, method thereof and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019045998A true JP2019045998A (en) | 2019-03-22 |
Family
ID=65814494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017166109A Pending JP2019045998A (en) | 2017-08-30 | 2017-08-30 | Information processing device, method thereof and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019045998A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114286006A (en) * | 2021-12-29 | 2022-04-05 | 努比亚技术有限公司 | Augmented reality-based equipment control method, terminal and storage medium |
-
2017
- 2017-08-30 JP JP2017166109A patent/JP2019045998A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114286006A (en) * | 2021-12-29 | 2022-04-05 | 努比亚技术有限公司 | Augmented reality-based equipment control method, terminal and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110022470B (en) | Method and system for training object detection algorithm using composite image and storage medium | |
US9684169B2 (en) | Image processing apparatus and image processing method for viewpoint determination | |
JP5777786B1 (en) | Information processing apparatus, information processing method, and program | |
JP7005224B2 (en) | Information processing equipment, systems, image processing methods, computer programs, and storage media | |
KR20170031733A (en) | Technologies for adjusting a perspective of a captured image for display | |
JP7182920B2 (en) | Image processing device, image processing method and program | |
JP2019008623A (en) | Information processing apparatus, information processing apparatus control method, computer program, and storage medium | |
JP2014186487A (en) | Mixed reality presenting system, virtual reality presenting system, display apparatus, information processing apparatus, control method, and program | |
US10834380B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2022058753A (en) | Information processing apparatus, information processing method, and program | |
JP2021135776A (en) | Information processor, information processing method, and program | |
JP6726016B2 (en) | Information processing device and information processing method | |
JP2019045998A (en) | Information processing device, method thereof and program | |
US20190318503A1 (en) | Non-transitory computer-readable storage medium, display apparatus, head-mounted display apparatus, and marker | |
US10586392B2 (en) | Image display apparatus using foveated rendering | |
JP6371547B2 (en) | Image processing apparatus, method, and program | |
JP2016058043A (en) | Information processing device, information processing method, and program | |
JP2020182109A5 (en) | ||
JP6436872B2 (en) | Information processing apparatus, information processing method, and program | |
JP7319575B2 (en) | Image processing device, its processing method, and program | |
JP2019040357A (en) | Image processing system, image processing method and computer program | |
JP7148779B2 (en) | Image processing device, its processing method, and program | |
JP2016224809A (en) | Information processing device and information processing method | |
EP3410256A1 (en) | Method for outputting of combined 2d and 3d imaging | |
JP2016038632A (en) | Image processing apparatus and image processing method |