JP2018205647A - 頭部装着型表示装置 - Google Patents
頭部装着型表示装置 Download PDFInfo
- Publication number
- JP2018205647A JP2018205647A JP2017113868A JP2017113868A JP2018205647A JP 2018205647 A JP2018205647 A JP 2018205647A JP 2017113868 A JP2017113868 A JP 2017113868A JP 2017113868 A JP2017113868 A JP 2017113868A JP 2018205647 A JP2018205647 A JP 2018205647A
- Authority
- JP
- Japan
- Prior art keywords
- wearer
- head
- line
- sight
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】装着時において、装着者の視線や目によるコミュニケーションを容易にすることができる頭部装着型表示装置を提供すること。【解決手段】装着者の視点位置でその視線方向における現実空間を撮像する撮像手段と、装着者の視線を検出するための視線検出手段と、装着者の頭の位置もしくは姿勢を検出するための頭部位置検出手段と、撮像手段の撮影画像と、頭部位置検出手段の装着者の頭の位置情報もしくは姿勢情報に応じて生成される仮想画像とを合成し複合現実感画像を生成する複合画像生成処理を行う画像処理手段と、装着者が視認できる位置に配置され、複合現実感画像を表示する第一の表示手段と、装着者が直接視認できない位置に配置された第二の表示手段と、を備え、視線検出手段により検出された装着者の視線情報を用いて、現実空間上での装着者の視線を表現するように第二の表示手段に表示することを特徴とする。【選択図】図1
Description
本発明は、頭部装着型表示装置に関し、特に、頭部装着型表示装置が装着者に対して、複合現実感の提示中における、非装着者に向けた表示に関する。
近年、現実空間と仮想空間の継ぎ目のない結合を目的とした複合現実感(Mixed Reality、以下MRという)に関する研究が盛んになっている。MRは従来、現実空間と切り離された状況でのみ体験可能であった仮想空間(Virtual Reality、以下VRという)の世界と現実空間との共存を目的とし、VRを増強する技術として注目されている。
また、複合現実感を実現する装置として代表的なものは、ヘッドマウントディスプレイ(HMD)である。HMDを用いたMRの方式としては、半透過型(シースルー型)のヘッドマウントディスプレイにCG等の画像重畳する光学シースルー方式と、HMDに装着したビデオカメラで撮影した画像データにCG等の画像を合成した後、HMDに表示するビデオシースルー方式がある。
MRの用途は、例えば、工場において製品の組み立て手順を実物に重ねて表示する作業補助の用途や、レストランや店舗において商品をCG等の画像で置き換えた展示、様々な日常生活への利用が考えられている。この他にも、特許文献1に記載されるように、MRを用いて複数人が同じ空間を共有し、協調して動作を行うような用途や、その際にHMD装着者同士が空間を共有するための技術提案もされている。
しかしながら、MR利用者(装着者)の顔がHMDで覆われることから、MR利用者が視線や目によるコミュニケーションをすることが困難になるという課題がある。
上述の特許文献1に開示された技術では、MR利用者同士の視線や目によるコミュニケーションに関するもので、MR非利用者(非装着者)との視線や目によるコミュニケーションに関しては、触れられていない。
本発明の目的は、装着時において、装着者の視線や目によるコミュニケーションを容易にすることができる頭部装着型表示装置を提供することにある。
上記の目的を達成するため、本発明に係る頭部装着型表示装置は、
装着者の視点位置でその視線方向における現実空間を撮像する撮像手段と、装着者の視線を検出するための視線検出手段と、装着者の頭の位置もしくは姿勢を検出するための頭部位置検出手段と、前記撮像手段の撮影画像と、前記頭部位置検出手段の装着者の頭の位置情報もしくは姿勢情報に応じて生成される仮想画像とを合成し複合現実感画像を生成する複合画像生成処理を行う画像処理手段と、装着者が視認できる位置に配置され、前記複合現実感画像を表示する第一の表示手段と、装着者が直接視認できない位置に配置された第二の表示手段と、を備え、前記視線検出手段により検出された装着者の視線情報を用いて、現実空間上での装着者の視線を表現するように前記第二の表示手段に表示することを特徴とする。
装着者の視点位置でその視線方向における現実空間を撮像する撮像手段と、装着者の視線を検出するための視線検出手段と、装着者の頭の位置もしくは姿勢を検出するための頭部位置検出手段と、前記撮像手段の撮影画像と、前記頭部位置検出手段の装着者の頭の位置情報もしくは姿勢情報に応じて生成される仮想画像とを合成し複合現実感画像を生成する複合画像生成処理を行う画像処理手段と、装着者が視認できる位置に配置され、前記複合現実感画像を表示する第一の表示手段と、装着者が直接視認できない位置に配置された第二の表示手段と、を備え、前記視線検出手段により検出された装着者の視線情報を用いて、現実空間上での装着者の視線を表現するように前記第二の表示手段に表示することを特徴とする。
本発明に係る頭部装着型表示装置によれば、装着時において、装着者の視線や目によるコミュニケーションを容易にすることができる。
以下、図面を参照して本発明の好ましい実施形態を説明する。
《第1の実施形態》
まず、図1は、本実施形態における頭部装着型表示装置の構成例を示すブロック図である。図2は、本実施形態における頭部装着型表示装置100の構成配置を説明する図である。
まず、図1は、本実施形態における頭部装着型表示装置の構成例を示すブロック図である。図2は、本実施形態における頭部装着型表示装置100の構成配置を説明する図である。
頭部装着型表示装置100は、撮像部101とシステム制御部102と画像処理部103と画像生成処理部104と不揮発性メモリ105とメモリ106と頭部位置検出部107と視線検出部108と第一の表示部109とバス110と第二の表示部111によって構成されている。
ここで、撮像部101、システム制御部102、画像処理部103、画像生成処理部104、不揮発性メモリ105、メモリ106、頭部位置検出部107、視線検出部108、第一の表示部109と、第二の表示部111は、バス110を介して接続されている。
撮像部101は、CCDセンサやCMOSセンサ等の撮像素子、レンズ、シャッター、絞り、測距部、A/D変換器等を有するカメラユニットである。撮像部101で撮像された画像の画像データは、画像処理部103に送信され、画像処理部103で、後述する各種処理を施された後、現実空間画像データとしてメモリ106に記録される。
また、図2に示すように、撮像部101は装着者の頭部前面に配置され、装着者の視線方向に配置される。
システム制御部102は、例えば不揮発性メモリ105に格納されるプログラムに従い、メモリ106をワークメモリとして用いて、頭部装着型表示装置100の各部を制御する。なお、後述する頭部装着型表示装置100の機能や処理は、システム制御部102が不揮発性メモリ105に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
画像処理部103は、システム制御部102の制御に基づいて、画像データに対して各種画像処理を施す。画像処理が施される画像データとしては、メモリ106に格納された画像データや、撮像部101で撮像された画像データがある。
画像処理部103が行う画像処理には、画像データの符号化処理、複合化処理、圧縮処理、伸長処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。画像処理部103は、例えば、特定の画像処理を施すための専用の回路ブロックである。また、画像処理の種別によっては、画像処理部103ではなく、システム制御部102がプログラムに従って画像処理を実行することもできる。
画像生成処理部104は、グラフィックスカードなどの機器によって実現される。一般的に、画像生成処理部104は図示しないグラフィックスメモリを保持している。システム制御部102で、実行されるプログラムによって生成された画像情報は、バス110を介して画像生成処理部104が保持するグラフィックスメモリに書き込まれる。
画像生成処理部104は、グラフィックスメモリに書き込まれた画像情報を基に、CG等の仮想空間画像データを生成する。また、画像生成処理部104は、生成した仮想空間画像データと、撮像部101によってメモリ106に書き込まれている現実空間画像データとを合成し、複合現実感画像データを生成する。そして、画像生成処理部104は、複合現実感画像データを第一の表示部109に適した画像信号に変換し、送出する。
また画像生成処理部104は、システム制御部102の指示により、後述する視線検出部108が算出する視線位置情報を用いて、装着者の視線や眼に関する画像データを生成する。そして、画像生成処理部104は、装着者の視線や眼に関する画像データを第二の表示部111に適した画像信号に変換し、送出する。
グラフィックスメモリは必ずしも画像生成処理部104が保持する必要はなく、メモリ106がグラフィックスメモリの機能を実現してもよい。
不揮発性メモリ105には、画像データや、その他のデータ、システム制御部102が動作するための各種プログラム等が格納されている。不揮発性メモリ105は、例えばハードディスク(HD)やROM等を有している。
メモリ106は、撮像部101から得られた現実空間画像データや、視線検出部108から得られた装着者の視線データ、頭部位置検出部107で得られた装着者の頭部位置データ、第一の表示部108に表示するための複合現実感画像データなどの各種データを記録する。メモリ106は、前述のデータを格納するのに十分な記憶容量を備えている。
頭部位置検出部107は、内部に頭部装着型表示装置100の位置や姿勢に関するデータを測定するためのセンサを備え、観測したデータから装着者の頭部位置情報を算出する。例えば、頭部位置検出部107は、特許第5047090号に記載される三次元位置姿勢センサによる測定手法を用いて、ジャイロセンサ、加速度センサ、磁気センサ等で構成される。また、算出された頭部位置データは、メモリ106に記録される。
視線検出部108は、頭部装着型表示装置100の装着者の視線等の眼に関する情報を測定するためのセンサを備え、観測したデータから装着者の視線データを算出する。視線検出部108は、例えば図2に示すように、装着者の眼が映り込む位置に小型カメラ(アイカメラ)を配置する。そして、アイカメラの撮像画像から装着者の眼の検出処理を行い、装着者の視線位置データを算出する。この他にも温度センサと、赤外線を照射するユニットを配置することで、赤外線照射による装着者の白眼と黒目の温度変化の差から装着者の眼の検出を行ってもよい。算出された装着者の視線データは、メモリ106に記録される。
第一の表示部109は、頭部装着型表示装置100の装着者に対し、複合現実感画像データ(以下、第一の表示データ)の表示を行う。例えば、図2に示すように、第一の表示部109は頭部装着型表示装置100において、装着者の両眼が覆われる位置に配置される。
第二の表示部111は、本発明の頭部装着型表示装置100の非装着者に対して、装着者の視線や眼に関する画像データ(以下、第二の表示データ)の表示を行う。第二の表示部111は、図2に示すように、装着者の視線や眼に関する画像データの表示が非装着者に対して、違和感がないように、顔正面方向で装着者の顔全面かつ、眼が覆われるように配置される。
次に、図1に示した頭部装着型表示装置100の利用時に、第一の表示部109、第二の表示部111、それぞれに対して画像を表示するフローを、図3のフローチャートと図4、図5を参照して説明する。
図4は、本実施形態における第一の表示部109、第二の表示部111へ表示するデータの生成を説明する図である。図5は、本実施形態における第二の表示部111の表示例を説明する図である。
ここから、図3のフローチャートを用いて、本実施形態のシステム制御部102のふるまいについて詳細に説明する。
まず、前提条件としては、図3のフローチャートの開始は、頭部装着型表示装置100を装着した状態、且つ、装着者が複合現実感画像の表示を利用している状態である。また、装着者の前方には、図4(a)に示すような現実空間401が広がっているものとする。そして、図4(c)に示すタイミングT0からタイミングT4を例にして、時間軸上の各ステップのふるまいを説明する。タイミングT0からタイミングT4は、後述するステップS301から、ステップS310までの一連の処理が実行されると、タイミングが1つ進むものとする。
ステップS301において、撮像部101で被写体を撮像し、画像処理部104で各種画像処理を行った後、現実空間画像として一時記憶メモリであるメモリ106に記憶する。また、本実施形態では、図4(a)の破線枠402で示す範囲が、撮像部101の撮影可能であり、その範囲が撮影画像として取得できるものとする。
ステップS302において、視線検出部108は、装着者の視線データを算出する。算出した装着者の視線情報は、一次記憶メモリであるメモリ106に記憶する。本実施形態では、アイカメラの撮像画像に対し、人体の黒目と白目の画像パターンをテンプレートマッチングによって検出を行う構成とする。この検出処理により、アイカメラの撮像画像内における眼の大きさや中心座標、黒目の中心座標位置といった検出情報が取得される。そして、眼の中心座標と、黒目の中心座標とのずれ量から、視線の方向や大きさといった装着者の視線データを算出する。例えば、図4(c)において、タイミングT0の場合は、装着者の頭部と目の動きから、装着者の視線方向は左方向と算出され、タイミングT1の場合は、装着者の視線方向は正面方向として算出される。図4(c)は、水平方向を例としているが、垂直方向も同様の方法で算出することができる。また、視線検出処理は、片眼のみに適応してもよいし、視線情報の精度を向上や、奥行き方向の焦点位置を算出するために両眼に対して適応してもよい。
ステップS303において、頭部位置検出部107は、装着者の頭部位置データを取得する。本実施形態では、頭部位置データとして、少なくとも頭部の回転方向および量が取得できるものとする。例えば、図4(c)において、タイミングT0からタイミングT2の間は、装着者の頭部の向きが12時方向であることを情報として取得する。そしてまた、タイミングT3、からタイミングT4の間は、装着者の頭部の向きが11時方向であることを情報として取得する。また、検出された装着者の頭部位置データは、一次記憶メモリであるメモリ106に記憶する。
ステップS304において、システム制御部102はメモリ106から注視領域データと装着者の視線データを読み出し、現実空間画像に対する装着者の注視領域データを更新する。ここでの注視領域データは、現実空間画像内の第一の表示部109で表示する領域の中心座標とする。そのため、注視領域データの更新は、第一の表示部109で表示する領域の中心座標に対して、ステップS302で算出された装着者の視線データから算出される座標のずれ量を足し込むことで算出される。
具体的な処理を、図4(c)のタイミングT0を例に説明する。説明を簡便にするため、視線データは水平方向に限定し、且つ、左方向、中央方向、右方向の三つの方向の種類のみが扱われ、それぞれに固有の座標ずれ量が定められているものとして説明する。
例えば、図4(c)のタイミングT0の状態においては、現実空間の破線で囲まれた領域を現実空間画像の領域、実線で囲まれた領域を、第一の表示部109の表示領域とする。そして、取得された装着者の視線データは、第一の表示部109に対して左方向を向いているため、注視領域データが左方向にずれる様に更新される。
これに対して、図4(c)のタイミングT1の状態においては、現実空間の破線で囲まれた領域を現実空間画像の領域、実線で囲まれた領域を、第一の表示部109の表示領域とする。そして、取得された装着者の視線データは、第一の表示部109に対して、正面方向を向いているため、注視領域データは更新されない。
さらには、図4(c)のタイミングT2の状態においては、現実空間の破線で囲まれた領域を現実空間画像の領域、実線で囲まれた領域を、第一の表示部109の表示領域とした場合、取得された装着者の視線データは、第一の表示部109に対して、右方向を向いているため、注視領域データは右方向にずれるように更新される。
また、この注視領域データの初期値は、任意ではあるが、を現実空間画像の中心座標としてよい。更新した装着者の注視領域データは、一次記憶メモリであるメモリ106に記憶する。
ステップS305において、画像生成処理部104が装着者の注視領域データと、頭部位置データから仮想空間画像の生成を行う。仮想空間画像は、現実空間画像の任意の座標位置に合成され、後述する複合現実感画像データを生成するための画像データであればよい。本実施形態では、頭部位置データから現実空間上の座標や方位を取得し、グラフィックメモリ上に書き込まれた画像情報からその座標や方位に対応したCGを生成する。そして、注視領域データから、生成したCG画像のうち、注視領域内に配置すべきものを配置した仮想空間画像(図4(b))を生成する。
ステップS306において、画像生成処理部104が注視領域データと、現実空間画像と、仮想空間画像から第一の表示データとなる複合現実感画像データを生成し、第一の表示部109に表示する。
ステップS307において、システム制御部102は、第二の表示データ更新をするか否かを判定する。第二の表示データ更新をする場合は、ステップ308を実施する。第二の表示データ更新をしない場合は、ステップ310を実施する。本実施形態では、装着者の頭部に動きがない場合に第二の表示データを更新するものとする。例えば、タイミングT0からタイミングT2の期間は更新を行ない、タイミングT3では、頭部位置データの変化があるため、更新を行わない。そのため、後述のステップS308で説明する第二の表示データの生成を実施しないことになる。
この他にも、本ステップの判定条件は、第二の表示データ生成処理を実施するかしないかを判定する処理であればよい。例えば、頭部位置検出部107が装着者頭部の加速度を検出可能な場合は、検出された加速度が所定の値を超えるか否かを判定条件としてもよいし、所定の回数、もしくは所定の時間、連続で頭部位置データの変位が検出されたか否かを判定条件としてもよい。
この他にも、装着者の視線データを判定条件としてもよい。例えば、装着者の視線が一定の場合は、第二の表示データを更新する必要性が低いため、視線データに所定の変位があるか否かを判定条件としてもよい。
そしてまた、撮像部101が取得した現実空間画像に対して、顔や人が検出可能な場合は、顔や人が検出されたか否かを判定条件としてもよい。これは、前述のように第二の表示部111は、非装着者に対する表示のため、非装着者が不在の場合は、第二の表示データを更新する必要性が低いためである。
ステップS308において、画像生成処理部104は、注視領域データから第二の表示データを生成し、メモリ106へ格納する。本実施形態での、第二の表示部111に表示するための第二の表示データは、少なくとも装着者の現実空間画像上の視線を表現するものとする。例えば、タイミングT0においては、前述のように注視領域データは、現実空間画像上の左側の座標位置を示している。そのため、第二の表示データは、視線方向が左方向であることを表現するように生成される。
そして、タイミングT1においては、前述のように注視領域データは、現実空間画像上の左側の座標位置を示している。そのため、第二の表示データは、視線方向が左方向であることを表現するように生成される。さらには、タイミングT2においては、前述のように注視領域データは、現実空間画像上の中央の座標位置を示している。そのため、第二の表示データは、視線方向が正面方向であることを表現するように生成される。
この他にも、システム制御部102が、視線検出部108が取得した視線データから装着者の表情や感情の検出が可能であれば、頭部装着型表示装置により、装着者の隠れてしまう表情や感情を表現した第二の表示データを生成してもよい。この他にも、注視領域データの更新頻度や時間的な変位から、注視領域データに対する注視度という指標を設けて、注視領域データが更新されない場合は、注視度が高いとして表現するようにしてもよい。
ステップS309において、システム制御部102の指示により、第二の表示部111はメモリ106から第二の表示データを読み出し、表示する。例えば、図4(c)におけるタイミングT0や、T1での表示例は、図5(a)となる。この他にも、前述したようにステップS308で、笑顔を表現した第二の表示データが生成されている場合は、図5(b)のような表示例となる。
ステップS310において、システム制御部102は、装着者から第一の表示部109で複合現実感画像表示の終了指示があるかを判定する。複合現実感画像表示の終了指示がある場合は、第一の表示部109の表示処理および、第二の表示部111に対する表示処理を終了する。複合現実感画像表示の終了指示がある場合は、ステップS301を処理する。
本実施形態に示したように構成された頭部装着型表示装置によれば、前記頭部装着型表示装置を装着時においても、非装着者に対して装着者の視線や目に関する情報を表示することが可能となり、視線や表情によるコミュニケーションを容易に行うことができる。
以上、本発明の好ましい実施形態について説明したが、図1に示した電子機器の構成は一例であり、各実施形態の動作を実行できるのであれば、本発明に係る電子機器の構成は、図1に示した構成に限定されるものではない。また、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100 頭部装着型表示装置、101 撮像部、102 システム制御部、
103 画像処理部、104 画像生成処理部、105 不揮発性メモリ、
106 メモリ、107 頭部位置検出部、108 視線検出部、
109 第一の表示部、110 バス、111 第二の表示部
103 画像処理部、104 画像生成処理部、105 不揮発性メモリ、
106 メモリ、107 頭部位置検出部、108 視線検出部、
109 第一の表示部、110 バス、111 第二の表示部
Claims (8)
- 装着者の視点位置でその視線方向における現実空間を撮像する撮像手段と、
装着者の視線を検出するための視線検出手段と、
装着者の頭の位置もしくは姿勢を検出するための頭部位置検出手段と、
前記撮像手段の撮影画像と、前記頭部位置検出手段の装着者の頭の位置情報もしくは姿勢情報に応じて生成される仮想画像とを合成し複合現実感画像を生成する複合画像生成処理を行う画像処理手段と、
装着者が視認できる位置に配置され、前記複合現実感画像を表示する第一の表示手段と、
装着者が直接視認できない位置に配置された第二の表示手段と、
を備え、
前記視線検出手段により検出された装着者の視線情報を用いて、現実空間上での装着者の視線を表現するように前記第二の表示手段に表示することを特徴とする頭部装着型表示装置。 - 視線検出手段は、装着者の目を撮像するための第二の撮像部を備え、第二の撮像部で取得された画像を用いて、装着者の視線を検出することを特徴とする請求項1に記載の頭部装着型表示装置。
- 第二の表示手段が表示する装着者の視線情報は、前記視線検出手段により検出された装着者の視線情報と、前記複合現実感画像の表示領域情報とを合わせて、現実空間上における装着者の視線を表現するように第二の表示手段に表示することを特徴とすることを特徴とする請求項1に記載の頭部装着型表示装置。
- 第二の表示手段が表示する装着者の視線情報は、前記視線検出手段により、装着者の視線移動が検出された時に更新することを特徴とする請求項1に記載の頭部装着型表示装置。
- 第二の表示手段が表示する装着者の視線情報は、前記視線検出手段により、装着者の左目と右目の視差情報を算出することで、前記視線情報に奥行き方向の距離パラメータを含んでいることを特徴とする請求項1に記載の頭部装着型表示装置。
- 第二の表示手段は、前記装着者の視線の表示に加え、頭部に装着することにより、伝達困難となる装着者の感情の関する情報を表示することを特徴とする請求項1に記載の頭部装着型表示装置。
- 第二の表示手段は、前記撮像部で取得した撮像画像に顔もしくは、人体が検出された時に表示を更新することを特徴とする請求項1に記載の頭部装着型表示装置。
- 第二の表示手段は、前記視線検出手段から取得した装着者の視線情報の変動推移情報を用いて、装着者の視野や注視度を算出し、装着者の視線情報に加えて、視野範囲や注視度に関する表示を行うことを特徴とする請求項1に記載の頭部装着型表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017113868A JP2018205647A (ja) | 2017-06-09 | 2017-06-09 | 頭部装着型表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017113868A JP2018205647A (ja) | 2017-06-09 | 2017-06-09 | 頭部装着型表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018205647A true JP2018205647A (ja) | 2018-12-27 |
Family
ID=64957076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017113868A Pending JP2018205647A (ja) | 2017-06-09 | 2017-06-09 | 頭部装着型表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018205647A (ja) |
-
2017
- 2017-06-09 JP JP2017113868A patent/JP2018205647A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12008151B2 (en) | Tracking and drift correction | |
KR102384232B1 (ko) | 증강 현실 데이터를 레코딩하기 위한 기술 | |
JP5538483B2 (ja) | 映像処理装置、映像処理方法、および映像処理システム | |
JP5113426B2 (ja) | 頭部装着型表示装置、及びその制御方法 | |
JP6619871B2 (ja) | 媒介現実コンテンツの共有 | |
JP6770536B2 (ja) | 仮想画像生成システムにおけるテキストをより効率的に表示するための技法 | |
JP5843340B2 (ja) | 3次元環境共有システム及び3次元環境共有方法 | |
WO2014016987A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP2021002301A (ja) | 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置 | |
JP6554948B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
WO2020012955A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2011010126A (ja) | 画像処理装置、画像処理方法 | |
JP6341759B2 (ja) | 頭部装着型情報表示装置及び頭部装着型情報表示装置の制御方法 | |
EP3038061A1 (en) | Apparatus and method to display augmented reality data | |
JP2015103991A (ja) | 画像処理装置、方法およびコンピュータプログラム | |
JP4689344B2 (ja) | 情報処理方法、情報処理装置 | |
JP6004354B2 (ja) | 画像データ処理装置及び画像データ処理方法 | |
US11422622B2 (en) | Electronic device and operating method thereof | |
JP2024013947A (ja) | 撮像装置、撮像装置の撮像方法およびプログラム | |
JP2019032713A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2018205647A (ja) | 頭部装着型表示装置 | |
US20230290081A1 (en) | Virtual reality sharing method and system | |
JP2006340017A (ja) | 立体映像表示装置及び立体映像表示方法 | |
JP2017055233A (ja) | 表示装置、表示システム、及び、表示装置の制御方法 | |
JP2019040356A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20191125 |