JP7066414B2 - 画像処理装置、表示システム、画像処理方法及びプログラム - Google Patents

画像処理装置、表示システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7066414B2
JP7066414B2 JP2018001741A JP2018001741A JP7066414B2 JP 7066414 B2 JP7066414 B2 JP 7066414B2 JP 2018001741 A JP2018001741 A JP 2018001741A JP 2018001741 A JP2018001741 A JP 2018001741A JP 7066414 B2 JP7066414 B2 JP 7066414B2
Authority
JP
Japan
Prior art keywords
image
head
display
correction
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018001741A
Other languages
English (en)
Other versions
JP2019120853A (ja
JP2019120853A5 (ja
Inventor
光 内舘
剛志 岩佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018001741A priority Critical patent/JP7066414B2/ja
Publication of JP2019120853A publication Critical patent/JP2019120853A/ja
Publication of JP2019120853A5 publication Critical patent/JP2019120853A5/ja
Application granted granted Critical
Publication of JP7066414B2 publication Critical patent/JP7066414B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示光学系を有した表示装置に表示する画像を処理する技術に関する。
近年、現実世界と仮想世界をリアルタイムにシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の一つに、ビデオシースルーHMDを装着したユーザの瞳位置から観察される被写体と略一致する被写体をビデオカメラ等で撮像し、その撮像画像にCGを重畳した映像を、HMD内の表示パネルを通してユーザに提示する技術が知られている。なお、HMDはHead Mounted Displayの略称であり、CGはComputer Graphicsの略称である。
これらHMDとビデオカメラからなるシステムでは、ビデオカメラで撮影した撮像画像に対して描画するCGをレンダリングにより生成し、その生成したCGを撮像画像に重畳した映像を、HMD内の表示パネルに表示するようになされている。ただし、このようなシステムでは、撮影からCGレンダリング、さらに重畳等までの一連の処理を行う演算時間が必要になるため、画像が撮影された時間と、演算後の画像がHMDに表示されるまでの時間との間に、遅延(レイテンシ)が生じる。このため、例えばHMDを装着したユーザが頭を動かしたような場合、頭を動かした瞬間ではHMDを通してユーザが観ている画像に変化はみられず、演算による遅延時間が経過した後に、HMDの表示パネル上の表示画像が動き出すことになる。このような映像の遅延は、HMDを通して映像を観ているユーザにとって大きな違和感となる。
この問題に対し、遅延時間とHMDの動作予測値とを基に、現実世界と表示映像とのずれを補正する技術が提案されている。例えば特許文献1では、フレームメモリに記憶された広画角の撮像映像から、回転角センサで検出されたユーザの頭部情報に基づいて、ユーザが観るべき表示画像をフレームメモリから切り出し、ディスプレイに表示するHMDが開示されている。また、特許文献2においては、表示部を有した頭部装着型装置において、ユーザの頭部動作に応じて表示部に表示する映像を移動するHMDが開示されている。
特開平8-191419号公報 特開2004-109994号公報
ここで、表示光学系を有するHMDの場合、その表示光学系により生ずる歪み等を補正可能な処理を施した画像を、HMD内の表示パネルに表示するような光学系画像補正が行われることがある。しかしながら、表示光学系を有するHMDにおいて、前述した遅延時間に対する補正処理によって画像の切り出しや移動等が行われると、本来表示すべきではない画像が、HMD内の表示パネルに表示されてしまうことがある。この場合、HMDを通して映像を観ているユーザに違和感のある映像が提示されてしまうことになる。
そこで、本発明は、ユーザにとって違和感の少ない映像を提供可能にすることを目的とする。
本発明に係る画像処理装置は、撮像装置により撮像された画像を入力画像として受信し、当該入力画像を画像処理して得られた画像を、ユーザの頭部に装着される表示装置に表示画像として出力する画像処理装置であって、前記表示装置が有する表示光学系の光学特性の情報を前記表示装置から取得し、前記表示装置が有する動作検知部が検知した前記頭部の動作の情報を前記表示装置から取得する取得手段と、前記入力画像に対し、前記頭部の動作の情報に基づく第1の補正処理を行う第1の補正手段と、前記第1の補正処理がなされた画像に対して、前記頭部の動作の情報と前記学特性の情報とに基づいて定まるマスク領域にマスク処理を行い、さらに前記学特性の情報に基づく第2の補正処理を行って、得られた画像を前記表示画像として前記表示装置に出力する第2の補正手段と、を有することを特徴とする。
本発明によれば、ユーザにとって違和感の少ない映像の提供が可能となる。
第1実施形態に係るシステム構成例を示すブロック図である。 HMDを装着したユーザの頭部の動作を説明する図である。 表示光学系補正部におけるアスペクト変換を説明する図である。 表示光学系の歪曲収差を説明する図である。 表示光学系補正部における歪曲収差補正を説明する図である。 表示光学系補正部におけるマスク処理を説明する図である。 HMDを装着したユーザの頭部の動きによる映像変化を示す図である。 画像受信部に入力される画像の例を示す図である。 第1実施形態における効果を説明する図である。 第1実施形態における演算部の動作を示すフローチャートである。 第2実施形態に係るシステム構成例を示すブロック図である。 第2実施形態における演算部の動作を示すフローチャートである。 第3実施形態に係るシステム構成例を示すブロック図である。
以下、添付図面を参照して本発明の好適な実施形態について説明する。
<第1実施形態>
図1は、第1実施形態の画像表示装置と画像処理装置からなる表示システムの概略的な構成例を示した図である。
本実施形態のシステムは、画像表示装置(1)と画像処理装置15を有して構成されている。本実施形態の場合、画像表示装置(1)は頭部装着型画像表示装置(ヘッドマウントディスプレイ、以下、HMD1とする。)であり、使用者であるユーザの頭部に装着される。画像処理装置15は、ケーブル又は無線によりHMD1と接続可能となされており、受信により入力された画像に対して後述する画像処理を行ってHMD1に送信する。なお、本実施形態では、HMD1と画像処理装置15が別々の構成となされた例を挙げているが、これらHMD1と画像処理装置15は一体化されて一つの頭部装着型画像表示装置を構成していても良い。
HMD1は、表示部11、光学特性記憶部12、動作検知部13、演算部14を有して構成されている。表示部11は、表示光学系111と表示素子112とを含む。HMD1を装着しているユーザ(装着者)は、表示部11の表示素子112に表示される画像を、表示光学系111を通して観ることにより映像を観察可能となる。表示光学系111は、レンズや複数の反射面を有するプリズム型の光学素子等によって構成されている。表示光学系111は、表示素子112に表示された画像を光学的に拡大等させることにより、HMDとして最適な表示画像を、HMD1のユーザに提示する。
光学特性記憶部12は、表示部11の光学特性を表す情報を記憶する。光学特性を表す情報とは、例えば表示光学系111の歪みや収差、F値などの光学系単体の性能を示す値や、表示光学系111と表示素子112との相対関係で決まる焦点や倍率の値である。本実施形態の場合、光学特性記憶部12に記憶されている光学特性を表す情報には、後述するアスペクト比、解像度、マスク幅(Vt,Vb,Hl,Hr)などの値も含まれる。光学特性記憶部12に記憶された光学特性の情報は、後述する表示光学系補正処理などに使用される。
動作検知部13は、現実世界に存在するHMD1の、三次元空間内における位置や向き、姿勢等を検知することによって、HMD1を装着しているユーザの頭部の位置や向き、姿勢を検出し、またそれらの変化から動きを検出する。以下、HMD1を装着しているユーザの頭部の位置、向き、姿勢等の動きを、単に、ユーザの頭部の動作と表記する。動作検知部13は、加速度センサ、角速度センサなどを用いて構成される。
図2には、HMD1を装着しているユーザ2の頭部の動作を説明する概念図を示す。
本実施形態では、HMD1がユーザ2の頭部に装着されている場合の、当該ユーザ2の頭部に対して、図2に示すような、ロール(Roll)軸R、ピッチ(Pitch)軸P、ヨー(Yaw)軸Yをそれぞれ定義する。ロール軸Rは、ユーザ2が顔を向けている方向(例えば視線方向)に対応した軸である。本実施形態では、ユーザ2がロール軸Rを回転軸として頭部を傾ける動作をロール動作と定義する。ピッチ軸Pは、ユーザ2が頭部を縦に振る(頭部を垂直方向に上下に振る、例えばうなずく動作)場合の回転軸に相当する。本実施形態では、ユーザ2がピッチ軸Pを回転軸として頭部を縦に振る動作をピッチ動作と定義する。ヨー軸Yは、ユーザ2が頭部を横に振る(頭部を水平方向に左右に振る、例えば首を横に振る動作)場合の回転軸に相当する。本実施形態では、ユーザ2がヨー軸Yを回転軸として頭部を横に振る動作をヨー動作と定義する。
動作検知部13は、HMD1を装着したユーザ2の頭部がロール動作、ピッチ動作、ヨー動作する場合に、ロール軸R、ピッチ軸P、ヨー軸Yの各軸方向の加速度や回転の加速度などのデータを検知し、その検知結果をHMD1の動作検知データとして出力する。
演算部14は、動作検知部13で検出したHMD1の動きに応じて、画像のフレーム間で、画像をどの程度移動させるかを表す画像移動量を計算し、また、画像をどの程度変形させるかを表す画像変形量を計算する。なお、本実施形態において、画像の変形には画像の拡大・縮小、回転も含まれるとする。そして、演算部14は、それら画像移動量と画像変形量の情報を疑似遅延補正部152へと出力する。また、演算部14は、光学特性記憶部12より読み込んだ光学特性情報を基に表示光学系補正量を計算して表示光学系補正部151へと出力する。なお、図1では、HMD1の中に演算部14が設けられている例を挙げたが、演算部14は画像処理装置15の中に設けられていても良い。演算部14の詳細な動作については後述する。
画像処理装置15は、画像受信部153、疑似遅延補正部152、表示光学系補正部151を有しており、表示素子112に表示するための画像を生成する。
画像受信部153は、画像データを受信する。本実施形態において、画像受信部153が受信する画像データは、例えば、不図示のビデオカメラにより撮像された撮像画像に、同じく不図示のパーソナルコンピュータ(以下、PCとする。)にてCG画像が重畳等された画像データであるとする。また本実施形態において、ビデオカメラは、HMD1を装着しているユーザ2の瞳位置から観察される被写体と略一致する被写体を撮影しているとする。したがって、本実施形態において、画像受信部153は、ビデオカメラが撮像した撮像画像に対してCG画像等が重畳されたMR体験画像の画像データを受信する。
疑似遅延補正部152は、システムで生ずる画像遅延(システムレイテンシ)を、HMD1の演算部14による演算結果に基づいて疑似的に補正する疑似遅延補正処理を行う。表示光学系補正部151は、HMD1の表示光学系111における後述する収差や周辺光量低下等の光学特性に対応した画像補正処理を行う。
ここで、一般的に、光学系を介して得られる画像は、光学系の光軸中心付近と周辺付近とで結像倍率が異なったり、光の波長によって結像倍率が異なったりするため、歪曲収差や倍率色収差、周辺光量低下といった影響を受けて画質が低下することがある。表示光学系補正部151は、こういった光学系を介して発生する画質への影響を補正するための画像補正処理を行う機能を有している。画像補正の内容としては、シェーディング補正や歪曲収差補正、アスペクト変換、解像度変換などがある。表示光学系補正部151は、HMD1の光学特性記憶部12より読み込んだ表示光学系111の光学特性情報を基に画像補正処理を行う。これにより、ユーザ2がHMD1を通して観察する画像は、光学系により発生する画質低下が補正された画像となる。
本実施形態では、表示光学系111は、アナモルフィック光学系を使用した前提で説明する。表示光学系111に使用されるアナモルフィック光学系は、当該表示光学系111の光軸に対する垂直方向と水平方向とで焦点距離が異なる光学系であり、水平方向の焦点距離が短くなされている。このため、アナモルフィック光学系を介した画像は、水平方向が広く拡大された画像となり、これによりHMD1を装着しているユーザは、臨場感のある画像を観察できる。
またアナモルフィック光学系を使用した場合、表示素子112のアスペクト比とユーザが観察する画像のアスペクト比とは異なるため、表示光学系補正部151は、画像のアスペクト変換を行う。
アスペクト変換の様子を図3(a)~図3(c)を用いて説明する。図3(a)は、表示素子112のアスペクト比が例えば4:3である場合に、表示光学系補正部151に供給される入力画像301の一例を示している。このときの入力画像301は、表示素子112と同じアスペクト比4:3である。表示光学系補正部151は、この入力画像を光学特性記憶部12の光学特性情報に基づいてアスペクト変換し、図3(b)のように垂直方向にのみ拡大した画像302を生成する。そして、この図3(b)の画像302を表示素子112に表示して、アナモルフィック光学系である表示光学系111を介した画像は、図3(c)のような16:10の画像303となる。したがって、HMD1を装着しているユーザは、図3(c)のような16:10の画像303を観察できることになる。このように、アナモルフィック光学系を使用する場合は、縦長の画像を表示素子112に表示させることによって、HMD1のユーザに対して適切なアスペクト比の体験画像を提示することができる。
次に、表示光学系111の歪曲収差補正処理について、図4(a)~図4(c)を用いて説明する。ここでは、表示光学系111が歪曲収差を有する場合を例に挙げて説明する。
表示素子112に例えば図4(a)のような画像401を表示し、歪曲収差を有する表示光学系111を介して観察した場合、図4(b)のように糸巻き型に歪んだ画像402が見えることになる。これは、表示光学系111が歪曲収差を有するためである。このような歪みを改善するため、表示光学系補正部151は、光学特性記憶部12の光学特性情報に基づいて、画像402の糸巻き型の歪みとは逆に歪ませた画像、つまり図4(c)に示すような画像403を作成する。この図4(c)の画像403を表示素子112に表示し、さらに表示光学系111を介して観察すると、歪みが低減された画像が観察されることになる。
次に、表示光学系111がアナモルフィック光学系であり、且つ歪曲収差特性を持つ光学系であった場合の画像補正について、図5(a)~図5(c)を用いて説明する。このように表示光学系111がアナモルフィック光学系で且つ歪曲収差特性を持つ光学系である場合、画像補正としては、アスペクト変換と歪曲収差補正を行う必要がある。
図5(a)は入力画像501の一例を示している。ここで、図5(a)の入力画像501に対してアスペクト変換処理と歪曲収差補正処理を行った場合、当該入力画像501は図5(b)のような画像502となる。この図5(b)の画像502を表示素子112に表示し、表示光学系111を通して観察した場合、図5(c)のような画像503が観察されることになり、この画像503は入力画像501のような矩形ではない歪んだ画像となる。このように、アスペクト変換処理と歪曲収差補正処理の両処理を行った場合、入力画像501が矩形であるのに対して、観察される画像503は、境界部分の形状が矩形にならず歪んだ形状になり、ユーザにとって違和感のある画像になってしまう。またこの場合、図3(b)のようにアスペクト変換を実施する際に観察領域内には表示されないはずの画像が、観察領域内に表示されてしまうことがある。
このため、表示光学系111がアナモルフィック光学系であり、且つ歪曲収差特性を持つ光学系である場合、図6(a)~図6(d)で示すような画像補正が行われる。
図6(a)は入力画像601の一例を示しており、図5(a)の入力画像501と同じ画像であるとする。この図6(a)の入力画像601に対しては、アスペクト変換と歪曲収差補正を実施する前に、図6(b)のように上下に黒画像を重畳し、画像として表示する必要のない領域をマスクする処理が行われることより画像602が生成される。そして、マスクされた画像602に対して、アスペクト変換と歪曲収差補正が実施される。これにより、図6(b)に示した画像602は、図6(c)のような画像603として表示素子112に表示され、さらに表示光学系111を通して観察されることになる。その結果、表示光学系111を通して観察される画像は、図6(d)のような画像604になる。すなわち、ユーザにより観察される画像604は、境界部分が矩形の画像として観察されることになる。
図1の例では、HMD1の表示部11が一つであることを前提として説明したが、HMD1の構成はこの例には限定されず、表示部11は複数から構成されても良い。例えば、HMDのような頭部装着型装置の場合は、表示部11は両目に合わせて二つにより構成されていることが多い。また、前述の例では、アスペクト変換と歪曲収差補正を例に挙げたが、解像度変換の場合には、表示光学系補正部151において光学特性に基づく解像度変換が行われる。
次に、疑似遅延補正部152について詳細に説明する。
疑似遅延補正部152は、システムにより生ずる遅延(システムレイテンシ)を疑似的に補正するために、演算部14より入力された画像移動量と画像変形量の情報を基に、画像受信部153より入力された画像に画像変換を行う。システムレイテンシの疑似的補正のための画像変換は、例えば水平方向の移動、垂直方向の移動、画像の回転、画像の拡大縮小などである。画像変換の方法としては、フレームバッファやラインバッファを用い、画像変換アルゴリズム(バイリニアやバイキュービックなど)などの計算を行う方法や、映像の同期信号をずらすことで疑似的に映像をずらす方法などが該当する。このような画像変換を行い、システムレイテンシによる画像遅延を疑似的に補正することによって、HMD1を装着しているユーザが画像を観る際に感ずる違和感を低減(緩和)することが可能になる。
以下、図7(a)~図7(e)を参照しながら、例えばビデオシースルー方式のHMD1を用いた場合における疑似遅延補正部152による疑似遅延補正処理の効果について説明する。
図7(a)はHMD1を装着したユーザ2が頭部を動かす動作を行っていない頭部動作なしの場合における、画像と現実世界及びユーザの状態とを表した図である。図7(a)において、画像701aは表示部11を介してユーザ2が観察している画像を示している。状態702aは画像701aを観察中のユーザ2を頭上から見た現実世界の様子を、状態703aは画像701aを観察中のユーザ2を横から見た様子、状態704aは画像701aを観察中のユーザ2を正面から見た様子をそれぞれ示している。
図7(b)はHMD1を装着したユーザ2が頭部をヨー動作した場合の、画像と現実世界及びユーザの状態とを表した図である。以下同様に、図7(c)はユーザ2が頭部をピッチ動作した場合、図7(d)はユーザ2が頭部をロール動作した場合、図7(e)はユーザ2が頭部を前後に動作した場合の、各画像と現実世界及びユーザ2の状態とを表した図である。これら図7(b)~図7(e)において、画像701b~701e、状態702b~702e、状態703b~703e、状態704b~704eは、それぞれ図7(a)の画像701a、状態702a、状態703a、状態704aと同様に表されている。
ここで、図7(a)で示すようにユーザ2が頭部を動かしていない頭部動作なしの場合、HMD1の表示部11には、撮像画角Aθの範囲内の画像701aが、解像度H×Vの範囲内に表示されている。なお、図7(a)において、解像度H×VのHは水平方向の表示画素数、Vは垂直方向の表示画素数を表している。
図7(b)に示すようにユーザ2が頭部をヨー動作(頭部の横振り動作)した場合、演算部14は、ヨー動作時の角速度Yωとシステムの遅延量Dtとから、ヨー角Yθを求める。つまり、ヨー動作がシステムの遅延時間分続いたことにより生ずる水平方向の角度変化分を表すヨー角Yθを求める。さらに、演算部14は、ヨー角Yθと基準となる距離Lとの関係から、画像の水平移動量Hdを求める。この場合、疑似遅延補正部152は、水平移動量Hdに基づいて、画像を水平方向にずらすような遅延補正処理を行う。これにより、表示部11には、水平移動量Hdに応じた分だけ水平方向にずれた画像701bが表示される。したがって、ユーザ2に対しては、頭部のヨー動作(横振り動作)に略々リアルタイムに応答した違和感のない(少ない)画像701bを提示することが可能となる。なお、基準となる距離Lは、例えば、予め決められた距離や、撮像されている被写体までの距離のような計測可能な距離などを用いることができる。
図7(c)に示すようにユーザ2が頭部をピッチ動作(頭部の縦振り動作)した場合、演算部14は、ピッチ動作時の角速度Pωとシステムの遅延量Dtとからピッチ角Pθを求める。さらに、演算部14は、ピッチ角Pθと基準となる距離Lとの関係から、画像の垂直移動量Vdを求める。この場合、疑似遅延補正部152は、垂直移動量Vdに基づいて、画像を垂直方向にずらすような遅延補正処理を行う。これにより、表示部11には、垂直移動量Vdに応じた分だけ垂直方向にずれた画像701cが表示される。したがって、ユーザ2に対しては、頭部のピッチ動作(縦振り動作)に略々リアルタイムに応答した違和感のない(少ない)画像701cを提示することが可能となる。
図7(d)に示すようにユーザ2が頭部をロール動作した場合、演算部14は、ロール動作時の角速度Rωと遅延量Dtとからロール角Rθを求める。さらに、演算部14は、ロール角Rθから画像の回転角Θdを求める。この場合、疑似遅延補正部152は、この回転角Θdに基づいて画像を回転させるような遅延補正処理を行う。これにより、表示部11には画像701dが表示される。したがって、ユーザ2に対しては、頭部のロール動作に略々リアルタイムに応答した違和感のない(少ない)画像701dを提示することが可能となる。
図7(e)に示すようにユーザ2が頭部を前後に移動する動作(ロール軸方向への移動動作)を行った場合、演算部14は、ロール軸方向の加速度Raと遅延量Dtとからロール軸方向の移動量RMを求める。さらに、演算部14は、ロール軸方向の移動量RMと撮像画角Aθの関係から画像の拡大率Edを求める。なお、拡大率Edが1より大きい場合には画像が拡大され、拡大率Edが1未満である場合には画像が縮小されることになる。この場合、疑似遅延補正部152は、この拡大率Edに基づいて画像を拡大又は縮小させるような遅延補正処理を行う。これにより、表示部11には画像701eが表示される。したがって、ユーザ2に対しては、頭部を前後に移動させる動作に略々リアルタイムに応答した違和感のない(少ない)画像701eを提示することが可能となる。
以上説明したように、画像処理装置15では、HMD1の動作検知部13により検知された動作に基づく疑似遅延補正処理が行われることによって、システムの遅延(システムレイテンシ)で生ずる画像遅延を疑似的に補正する。これにより、ユーザに対して違和感が少ない画像を提示することが可能となる。
次に、疑似遅延補正部152と表示光学系補正部151の両処理を実行した場合の動作について説明する。
本実施形態のようなHMD1の使用例としては、例えばPC上で起動したアプリケーションソフトウェアが生成したMR体験画像を表示部11に表示することで、ユーザ2にMR体験を提供するというような使われ方が一般的である。また本実施形態の場合、MR体験画像は、HMD1を装着しているユーザ2の瞳位置から観察される被写体と略一致する被写体をビデオカメラで撮像し、さらにPCが当該撮像画像にCG画像等を重畳して生成されるとする。以下、このような体験画像生成アプリケーションソフトウェアを、体験画像生成アプリと呼ぶことにする。
ここで、体験画像生成アプリによっては、HMD1の表示部11に適したアスペクト比の画像を生成することで、HMD1のパフォーマンスを最適化するようなものも存在する。図8(a)はアスペクト比が例えば4:3の一般的なPCのデスクトップ画面801を示した図である。体験画像生成アプリは、HMD1に適したMR体験画像として、アスペクト比16:10の画像802を生成する。すなわち、体験画像生成アプリは、図8(b)に示すように、アスペクト比4:3の一般的なPCのデスクトップ画面801上に、HMD1に適したアスペクト比16:10の画像802を描画する。画像処理装置15の画像受信部153は、図8(b)に示すように、PCのデスクトップ画面801上にアスペクト比16:10の画像802が描画された画像データを受信する。
以下、図8(b)に示した画像が画像処理装置15に入力されてからHMD1で表示されてユーザにより観察されるまでの画像処理について、図9(a)~図9(c)を用いて説明する。
図9(a)は、HMD1を装着したユーザが頭部を動かす動作を行っていない頭部動作なしの場合において、PCにて生成される画像901aからHMD1に表示される画像904aまでを表した図である。図9(a)において、画像901aは、画像受信部153で受信されて疑似遅延補正部152に入力し、当該疑似遅延補正部152から出力される画像を示している。画像902aは、疑似遅延補正部152から出力された画像901aに対し、表示光学系補正部151によって前述したように上下に黒画像を重畳するマスク処理を行った後の画像を示している。画像903aは、表示光学系補正部151において、画像902aに対してアスペクト変換及び歪曲収差補正を行った後の画像を示している。そして、画像904aは、画像903aの画像を、HMDの表示素子112に表示し、さらに表示光学系111を介することでユーザに提示される画像を示している。
また、図9(b)は、HMD1を装着したユーザが頭部を例えばピッチ動作した場合において、PCにて生成される画像901bからHMD1に表示される画像904bまでを表した図である。同様に、図9(c)は、HMD1を装着したユーザが頭部を例えばピッチ動作した場合において、PCにて生成される画像901cからHMD1に表示される画像904cまでを表した図である。ただし、図9(c)は、本実施形態において、後述するように、黒画像でマスク処理される領域(マスク領域とする。)を可変することにより、ユーザに対して違和感の少ない画像を提供可能にする場合の例を示している。一方、図9(b)は、本実施形態のように黒画像でマスク処理されるマスク領域を可変しない従来の手法の場合の例を示している。なお、図9(b)と図9(c)において、画像901bと901c、画像902bと902c、画像903bと903c、画像904bと904cは、それぞれ図9(a)の画像901a、画像902a、画像903a、画像904aと同様に表されている。
図9(a)に示したように、HMD1を装着したユーザが頭部を動かしていない頭部動作なしの場合、ここまでで説明した通り、ユーザに対しては違和感のない体験画像を提示できる。
一方、ユーザが頭部を例えばピッチ動作した場合において、後述するようなマスク領域の可変を行わない場合、ピッチ動作に応じて画像を垂直方向にずらすと、図9(b)の画像902bに示すように、マスク領域外に不必要な画像905が現れることになる。マスク領域外に現れる不必要な画像905は、例えばPC画面(デスクトップ画像)の一部などである。当該不必要な画像905が現れている場合、表示光学系補正部151の処理後の画像903bにも不必要な画像905が残り、さらには表示部11の画像904bにも不必要な画像905が残り、ユーザにとって違和感のある画像が提示されてしまう。
そこで、本実施形態においては、HMD1を装着しているユーザの頭部の動作に応じて、黒画像によるマスク領域を可変することにより、不必要な画像が表示されてしまうことを防止し、ユーザに違和感の無い画像を提示可能とする。すなわちユーザが頭部を例えばピッチ動作した場合、疑似遅延補正処理により画像を垂直方向にずらすとマスク領域外に不必要な画像905が現れるが、本実施形態では、図9(c)の画像902cのように、マスク領域を可変して不必要な画像905を隠す。これにより、図9(c)に示すように、表示光学系補正部151の処理後の画像903c、さらには表示部11の画像904cにも不必要な画像905は現れず、ユーザにとって違和感の少ない画像を提示可能となる。なお、この例では、HMD1を装着したユーザ2が頭部をピッチ動作した場合を挙げているが、ヨー動作等の他の動作の場合も前述同様に、その動作に応じてマスク領域を可変することにより、ユーザにとって違和感の少ない画像の提示が可能となる。例えばヨー動作の場合には、マスク領域を横方向(水平方向)に可変すれば良い。
以下、本実施形態において、ユーザの頭部の動作に応じて黒画像のマスク領域を可変できるようにする処理について、図10のフローチャートを用いて説明する。図10に示すフローチャートの処理は、演算部14により行われる。なお、以下の説明では、図10のフローチャートの各処理ステップS101~ステップS115をS101~S115と略記する。この図10のフローチャートの処理は、ソフトウェア構成により実行されても良いし、ハードウェア構成により実現されてもよく、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、例えばROM等に記憶されている本実施形態に係るプログラムをCPU等が実行することにより実現される。本実施形態に係るプログラムは、ROM等に予め用意されていてもよく、着脱可能な半導体メモリ等から読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。これらのことは、後述する他のフローチャートにおいても同様であるとする。
先ずS101において、演算部14は、HMD1を装着しているユーザ2の頭部の動きを動作検知部13が検知した頭部動作情報(Q)を取得する。前述したように、頭部動作情報(Q)は、加速度センサ、角速度センサなどのセンサを用いて計測されるセンサデータであり、頭部の動き(首ふりや移動)を数値化した動作検知データである。
次にS102において、演算部14は、システムの遅延量Dtを取得する。システムの遅延量Dtとは、例えば現実空間を撮像した画像を、表示光学系111を介してユーザが観察するまでの間の各種演算や処理等により生ずる遅延(レイテンシ)分に相当する値である。遅延量Dtは、固定値として保存されている値を使用しても良いし、リアルタイムに変動する遅延量を反映した値であっても良い。
次にS103において、演算部14は、頭部動作情報(Q)から頭部の動作はピッチ動作(縦振り動作)若しくはヨー動作(横振り動作)であるかを判定する処理を行う。本実施形態では、頭部のピッチ動作若しくはヨー動作を判定する方法の一例として、水平方向(横方向、ヨー方向)の角速度と垂直方向(縦方向、ピッチ方向)の角速度を基に判定する方法を用いる。ここで、演算部14は、水平方向の角速度Yωが一定値以上の場合には頭部のヨー動作であると判定し、垂直方向の角速度Pωが一定値以上の場合には頭部のピッチ動作であると判定する。そして、演算部14は、頭部のピッチ動作若しくはヨー動作であると判定した場合にはS104に処理を進める。一方、演算部14は、頭部のピッチ動作若しくはヨー動作の何れでもないと判定した場合にはS105に処理を進める。
S104に進んだ場合、演算部14は、頭部動作情報(Q)と遅延量(Dt)とを基に画像の水平移動量(Hd)と垂直移動量(Vd)を算出する。一方、S105に進んだ場合、演算部14は、画像の水平移動量(Hd)と垂直移動量(Vd)をそれぞれ0に設定する。これらS104又はS105の後、演算部14は、S106に処理を進める。
S106に進むと、演算部14は、頭部動作情報(Q)から頭部の傾きを判定する処理を行う。本実施形態では、頭部の傾きを判定する方法の一例として、ロール方向の角速度を基に判定する方法を用いる。そして、演算部14は、ロール方向の角速度Rωが一定値以上の場合には頭部を傾けたと判定してS107に処理を進め、ロール方向の角速度Rωが一定値以上でない場合(一定値未満の場合)には頭部の傾きではないと判定してS108に処理を進める。
S107に進んだ場合、演算部14は、頭部動作情報(Q)と遅延量(Dt)とを基に画像の回転角(Θd)を算出する。一方、S108に進んだ場合、演算部14は、画像の回転角(Θd)を0に設定する。これらS107、S108の後、演算部14は、S109に処理を進める。
S109において、演算部14は、頭部動作情報(Q)から頭部の前後移動(ロール軸R方向への移動)を判定する処理を行う。本実施形態では、頭部の前後移動を判定する手法の一例として、ロール軸方向の加速度情報から判定する方法を用いる。演算部14は、ロール軸方向の加速度Raが一定値以上の場合には頭部が前後移動をしたと判定してS110に処理を進め、ロール軸方向の加速度Raが一定値以上でない(一定値未満)の場合には頭部が前後移動していないと判定してS111に処理を進める。
S110に進んだ場合、演算部14は、頭部動作情報(Q)と遅延量(Dt)とを基に画像の倍率(Ed)を算出する。一方、S111に進んだ場合、演算部14は、画像の拡大率(Ed)を0に設定する。これらS110、S111の後、演算部14は、S112に処理を進める。
S112に進むと、演算部14は、光学特性記憶部12からの光学特性情報であるマスク幅(Vt,Vb,Hl,Hr)を取得する。マスク幅Vtは画像の上側に黒画像を重畳するマスク領域の幅であり、以下同様に、マスク幅Vbは画像の下側のマスク領域の幅、マスク幅Hlは画像の左側のマスク領域の幅、マスク幅Hrは画像の右側のマスク領域の幅である。本実施形態において、それぞれのマスク幅(Vt,Vb,Hl,Hr)は、図6(b)に示すように、光学特性によって変化するアスペクト変換の変換量によって決定される。
次にS113において、演算部14は、光学特性記憶部12から読み出されたマスク幅(Vt,Vb,Hl,Hr)、前述の水平移動量(Hd)、垂直移動量(Vd)、画像の回転角(Θd)、画像の拡大率(Ed)を基に、マスク領域(B)を決定する。演算部14は、水平移動・垂直移動の場合には移動量のオフセットを考慮してマスク領域(B)を決定し、回転・拡大・縮小の場合には回転角・拡大率の変形分を考慮してマスク領域(B)を決定する。
次に、S114において、演算部14は、前述のように計算した画像の水平移動量(Hd)、垂直移動量(Vd)、回転角(Θd)、拡大率(Ed)の情報を疑似遅延補正部152に送る。また、S115において、演算部14は、マスク領域(B)の情報を表示光学系補正部151へ送る。このようにして、演算部14は、光学特性記憶部12と動作検知部13より受信した情報から、表示光学系補正部151と疑似遅延補正部152においてそれぞれ補正処理を行う際に用いられる補正値を生成して送信する。
前述した図9(b)の例のように、マスク領域を可変しない場合、HMD1を装着しているユーザ2の頭部の例えばピッチ動作に応じて画像を垂直方向にずらした影響で、マスク領域外に不必要な画像が表示されてしまうことがある。これに対し、本実施形態の場合、演算部14は、S104において頭部の例えばピッチ動作に応じて垂直移動量(Vd)を決定している。その後、演算部14は、S113において、垂直移動量Vdとマスク幅Vtを考慮して、上側のマスク幅Vt'をVt+Vd=Vt'の演算により求め、また、下側のマスク幅Vb'を本来のマスク幅Vbから求めて、マスク領域(B)を決定する。これにより、表示光学系補正部151では、演算部14にて決定されたマスク領域(B)により、疑似遅延補正部152から入力される画像901cに対し、図9(c)の画像902cのようにマスクする処理を行う。なお、図9(b)のようにマスク領域を可変しない場合には、画像902bに示すように、この段階で不必要な画像905(デスクトップ画像の一部)が残ってしまうが、図9(c)の画像902cでは不必要な画像を含めてマスクされている。このように、本実施形態においては、HMD1を装着しているユーザ2に対し、図9(c)の画像904cのように、不必要な画像905を含めてマスクがなされた違和感のないMR体験画像を提供できる。すなわち本実施形態によれば、表示光学系111を有するHMD1において、表示光学系の補正と共に、遅延補正のための映像移動や変形、切り出し等を行った場合においても、不要な画像を生じることなく、ユーザに違和感のない映像を提供することができる。
<第2実施形態>
次に、第2実施形態について説明する。
図11は第2実施形態におけるシステム構成例を示した図である。図11の構成において、前述の図1と同じ参照符号が付されている各構成要素では概ね前述同様の動作・処理が行われ、以降では異なる処理・動作について説明する。第2実施形態のシステム構成では、マスク処理を2段階に分けて行うことにより、演算部14の負荷を低減可能とする。
第2実施形態において、第1実施形態と異なるのは、2段階に分けられたマスク処理のうち、前段のマスク処理を行うための構成としてのマスク処理部1101が、画像受信部153と疑似遅延補正部152との間に実装されている点である。第2実施形態の場合、演算部14は、光学特性記憶部12から読み出されたマスク幅(Vt,Vb,Hl,Hr)の情報を、表示光学系補正部151とマスク処理部1101へと送る。マスク処理部1101は、画像受信部153から出力された画像に対し、マスク幅に応じたマスク処理を行った後、疑似遅延補正部152に送る。したがって、疑似遅延補正部152では、マスク処理部1101によりマスク処理がなされた後の画像に対し、移動・回転・変形などの補正処理を行う。そして、表示光学系補正部151では、マスク幅に応じたマスク処理が再度行われることになる。
このように、第2実施形態の場合、疑似遅延補正部152による画像の移動・回転・変形より前にマスク処理を行うことによって、マスクされた画像が移動・回転・変形処理されることになる。第2実施形態では、ユーザにより観察される領域以外の画像を予めマスクすることによって、第1の実施形態と同様の効果を得ることができる。
前述した第2実施形態における演算部14の動作について図12のフローチャートを用いて説明する。図12のフローチャートにおいて、図11のフローチャートと同じ処理には同じ参照符号を付している。S101~S112までは図11と同様の処理であり、ここではS121以降の処理についてのみ説明する。
図12のフローチャートにおいて、S112の処理後、演算部14は、S121に処理を進める。すなわち、演算部14は、疑似遅延補正部152による移動・回転・拡大量を計算し、マスク幅(Vt,Vb,Hl,Hr)を読み込んだ後は、S121に処理を進める。
S121に進むと、演算部14は、マスク幅(Vt,Vb,Hl,Hr)の情報をマスク処理部1101に送る。これにより、マスク処理部1101では、画像受信部153から出力された画像に対し、マスク幅に応じたマスク処理が行われる。
その後、演算部14は、S114において画像の水平移動量(Hd)、垂直移動量(Vd)、回転角(Θd)、拡大率(Ed)の情報を疑似遅延補正部152に送る。さらに、演算部14は、S115において、マスク幅(Vt,Vb,Hl,Hr)の情報を表示光学系補正部151へ送る。この場合の表示光学系補正部151は、マスク幅(Vt,Vb,Hl,Hr)の情報を基に再度マスク処理を行う。
第2実施形態の場合、演算部14は、前述の図10のS113のようなマスク領域を決定する処理を行わず、マスク幅の情報を出力する。したがって、演算部14の負荷は、前述の第1の実施形態の場合よりも低減されている。このように、第2の実施形態によれば、演算部14の負荷を最小にしつつ、疑似遅延補正部152の前後で同じマスク処理を2段階に分けて行うことで、ユーザへの違和感のない画像の提供を実現している。
<第3実施形態>
次に、第3実施形態について説明する。
図13は第3実施形態におけるシステム構成例を示した図である。図13の構成において、前述の図1と同じ参照符号が付されている各構成要素では概ね前述同様の動作・処理が行われ、以降では異なる処理・動作について説明する。第3実施形態のシステム構成は、生成された画像に応じてマスク処理の実行/非実行(マスク処理の有無)を切り替えることで、演算部14の負荷を低減可能とする。
第3実施形態において、第1実施形態と異なるのは、コンピュータ16を有しており、このコンピュータ16の内部には画像生成部161とCG生成部162が含まれている点である。画像生成部161とCG生成部162は、HMD1を装着するユーザ2が体験する画像を生成する体験画像生成アプリをコンピュータ16内のCPUが実行することにより実現される機能部である。CG生成部162は画像生成部161の命令に応じてCG画像をレンダリングし、画像生成部161は、HMD1を装着するユーザ2が体験する画像を生成する。なお、体験画像生成アプリにより画像生成部161が形成され、CG生成部162は別のCG生成アプリケーションソフトウェア等により形成されてもよく、体験画像やCG画像はCPUだけでなくGPUなどにより生成されてもよい。
画像生成部161が生成する画像としては、例えば予め用意されたCGデータを、頭部の動きに応じてレンダリングして提供する際のVR画像であるとか、カメラで撮像した現実映像の上にCG画像が重畳されるMR画像などである。なお、画像生成部161は、コンピュータ16の負荷を低減するために、図8(b)に示したように、HMD1の表示部11に表示可能な範囲の画像のみを生成してもよい。この場合、第1実施形態及び第2実施形態ですでに説明した構成を用いることで、ユーザ2に違和感のない画像を提供できることは前述同様である。
一方で、コンピュータ16のスペック(処理能力やメモリ容量等)が十分である場合は、画像生成部161において、HMD1に表示可能な範囲の画像を予めマスクしておくことで、演算部14の処理負荷を低減することができる。この場合、コンピュータ16は、画像生成部161においてHMD1に表示可能な範囲外をマスクする場合にはその旨を演算部14に通知する。そして、その通知を受けた演算部14は、マスク処理をスキップする(マスク処理を非実行とする)ことによって負荷を低減させることが可能となる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける一つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
1 HMD、11:表示部、12:光学特性記憶部、13:動作検知部、14:演算部、15:画像処理装置、111:表示光学系、112:表示素子、151:表示光学系補正部、152:疑似遅延補正部、153:画像受信部

Claims (11)

  1. 撮像装置により撮像された画像を入力画像として受信し、当該入力画像を画像処理して得られた画像を、ユーザの頭部に装着される表示装置に表示画像として出力する画像処理装置であって、
    前記表示装置が有する表示光学系の光学特性の情報を前記表示装置から取得し、前記表示装置が有する動作検知部が検知した前記頭部の動作の情報を前記表示装置から取得する取得手段と、
    前記入力画像に対し、前記頭部の動作の情報に基づく第1の補正処理を行う第1の補正手段と、
    前記第1の補正処理がなされた画像に対して、前記頭部の動作の情報と前記学特性の情報とに基づいて定まるマスク領域にマスク処理を行い、さらに前記学特性の情報に基づく第2の補正処理を行って、得られた画像を前記表示画像として前記表示装置に出力する第2の補正手段と、
    を有することを特徴とする画像処理装置。
  2. 前記第2の補正手段は、画像のアスペクト比を変換する処理と、画像の解像度を変換する処理との、少なくとも一つを、前記第2の補正処理として行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の補正手段は、前記頭部の動作の情報に基づいて、画像を移動する処理と、画像を変形する処理との、少なくとも一つを、前記第1の補正処理として行うことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第の補正手段は、前記頭部の動作の情報と、画像の撮像から表示までの遅延量とを基に、前記画像を移動する処理の移動量または前記画像を変形する処理の変形量を決定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記第2の補正手段は、前記頭部の動作の情報が水平または垂直移動を示す情報である場合、前記光学特性の情報に基づくマスク領域の幅と、画像のフレーム間における前記頭部の動作の前記水平または垂直移動による移動量とに基づいて、前記マスク領域を決定することを特徴とする請求項1に記載の画像処理装置。
  6. 前記第2の補正手段は、
    前記光学特性の情報に基づく第2の補正処理として画像のアスペクト比を変換する変換処理を実行し、
    前記マスク領域の幅を、前記変換処理の変換量に基づいて決定することを特徴とする請求項2に記載の画像処理装置。
  7. 前記第2の補正手段は、前記入力画像を生成する生成装置からの通知に応じて、前記マスク処理を行うか否を切り替えることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. ユーザの頭部に装着される表示装置と、
    撮像装置により撮像された画像を入力画像として受信し、当該入力画像を画像処理して得られた画像を、前記表示装置に表示画像として出力する画像処理装置と、を有し、
    前記画像処理装置は、
    前記入力画像に対し、前記頭部の動作に基づく第1の補正処理を行う第1の補正手段と、
    前記第1の補正処理がなされた画像に対して、前記頭部の動作と前記表示装置が有する表示光学系の光学特性とに基づいて定まるマスク領域にマスク処理を行い、さらに前記表示光学系の光学特性に基づく第2の補正処理を行って、得られた画像を前記表示画像として前記表示装置に出力する第2の補正手段と、を有することを特徴とする表示システム。
  9. 前記表示装置は、前記頭部の動作を検知する動作検知を有し、前記動作検知部が検出した前記頭部の動作の情報を前記画像処理装置に出力することを特徴とする請求項8に記載の表示システム。
  10. 撮像装置により撮像された画像を入力画像として受信し、当該入力画像を画像処理して得られた画像を、ユーザの頭部に装着される表示装置に表示画像として出力する画像処理装置が実行する画像処理方法であって、
    前記表示装置が有する表示光学系の光学特性の情報を前記表示装置から取得し、前記表示装置が有する動作検知部が検知した前記頭部の動作の情報を前記表示装置から取得する取得工程と、
    前記入力画像に対し、前記頭部の動作の情報に基づく第1の補正処理を行う第1の補正工程と、
    前記第1の補正処理がなされた画像に対して、前記頭部の動作の情報と前記学特性の情報とに基づいて定まるマスク領域にマスク処理を行い、さらに前記学特性の情報に基づく第2の補正処理を行って、得られた画像を前記表示画像として前記表示装置に出力する第2の補正工程と、
    を有することを特徴とする画像処理方法。
  11. コンピュータを、請求項1から7のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018001741A 2018-01-10 2018-01-10 画像処理装置、表示システム、画像処理方法及びプログラム Active JP7066414B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018001741A JP7066414B2 (ja) 2018-01-10 2018-01-10 画像処理装置、表示システム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001741A JP7066414B2 (ja) 2018-01-10 2018-01-10 画像処理装置、表示システム、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2019120853A JP2019120853A (ja) 2019-07-22
JP2019120853A5 JP2019120853A5 (ja) 2021-02-18
JP7066414B2 true JP7066414B2 (ja) 2022-05-13

Family

ID=67306191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001741A Active JP7066414B2 (ja) 2018-01-10 2018-01-10 画像処理装置、表示システム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7066414B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216343A (ja) 2007-02-28 2008-09-18 Canon Inc 画像表示装置、プログラム、及び、記憶媒体
JP2009156992A (ja) 2007-12-25 2009-07-16 Canon Inc 制御装置、表示装置及びそれらの制御方法、複合現実システム、及びコンピュータプログラム
WO2014069090A1 (ja) 2012-11-02 2014-05-08 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US20140268356A1 (en) 2013-03-15 2014-09-18 University Of Southern California Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
US20150379772A1 (en) 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216343A (ja) 2007-02-28 2008-09-18 Canon Inc 画像表示装置、プログラム、及び、記憶媒体
JP2009156992A (ja) 2007-12-25 2009-07-16 Canon Inc 制御装置、表示装置及びそれらの制御方法、複合現実システム、及びコンピュータプログラム
WO2014069090A1 (ja) 2012-11-02 2014-05-08 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US20140268356A1 (en) 2013-03-15 2014-09-18 University Of Southern California Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
US20150379772A1 (en) 2014-06-30 2015-12-31 Samsung Display Co., Ltd. Tracking accelerator for virtual and augmented reality displays

Also Published As

Publication number Publication date
JP2019120853A (ja) 2019-07-22

Similar Documents

Publication Publication Date Title
JP4973393B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
KR101036858B1 (ko) 화상 처리 장치, 화상 처리 방법 및 프로그램을 기억하는 기억 매체
US10726814B2 (en) Image display apparatus, image processing apparatus, image display method, image processing method, and storage medium
JP7358448B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、および画像生成方法
JP7150134B2 (ja) ヘッドマウントディスプレイおよび画像表示方法
US20090028390A1 (en) Image Processing for Estimating Subject Distance
CN112887646B (zh) 图像处理方法及装置、扩展现实系统、计算机设备及介质
JP6971590B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6862210B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP7142762B2 (ja) 表示装置および画像表示方法
JP7081265B2 (ja) 画像処理装置
JP5645255B2 (ja) 画像処理装置および画像処理方法
JP7066414B2 (ja) 画像処理装置、表示システム、画像処理方法及びプログラム
JP5393877B2 (ja) 撮像装置および集積回路
JP5682473B2 (ja) 広角歪補正処理を有する画像処理方法、画像処理装置及び撮像装置
WO2022014271A1 (ja) 画像処理装置、画像表示システム、方法及びプログラム
WO2020152754A1 (ja) 画像生成装置および画像生成方法
JP7429515B2 (ja) 画像処理装置、ヘッドマウントディスプレイ、および画像表示方法
JP2020106655A (ja) 情報処理装置、情報処理方法及びプログラム
JP6645949B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP6932526B2 (ja) 画像表示装置、画像表示方法及びプログラム
WO2018150711A1 (ja) 表示制御装置、表示制御装置の制御方法、および制御プログラム
WO2024004321A1 (ja) 画像処理装置、頭部装着型表示装置、画像処理装置の制御方法、頭部装着型表示装置の制御方法、およびプログラム
JP2024084218A (ja) 画像処理装置、画像処理方法
WO2024004338A1 (ja) 頭部装着型表示装置、状態判断装置、頭部装着型表示装置の制御方法、状態判断装置の制御方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220427

R151 Written notification of patent or utility model registration

Ref document number: 7066414

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151