JP2017009916A - 映像表示装置、映像表示方法、およびプログラム - Google Patents
映像表示装置、映像表示方法、およびプログラム Download PDFInfo
- Publication number
- JP2017009916A JP2017009916A JP2015127874A JP2015127874A JP2017009916A JP 2017009916 A JP2017009916 A JP 2017009916A JP 2015127874 A JP2015127874 A JP 2015127874A JP 2015127874 A JP2015127874 A JP 2015127874A JP 2017009916 A JP2017009916 A JP 2017009916A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- heat ray
- night vision
- video display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 26
- 230000004297 night vision Effects 0.000 claims abstract description 67
- 238000003384 imaging method Methods 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 30
- 230000003247 decreasing effect Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 description 28
- 230000006870 function Effects 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 9
- 230000007423 decrease Effects 0.000 description 8
- 239000004973 liquid crystal related substance Substances 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 3
- 238000005282 brightening Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Studio Devices (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
【課題】 暗視装置や熱線映像装置で生成される画像を高精度に模擬した画像を表示できるようにする。【解決手段】 暗視装置や熱線映像装置の遅延を模擬するために、一定時間をおいてから赤外光による画像(エミュレーション画像203)を出力する。また、暗視装置や熱線映像装置の解像度と視野・周辺光量を模擬するために、帯域の制限と光量の制限を行ったうえで、赤外光による画像(エミュレーション画像203)を出力する。【選択図】 図2
Description
本発明は、映像表示装置、映像表示方法、およびプログラムに関するものである。
夜間や暗所での視界を確保するための装置として暗視装置がある。また、生物などの熱源を可視化するための装置として熱線映像装置(赤外線ゴーグル)がある。
このような暗視装置や熱線映像装置では、暗視装置や熱線映像装置を使用していない人にも、暗視装置や熱線映像装置で見える画像を見せる必要が生じる場合がある。
このような暗視装置や熱線映像装置では、暗視装置や熱線映像装置を使用していない人にも、暗視装置や熱線映像装置で見える画像を見せる必要が生じる場合がある。
例えば、夜間や暗所で暗視装置を用いることを想定した訓練を行う際、表示装置(例えばプロジェクター)で夜間や暗所の映像を表示して、暗視装置をつけた状態で訓練を行う事がある。同様に、表示装置で可視光の映像と熱赤外線映像とを表示して、熱線映像装置をつけた状態で、訓練を行う事がある。これらの訓練前、あるいは訓練後において、暗視装置や熱線映像装置で見た映像を説明する際には、暗視装置や熱線映像装置を使用していない人にも、暗視装置や熱線映像装置で見える画像を見せる必要がある。
このような場合には、暗視装置や熱線映像装置を模擬した映像を生成して表示することになる。このような映像を生成して表示する方法として、実際に暗視装置や熱線映像装置を用いる方法と、暗視装置や熱線映像装置を模擬する装置を用いる方法とがある。
前者の方法として、暗視装置や熱線映像装置に映し出された映像をビデオカメラで撮影して可視光として表示する方法と、暗視装置や熱線映像装置の映像出力を表示装置に接続して表示する方法がある。
後者の方法として、暗視装置や熱線映像装置を模擬する装置によって、暗視装置が出力する映像や、熱線映像装置が出力する映像を生成して表示する方法がある。特許文献1には、暗視装置により生成される画像を模擬的に生成するに際し、暗視装置により生成されるノイズを重畳することが開示されている。
しかしながら、特許文献1に記載の技術では、暗視装置や熱線映像装置の特性として、ノイズ以外の特性を考慮していない。このため、暗視装置や熱線映像装置で生成される画像を高精度に模擬した画像を生成することは容易ではない。
本発明はこのような問題点に鑑みてなされたものであり、暗視装置や熱線映像装置で生成される画像を高精度に模擬した画像を表示できるようにすることを目的とする。
本発明はこのような問題点に鑑みてなされたものであり、暗視装置や熱線映像装置で生成される画像を高精度に模擬した画像を表示できるようにすることを目的とする。
本発明の映像表示装置は、可視光線以外の電磁波に基づく第1の画像を入力する入力手段と、前記第1の画像に基づいて、暗視装置または熱線映像装置で生成される画像を模擬するための画像として第2の画像を生成する画像生成手段と、前記第1の画像と前記第2の画像とに基づいて、暗視装置または熱線映像装置で生成される画像を模擬する画像を表示するための処理を行う表示処理手段と、を有し、前記画像生成手段は、前記第1の画像の周波数帯域を制限することと、前記第1の画像を一定時間だけ記憶してから出力することと、前記第1の画像の少なくとも一部の領域の光量を制限することと、の少なくとも何れか1つの処理を実行した画像を前記第2の画像として生成することを特徴とする。
本発明によれば、暗視装置や熱線映像装置で生成される画像を高精度に模擬した画像を表示することができる。
まず、後述する実施形態に至る経緯について説明する。
前述したように、暗視装置や熱線映像装置を模擬した映像を生成する方法として、実際に暗視装置や熱線映像装置を用いる方法と、暗視装置や熱線映像装置を模擬する装置を用いる方法とがある。これらの方法のうち、実際に暗視装置や熱線映像装置を使う方法では、画像が表示されるまでの遅延時間が生じる。暗視装置や熱線映像装置に画像が表示されてから、その画像を再度表示するために遅延があるためである。このような遅延時間が大きくなると、例えば、動いている物を見る時に、暗視装置や熱線映像装置で表示される画像と、当該画像を模擬する画像とに違い(タイムラグ)が生じる。
前述したように、暗視装置や熱線映像装置を模擬した映像を生成する方法として、実際に暗視装置や熱線映像装置を用いる方法と、暗視装置や熱線映像装置を模擬する装置を用いる方法とがある。これらの方法のうち、実際に暗視装置や熱線映像装置を使う方法では、画像が表示されるまでの遅延時間が生じる。暗視装置や熱線映像装置に画像が表示されてから、その画像を再度表示するために遅延があるためである。このような遅延時間が大きくなると、例えば、動いている物を見る時に、暗視装置や熱線映像装置で表示される画像と、当該画像を模擬する画像とに違い(タイムラグ)が生じる。
また、暗視装置を使う場合には、正帰還となってしまうために表示装置が2台必要となる。すなわち、夜間や暗所を表示する装置があり、その装置に表示した画像を暗視装置で見ると、当該装置に表示される画像よりも明るい画像になる。この明るい画像を、夜間や暗所を表示する装置の入力に合成して表示すると元々の夜間や暗所よりも明るい画像となる。この画像を再度暗視装置が増幅して明るい映像を生成する。したがって、画像の明るさについて正帰還のループが形成される。このため、一台の表示装置は、夜間や暗所の画像を表示し、この画像を暗視装置で取得し、この暗視装置で取得された画像をさらにもう一台の表示装置で表示し、暗視装置を装着していない人は、この画像を見る様にしなくてはならない。このように、暗視装置を用いる場合、暗視装置で生成される画像を模擬する画像を生成する場合、1台の表示装置では実現することが容易ではない。
一方、暗視装置や熱線映像装置を模擬する装置を用いる方法でも、暗視装置、熱線映像装置の遅延が生じる。したがって、例えば、動いている物については、暗視装置や熱線映像装置を模擬する装置で表示される画像と、実際の暗視装置や熱線表示装置で表示される画像との違い(タイムラグ)が生じる虞がある。特に、暗視装置、熱線映像装置には、一旦センサで光電変換したものをデバイスで表示させているものがある。尚、センサは、例えば、CCD(charge coupled device)やCMOS(Complementary Metal Oxide Semiconductor Image Sensor)である。また、デバイスは、例えば、液晶ディスプレイやOLED(Organic Light Emitting Diode)である。このような暗視装置、熱線映像装置では、センサ部分と表示部分による遅延時間が生じる。
さらに、暗視装置や熱線映像装置で生成される画像の解像度(帯域)は小さい。また、暗視装置や熱線映像装置(の装着者)の視野は限られている。また、暗視装置や熱線映像装置で生成される画像には、周辺光量の低下が生じる。
本発明者らは、以上のことが要因で、従来の技術では、暗視装置や熱線映像装置で生成される画像を高精度に模擬した画像を生成することができないという知見を得た。以下の実施形態は、このような本発明者らによる知見に基づいてなされたものである。以下、添付図面を参照しながら、実施形態について説明する。
本発明者らは、以上のことが要因で、従来の技術では、暗視装置や熱線映像装置で生成される画像を高精度に模擬した画像を生成することができないという知見を得た。以下の実施形態は、このような本発明者らによる知見に基づいてなされたものである。以下、添付図面を参照しながら、実施形態について説明する。
(第1の実施形態)
まず、第1の実施形態を説明する。
図1は、映像表示装置の機能構成の一例を示す図である。
図1において、映像表示装置100は、エミュレーション画像生成部101と、合成部102と、制御部103と、表示部104と、を有する。
本実施形態では、映像表示装置の一例として、熱線映像装置が生成する画像を模擬的に生成して表示する装置を例に挙げて説明する。このため、本実施形態では、映像表示装置100は、赤外光入力画像202に基づいてエミュレーション画像203を生成し、可視光入力画像201とエミュレーション画像203を合成して表示する場合を例に挙げて説明する。ただし、暗視装置が生成する画像を模擬的に生成して表示する場合についても、熱線映像装置が生成する画像を模擬的に生成して表示する場合と同様に実現することができる。尚、可視光線以外の電磁波として、熱線映像装置では、例えば、熱赤外線を使用するのに対し、暗視装置では、例えば、近赤外線を使用する。
まず、第1の実施形態を説明する。
図1は、映像表示装置の機能構成の一例を示す図である。
図1において、映像表示装置100は、エミュレーション画像生成部101と、合成部102と、制御部103と、表示部104と、を有する。
本実施形態では、映像表示装置の一例として、熱線映像装置が生成する画像を模擬的に生成して表示する装置を例に挙げて説明する。このため、本実施形態では、映像表示装置100は、赤外光入力画像202に基づいてエミュレーション画像203を生成し、可視光入力画像201とエミュレーション画像203を合成して表示する場合を例に挙げて説明する。ただし、暗視装置が生成する画像を模擬的に生成して表示する場合についても、熱線映像装置が生成する画像を模擬的に生成して表示する場合と同様に実現することができる。尚、可視光線以外の電磁波として、熱線映像装置では、例えば、熱赤外線を使用するのに対し、暗視装置では、例えば、近赤外線を使用する。
図1において、映像表示装置100は、例えば、ブルーレイディスク(登録商標)プレーヤーなどの映像再生装置と接続されており、可視光入力画像201と赤外光入力画像202を、当該映像再生装置から入力する。
エミュレーション画像生成部101は、赤外光入力画像202から、熱線映像装置が生成する画像を模擬するためのエミュレーション画像203を生成して出力する。エミュレーション画像203を生成する処理の詳細については後述する。
制御部103は、映像表示装置100が表示部104で、可視光入力画像201と赤外光入力画像202との表示、および、可視光入力画像201とエミュレーション画像203を合成した画像と赤外光入力画像202との表示、の何れを行うかの制御を行う。制御部103は、例えば、可視光入力画像201と赤外光入力画像202とを表示する場合には、「無効」であることを示すエミュレーション指示信号204を合成部102に出力する。また、制御部103は、例えば、可視光入力画像201とエミュレーション画像203を合成した画像と赤外光入力画像202とを表示する場合には、「有効」であることを示すエミュレーション信号を合成部102に出力する。制御部103は、映像表示装置100本体のスイッチでこの切り替えを行ってもよいし、無線のリモートコントロールスイッチや赤外線のリモートコントロールスイッチでこの切り替えを行ってもよい。
エミュレーション画像生成部101は、赤外光入力画像202から、熱線映像装置が生成する画像を模擬するためのエミュレーション画像203を生成して出力する。エミュレーション画像203を生成する処理の詳細については後述する。
制御部103は、映像表示装置100が表示部104で、可視光入力画像201と赤外光入力画像202との表示、および、可視光入力画像201とエミュレーション画像203を合成した画像と赤外光入力画像202との表示、の何れを行うかの制御を行う。制御部103は、例えば、可視光入力画像201と赤外光入力画像202とを表示する場合には、「無効」であることを示すエミュレーション指示信号204を合成部102に出力する。また、制御部103は、例えば、可視光入力画像201とエミュレーション画像203を合成した画像と赤外光入力画像202とを表示する場合には、「有効」であることを示すエミュレーション信号を合成部102に出力する。制御部103は、映像表示装置100本体のスイッチでこの切り替えを行ってもよいし、無線のリモートコントロールスイッチや赤外線のリモートコントロールスイッチでこの切り替えを行ってもよい。
合成部102は、制御部103から出力されるエミュレーション指示信号204が「有効」であることを示す場合、エミュレーション画像203と可視光入力画像201とを合成する。そして、合成部102は、可視光入力画像201とエミュレーション画像203とを合成した画像を可視光出力画像211として出力する。一方、制御部103から出力されるエミュレーション指示信号204が「無効」であることを示す場合、合成部102は、可視光入力画像201と赤外光入力画像202とを、それぞれ可視光出力画像211と赤外光出力画像212として出力する。合成部102の詳細については後述する。
図2は、エミュレーション画像生成部101の機能構成の一例を示す図である。
図2において、エミュレーション画像生成部101は、帯域制限部122と、視野制限部123と、遅延部124とを有する。本実施形態では、帯域制限部122、視野制限部123、および遅延部124がこの順序で処理を行う場合を例に挙げて説明する。しかしながら、帯域制限部122、視野制限部123、および遅延部124の処理の順序は自由に変更することができる。また、エミュレーション画像生成部101に、その他の機能を追加することもできる。
図2において、エミュレーション画像生成部101は、帯域制限部122と、視野制限部123と、遅延部124とを有する。本実施形態では、帯域制限部122、視野制限部123、および遅延部124がこの順序で処理を行う場合を例に挙げて説明する。しかしながら、帯域制限部122、視野制限部123、および遅延部124の処理の順序は自由に変更することができる。また、エミュレーション画像生成部101に、その他の機能を追加することもできる。
帯域制限部122は、熱線映像装置の解像度を模擬するために、赤外光入力画像202の周波数帯域を、LPF(ローパスフィルタ)を用いて制限する。模擬する熱線映像装置内での処理になるべく近くなる様にLPFを構成する。例えば、熱線映像装置の光学的解像度が低い場合、ディジタルFIRフィルタだけでLPFを構成することができる。また、熱線映像装置の内部で、一旦特定の画素解像度となるように処理を行っている場合、帯域制限部122は、例えば、次のような処理を行うことができる。すなわち、帯域制限部122は、赤外光入力画像202に対してLPFを掛けた後、ダウンサンプリングをして、赤外光入力画像202の画素解像度を、当該処理を行った画素解像度に合わせた後に、アップサンプリングすることができる。熱線映像装置の解像度を模擬していれば、帯域制限部122における処理は、これらの処理に限定されない。
視野制限部123は、熱線映像装置の視野と周辺光量との少なくとも何れか一方の低下を模擬するために、画像の少なくとも一部の領域の座標に対する光量の減衰値を導出する。そして、視野制限部123は、導出した光量の減衰値を、帯域制限部122から入力した赤外光入力画像202の画素値に乗ずる。例えば、視野制限部123は、画像の座標に対する光量の減衰値を、画像の座標と光量の減衰値とを相互に関連付けて記憶するテーブルから得ることができる。また、視野制限部123は、赤外光入力画像202の中央をレンズ中央とした周辺光量の低下を定めた計算式の計算を行うことにより周辺光量の低下を求め、求めた結果を用いて、画像の座標に対する光量の減衰値を導出することもできる。周辺光量の低下を定めた計算式は、例えば、レンズ中央からの距離と光量との関係を表す式になる。また、本実施形態では、映像再生装置から入力した可視光入力画像201および赤外光入力画像202の映像範囲の全体を映像表示装置100で表示(模擬)する。したがって、本実施形態では、視野制限部123は、熱線映像装置の視野と周辺光量の低下うち、周辺光量の低下のみを模擬する。
遅延部124は、熱線映像装置の遅延を模擬するために、赤外光入力画像202を記憶部125に一時的に格納し、一定時間が経過した後に、赤外光入力画像202を記憶部125から読み出して出力する。一定時間は、熱線映像装置の遅延時間に対応する時間として予め設定される。熱線映像装置の遅延時間は、映像表示装置100で赤外光入力画像202を入力してから、表示部104により表示された赤外光出力画像212を熱線映像装置で受光して表示するまでの時間を基準とする時間である。この基準とする時間に、映像表示装置100で赤外光入力画像202を入力してから、エミュレーション画像203を生成して赤外光出力画像212を表示部104により表示するまでの時間を合わせるための時間が熱線映像装置の遅延時間として定まる。
これら帯域制限部122、視野制限部123、および遅延部124により、エミュレーション画像生成部101は、赤外光入力画像202から、熱線映像装置で生成される画像を模擬するためのエミュレーション画像203を生成して出力する。
図3は、合成部102の機能構成の一例を示す図である。
図3において、合成部102は、可視光明るさ調整部141と、赤外光明るさ調整部142と、エミュレーション明るさ調整部143と、画像合成部144とを有する。
図3において、合成部102は、可視光明るさ調整部141と、赤外光明るさ調整部142と、エミュレーション明るさ調整部143と、画像合成部144とを有する。
エミュレーション指示信号204が「有効」であることを示す場合、エミュレーション明るさ調整部143は、エミュレーション画像203を明るくして出力する(出力(画素値)を大きくする)。一方、エミュレーション指示信号204が「無効」であることを示す場合、エミュレーション明るさ調整部143は、エミュレーション画像203を暗くして出力する(出力(画素値)を小さくする)。これにより、例えば、エミュレーション画像203の表示を止めたり、弱めたりすることができる。
合成部102の機能のバリエーションとして、以下のような処理を行うようにしてもよい。
赤外光明るさ調整部142は、エミュレーション指示信号204が「有効」であることを示す場合、赤外光入力画像202を暗くしてもよい(出力(画素値)を小さくしてもよい)。一方、エミュレーション指示信号204が「無効」であることを示す場合、赤外光明るさ調整部142は、赤外光入力画像202を明るくしてもよい(出力(画素値)を大きくしてもよい)。以上のようにすることによって、例えば、エミュレーション画像203を出力する時に、赤外光の表示を止めたり、赤外光の表示を強めたり弱めたりことができる。
赤外光明るさ調整部142は、エミュレーション指示信号204が「有効」であることを示す場合、赤外光入力画像202を暗くしてもよい(出力(画素値)を小さくしてもよい)。一方、エミュレーション指示信号204が「無効」であることを示す場合、赤外光明るさ調整部142は、赤外光入力画像202を明るくしてもよい(出力(画素値)を大きくしてもよい)。以上のようにすることによって、例えば、エミュレーション画像203を出力する時に、赤外光の表示を止めたり、赤外光の表示を強めたり弱めたりことができる。
また、可視光明るさ調整部141は、エミュレーション指示信号204が「有効」であることを示す場合、可視光入力画像201を暗くしてもよい(出力(画素値)を小さくしてもよい)。一方、エミュレーション指示信号204が「無効」であることを示す場合、可視光明るさ調整部141は、可視光入力画像201を明るくしてもよい(出力(画素値)を大きくしてもよい)。以上のようにすることによって、例えば、エミュレーション画像203を出力する時に、エミュレーション画像203のみを表示させたり、可視光の表示割合を下げたり、可視光のみを表示させたり、エミュレーション画像の表示割合を下げたりすることができる。
以上のように本実施形態では、例えば、エミュレーション指示信号204が「有効」であることが第1の指示の一例であり、エミュレーション指示信号204が「無効」であることが第2の指示の一例である。
以上のように本実施形態では、例えば、エミュレーション指示信号204が「有効」であることが第1の指示の一例であり、エミュレーション指示信号204が「無効」であることが第2の指示の一例である。
画像合成部144は、可視光明るさ調整部141からの出力とエミュレーション明るさ調整部143からの出力とを合成し、可視光出力画像211を出力する。通常の実現形態では、画像合成部144は、可視光明るさ調整部141で明るさが調整された可視光入力画像と、エミュレーション明るさ調整部143で明るさが調整されたエミュレーション画像との加算を行うことで合成を実現する。ただし、画像合成部144は、可視光入力画像とエミュレーション画像との重み付け加算(少なくとも何れか一方の画像の画素値に対し両者のバランスをとるための重み係数を乗算した上で加算)を行ってもよい。また、画素値が飽和しないように、可視光入力画像とエミュレーション画像の画素値(レベル)をクリップしてから、可視光入力画像とエミュレーション画像とを加算してもよい。また、加算前に、可視光入力画像とエミュレーション画像との少なくとも何れか一方に対して明るさの補正を行う関数を適用し、画像の明るさを補正してもよい。また、可視光入力画像とエミュレーション画像との加算後に、画素値(レベル)をクリップしたり、明るさの補正を行う関数を適用したりしてもよい。
以上のように本実施形態では、赤外光入力画像202が第1の画像の一例であり、エミュレーション画像203が第2の画像の一例であり、可視光入力画像201が第3の画像の一例である。
以上のように本実施形態では、赤外光入力画像202が第1の画像の一例であり、エミュレーション画像203が第2の画像の一例であり、可視光入力画像201が第3の画像の一例である。
表示部104は、可視光出力画像211と赤外光出力画像212に対する表示処理を行い、可視光出力画像211と赤外光出力画像212をデバイスに表示する。表示部104には、一般には、プロジェクタ、液晶ディスプレイ、OLED(Organic Light Emitting Diode)、CRT((Cathode Ray Tube)などのデバイスが用いられる。ただし、表示部104は、可視光をR/G/Bの三原色で表示させるだけでなく、赤外光を表示するためのIR表示ができる様にする。例えば、液晶方式のプロジェクタを用いて表示部104を構成する場合、R/G/Bの光を表示するための液晶パネルとは別に赤外光を表示するための液晶パネルを設け、そこに赤外光を透過させて赤外光の画像を生成した後、R/G/Bの光と合成して出力する。プロジェクタであれば、赤外光とR/G/Bの光との合成は、投射レンズより前で行うことも、R/G/Bの光の投射レンズと赤外光の投射レンズとを別に設け、スクリーン上で行うこともできる。
図4は、映像表示装置100のハードウェアの構成の一例を示す図である。
図4において、映像表示装置100は、CPU(Central Processing Unit)401と、ROM(Read Only Memory)402と、RAM(Random Access Memory)403と、を有する。映像表示装置100は、さらに、入力装置404と、HD(Hard Disk)405と、表示装置406と、入出力I/F(Interface)407と、通信I/F(Interface)408と、システムバス409と、を有する。
図4において、映像表示装置100は、CPU(Central Processing Unit)401と、ROM(Read Only Memory)402と、RAM(Random Access Memory)403と、を有する。映像表示装置100は、さらに、入力装置404と、HD(Hard Disk)405と、表示装置406と、入出力I/F(Interface)407と、通信I/F(Interface)408と、システムバス409と、を有する。
CPU401は、映像表示装置100における動作を統括的に制御するものであり、システムバス409を介して、映像表示装置100の各構成部(402〜408)を制御する。
ROM402は、CPU401の制御プログラムであるBIOS(Basic Input/Output System)およびオペレーティングシステムプログラム(OS)を記憶する。また、ROM402は、CPU401が後述する処理を実行するために必要なプログラム等を記憶する。
ROM402は、CPU401の制御プログラムであるBIOS(Basic Input/Output System)およびオペレーティングシステムプログラム(OS)を記憶する。また、ROM402は、CPU401が後述する処理を実行するために必要なプログラム等を記憶する。
RAM403は、CPU401の主メモリ、ワークエリア等として機能する。CPU401は、処理の実行に際して、ROM402からの必要なプログラムなどの読み出しや、HD405からの必要な情報などの読み出しを行って、RAM403にロードする。そして、CPU401は、当該プログラムや情報などの処理を実行する事で各種の動作を実現する。
入力装置404は、例えば、ユーザが必要に応じて、映像表示装置100に対して操作入力を行うためのものである。入力装置404は、例えば、タッチパネル、ボタン、およびスイッチの少なくとも何れか1つを用いて構成される。
入力装置404は、例えば、ユーザが必要に応じて、映像表示装置100に対して操作入力を行うためのものである。入力装置404は、例えば、タッチパネル、ボタン、およびスイッチの少なくとも何れか1つを用いて構成される。
HD405は、各種のデータおよびファイルなどを記憶する記憶手段を構成する。
表示装置406は、例えば、プロジェクタ、液晶ディスプレイ、OLED(Organic Light Emitting Diode)、またはCRT((Cathode Ray Tube)などのデバイスを有する。表示装置406は、CPU401の制御に基づいて、可視光出力画像211および赤外光出力画像212などの画像や各種の情報を表示する。
入出力I/F407は、CPU401の制御に基づいて、可搬型記憶媒体などとの間で、データの入出力を行う。
表示装置406は、例えば、プロジェクタ、液晶ディスプレイ、OLED(Organic Light Emitting Diode)、またはCRT((Cathode Ray Tube)などのデバイスを有する。表示装置406は、CPU401の制御に基づいて、可視光出力画像211および赤外光出力画像212などの画像や各種の情報を表示する。
入出力I/F407は、CPU401の制御に基づいて、可搬型記憶媒体などとの間で、データの入出力を行う。
通信I/F408は、CPU401の制御に基づいて、ネットワークや通信ケーブル等を介して各種の情報などの通信を外部装置と行う。
システムバス409は、CPU401、ROM402、RAM403、入力装置404、HD405、表示装置406、入出力I/F407および通信I/F408を相互に通信可能に接続するためのバスである。
システムバス409は、CPU401、ROM402、RAM403、入力装置404、HD405、表示装置406、入出力I/F407および通信I/F408を相互に通信可能に接続するためのバスである。
次に、図5のフローチャートを参照しながら、映像表示装置100における処理の一例を説明する。
まず、ステップS501において、エミュレーション画像生成部101は、赤外光入力画像202からエミュレーション画像203を生成する。そのために、本実施形態では、帯域制限部122による、赤外光入力画像202の帯域の制限と、視野制限部123による、赤外光入力画像202の光量の減衰と、遅延部124による、赤外光入力画像202の一定時間の保持とがこの順で行われる。
まず、ステップS501において、エミュレーション画像生成部101は、赤外光入力画像202からエミュレーション画像203を生成する。そのために、本実施形態では、帯域制限部122による、赤外光入力画像202の帯域の制限と、視野制限部123による、赤外光入力画像202の光量の減衰と、遅延部124による、赤外光入力画像202の一定時間の保持とがこの順で行われる。
次に、ステップS502において、合成部102は、エミュレーション指示信号204が「有効」であることを示しているか否かを判定する。この判定の結果、エミュレーション指示信号204が「有効」であることを示していない場合(すなわち、「無効」であることを示している場合)には、後述するステップS506に進む。
一方、エミュレーション指示信号204が「有効」であることを示している場合には、ステップS503に進む。ステップS503に進むと、エミュレーション明るさ調整部143は、ステップS501で生成されたエミュレーション画像203を明るくする(画素値を大きくする)。このとき、可視光明るさ調整部141により、可視光入力画像201を暗くすることと、赤外光明るさ調整部142により、赤外光入力画像202を暗くすることとの少なくとも何れか一方を行うことができる。
次に、ステップS504において、画像合成部144は、ステップS503で明るさが調整された可視光入力画像およびエミュレーション画像を合成し、可視光出力画像211を生成する。すなわち、画像合成部144は、可視光入力画像およびエミュレーション画像の相互に対応する画素の画素値を加算する。尚、可視光入力画像については、明るさが調整されない場合や、全ての画素値が0(ゼロ)である場合がある。
次に、ステップS505において、表示部104は、ステップS504で生成された可視光出力画像211と、ステップS503で明るさが調整された赤外光入力画像202である赤外光出力画像212とを表示する。そして、図5のフローチャートによる処理を終了する。
前述したように、ステップS502において、エミュレーション指示信号204が「有効」であることを示していない(「無効」であることを示している)場合には、ステップS506に進む。ステップS506に進むと、エミュレーション明るさ調整部143は、ステップS501で生成されたエミュレーション画像203を暗くする(画素値を小さくする)。このとき、可視光明るさ調整部141により、可視光入力画像201を明るくすることと、赤外光明るさ調整部142により、赤外光入力画像202を明るくすることとの少なくとも何れか一方を行うことができる。
次に、ステップS507において、表示部104は、ステップS506で明るさが調整された可視光入力画像201である可視光出力画像211と、赤外光出力画像212(赤外光入力画像202)とを表示する。そして、図5のフローチャートによる処理を終了する。
尚、ステップS503、S506において、可視光入力画像201、赤外光入力画像202、およびエミュレーション画像の少なくとも何れか1つの明るさが調整されない場合がある。
尚、ステップS503、S506において、可視光入力画像201、赤外光入力画像202、およびエミュレーション画像の少なくとも何れか1つの明るさが調整されない場合がある。
以上のように本実施形態では、暗視装置や熱線映像装置の遅延を模擬するために、一定時間をおいてから赤外光による画像(エミュレーション画像203)を出力する。したがって、例えば、動いている物や人物を見る時に、実際の暗視装置や熱線表示装置で生成される画像に近いタイミングで表示を行うことができる。また、暗視装置や熱線映像装置の解像度と視野・周辺光量を模擬するために、帯域の制限と光量の制限を行ったうえで、赤外光による画像(エミュレーション画像203)を出力する。したがって、実際の暗視装置や熱線表示装置で生成される画像に近い見えで表示を行うことができる。
本実施形態のように、暗視装置や熱線映像装置の遅延、解像度、および視野・周辺光量の全てを模擬すれば、暗視装置や熱線映像装置で生成される画像をより一層高い精度で模擬して表示することができるので好ましい。しかしながら、少なくともこれらの何れか1つを模擬していればよい。
また、本実施形態では、映像表示装置100が可視光入力画像201と赤外光入力画像202を入力する場合を例に挙げて説明した。しかしながら、映像表示装置100は、可視光入力画像201を入力せずに、赤外光入力画像202のみを入力してもよい。
また、本実施形態では、映像表示装置100が可視光入力画像201と赤外光入力画像202を入力する場合を例に挙げて説明した。しかしながら、映像表示装置100は、可視光入力画像201を入力せずに、赤外光入力画像202のみを入力してもよい。
(第2の実施形態)
次に、第2の実施形態を説明する。第1の実施形態では、映像再生装置から入力した可視光入力画像201および赤外光入力画像202の映像範囲の全体を映像表示装置100で表示(模擬)する場合を例に挙げて説明した。これに対し、本実施形態では、実空間で熱線映像装置を装着した人、もしくは、仮想空間で熱線映像装置を装着した人(装着者)が、当該熱線映像装置を見た時の、当該装着者の視野を模擬する方法を示す。このように本実施形態と第1の実施形態では、制限する視野の有無による構成および処理が主として異なる。したがって、本実施形態の説明において第1の実施形態と同一の部分については、図1〜図5に付した符号と同一の符号を付す等して詳細な説明を省略する。
次に、第2の実施形態を説明する。第1の実施形態では、映像再生装置から入力した可視光入力画像201および赤外光入力画像202の映像範囲の全体を映像表示装置100で表示(模擬)する場合を例に挙げて説明した。これに対し、本実施形態では、実空間で熱線映像装置を装着した人、もしくは、仮想空間で熱線映像装置を装着した人(装着者)が、当該熱線映像装置を見た時の、当該装着者の視野を模擬する方法を示す。このように本実施形態と第1の実施形態では、制限する視野の有無による構成および処理が主として異なる。したがって、本実施形態の説明において第1の実施形態と同一の部分については、図1〜図5に付した符号と同一の符号を付す等して詳細な説明を省略する。
本実施形態では、説明を簡単にするために、表示部104として1つのプロジェクタが、平面のスクリーン上に画像を投影する場合を例に挙げて説明する。しかしながら、スクリーンは曲面であっても構わないし、プロジェクタは複数で構成されていても構わない。また、第1の実施形態で説明したように、表示部104は、液晶ディスプレイパネルやOLED等、他のデバイスによる実現でも構わない。また、説明を簡単にするために、装着者の視線方向は常にスクリーンに正対している場合を例に挙げて説明するが、装着者の視線方向は任意でも計算でき、実現することができる。
本実施形態において仮想空間とは、コンピュータがシミュレーション画像を生成する際の空間である。この仮想空間上に装着者の位置と視線方向を設定することで、コンピュータはシミュレーション画像における装着者の視野を生成できる。また、仮想空間とは、実際には装着者は存在しないが、仮に装着者が存在すると仮定した場合の空間である。実空間では、装着者の位置および視線方向として実測値が用いられる。これに対し、仮想空間では、装着者の位置および視線方向として想定値が用いられる。これ以外は、実空間と仮想空間とで同じ処理が行われる。以下では、実空間で熱線映像装置を装着した人の視野を模擬する場合を中心に説明する。
図6は、視野制限部の機能構成の一例を示す図である。
図6に示すように、本実施形態では、視野制限部123は、表示位置取得部161と、装着者位置・視線方向取得部162と、可視範囲取得部163と、視野制限画像生成部164とを有する。このように、本実施形態の映像表示装置と、第1の実施形態の映像表示装置は、視野制限部123の機能が異なる。
図6に示すように、本実施形態では、視野制限部123は、表示位置取得部161と、装着者位置・視線方向取得部162と、可視範囲取得部163と、視野制限画像生成部164とを有する。このように、本実施形態の映像表示装置と、第1の実施形態の映像表示装置は、視野制限部123の機能が異なる。
表示位置取得部161は、映像表示装置301に入力された赤外光入力画像202を表示している座標範囲を取得する。図7、図8は、映像表示装置301に入力された赤外光入力画像202を表示している座標範囲と、熱線映像装置を装着した人(装着者)の視野の範囲(装着者可視範囲)の一例を示す図である。図7は、装着者をその上方から見た場合の座標(x−y軸)を示す。一方、図8は、表示スクリーン302の面に正対する装着者が表示スクリーン302を見た場合の座標(x−z軸)を示す。図7および図8に示す例では、表示位置取得部161は、表示スクリーン302の座標sが、−10≦sx≦+10、sy=0、−5≦sz≦+5の範囲内に存在することを取得する。
装着者位置・視線方向取得部162は、熱線映像装置の装着者の位置(装着者位置303)と視線方向とを取得する。装着者位置・視線方向取得部162は、装着者の位置と視線方向を、例えば、GPS(Global Positioning System)、加速度センサ、磁気センサ、または光学センサなどを用いて取得することができる。図7および図8に示す例では、装着者の位置(装着者位置303)の座標tは、tx=2、ty=10、tz=0である。また、装着者の視線方向は、y軸方向である。
可視範囲取得部163は、表示位置取得部161で取得された座標範囲と、装着者位置・視線方向取得部162で取得された装着者の位置および視線方向とに基づいて、表示スクリーン302における装着者可視範囲304を算出する。図7および図8に示す例では、視線方向がy軸方向であるとしている。このため、可視範囲取得部163は、表示スクリーン302における装着者の視線の中心座標uとして、ux=2、uy=0、uz=0を算出する。
次に、可視範囲取得部163は、装着者位置303と、表示スクリーン302における装着者の視線の中心座標uとの距離dを算出する。図7および図8に示す例では、装着者位置303と、表示スクリーン302における装着者の視線の中心座標uとのx軸方向の差分は0、y軸方向の差分は10、z軸方向の差分は0である。このため、装着者位置303と、表示スクリーン302における装着者の視線の中心座標uとの距離dは、10になる。
次に、可視範囲取得部163は、熱線映像装置の横方向(x軸方向)の視野θxおよび縦方向(z軸方向)の視野θzと、表示スクリーン302における装着者の視線の中心座標uとに基づいて、装着者可視範囲304を算出する。図7および図8に示す例では、x軸方向の装着者可視範囲304は、−d×tanθx+uxから+d×tanθx+uxの範囲として算出され、z軸方向の装着者可視範囲は、−d×tanθz+uzから+d×tanθz+uzの範囲として算出される。
さらに、視野制限画像生成部164は、画像の一部の領域の座標に対する光量の減衰値を導出する。具体的に視野制限画像生成部164は、装着者可視範囲304に含まれない部分の光量の減衰値として大きな値(例えば無限大、暗い)を導出する。また、視野制限画像生成部164は、装着者可視範囲304に含まれる部分の光量の減衰値として小さな値(例えば0(ゼロ)、明るい)を導出する。そして、視野制限画像生成部164は、導出した光量の減衰値を、帯域制限部122から入力した赤外光入力画像202の画素値に乗ずる。尚、減衰値が0(ゼロ)である場合には、入力された赤外光入力画像202の光量を変えないことになる。
本実施形態では、制御部103はさらに、視野制限が有効であるか否かを示す視野制限指示信号を出力する機能を有していてもよい。この場合、視野制限部123は、視野制限指示信号が「有効」であることを示す場合に、視野制限を有効にする(表示位置取得部161、装着者位置・視線方向取得部162、可視範囲取得部163、および視野制限画像生成部164の機能を実行する)。一方、視野制限指示信号が「無効」であることを示す場合、視野制限部123は、視野制限を無効にする。この場合、視野制限部123は、例えば、第1の実施形態と同じ処理を行ったり、何も処理を行わなかったりする。
以上のように本実施形態では、熱線映像装置を装着した人(装着者)の視野の範囲(装着者可視範囲304)を導出し、装着者可視範囲304内の光量を装着者可視範囲304外の光量よりも大きく制限する。したがって、これらにより、熱線映像装置や暗視装置を装着した人が熱線映像装置や暗視装置を見た時の視野を模擬することができる。このため実際の暗視装置や熱線表示装置に近い見えで表示ができる。
尚、本実施形態においても、第1の実施形態で説明した変形例を適用することができる。
尚、本実施形態においても、第1の実施形態で説明した変形例を適用することができる。
また、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
101:エミュレーション画像生成部、102:合成部、103:制御部、104:表示部
Claims (8)
- 可視光線以外の電磁波に基づく第1の画像を入力する入力手段と、
前記第1の画像に基づいて、暗視装置または熱線映像装置で生成される画像を模擬するための画像として第2の画像を生成する画像生成手段と、
前記第1の画像と前記第2の画像とに基づいて、暗視装置または熱線映像装置で生成される画像を模擬する画像を表示するための処理を行う表示処理手段と、を有し、
前記画像生成手段は、前記第1の画像の周波数帯域を制限することと、前記第1の画像を一定時間だけ記憶してから出力することと、前記第1の画像の少なくとも一部の領域の光量を制限することと、の少なくとも何れか1つの処理を実行した画像を前記第2の画像として生成することを特徴とする映像表示装置。 - 前記入力手段は、可視光線に基づく第3の画像をさらに入力することを特徴とする請求項1に記載の映像表示装置。
- 前記第2の画像と前記第3の画像とを合成する合成手段をさらに有し、
前記表示処理手段は、前記合成手段により合成された画像と、前記第1の画像を表示するための処理を行うことを特徴とする請求項2に記載の映像表示装置。 - 前記入力手段により入力された画像の少なくとも1つと、前記第2の画像とのうち、少なくとも1つの画像の明るさを調整する調整手段をさらに有することを特徴とする請求項1〜3の何れか1項に記載の映像表示装置。
- 前記調整手段は、
第1の指示が行われた場合には、前記第2の画像の明るさを明るくすることと、前記入力手段により入力された画像の少なくとも1つの明るさを暗くすることと、の少なくとも何れか1つを行い、
第2の指示が行われた場合には、前記第2の画像の明るさを暗くすることと、前記入力手段により入力された画像の少なくとも1つの明るさを明るくすることと、の少なくとも何れか1つを行うことを特徴とする請求項4に記載の映像表示装置。 - 前記入力手段により入力された画像を表示している範囲と、前記暗視装置または熱線映像装置の装着者の位置および視線の方向の実測値または想定値と、に基づいて、前記暗視装置または熱線映像装置の装着者の可視範囲を導出する導出手段をさらに有し、
前記画像生成手段は、前記第1の画像の領域のうち、前記可視範囲に含まれない領域の光量を制限することを特徴とする請求項1〜5の何れか1項に記載の映像表示装置。 - 可視光線以外の電磁波に基づく第1の画像を入力する入力工程と、
前記第1の画像に基づいて、暗視装置または熱線映像装置で生成される画像を模擬するための画像として第2の画像を生成する画像生成工程と、
前記第1の画像と前記第2の画像とに基づいて、暗視装置または熱線映像装置で生成される画像を模擬する画像を表示するための処理を行う表示処理工程と、を有し、
前記画像生成工程は、前記第1の画像の周波数帯域を制限することと、前記第1の画像を一定時間だけ記憶してから出力することと、前記第1の画像の少なくとも一部の領域の光量を制限することと、の少なくとも何れか1つの処理を実行した画像を前記第2の画像として生成することを特徴とする映像表示方法。 - 請求項1〜6の何れか1項に記載の映像表示装置の各手段としてコンピュータを機能させることを特徴とするプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015127874A JP2017009916A (ja) | 2015-06-25 | 2015-06-25 | 映像表示装置、映像表示方法、およびプログラム |
US15/188,728 US10257444B2 (en) | 2015-06-25 | 2016-06-21 | Image processing apparatus, image processing method, and storage medium storing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015127874A JP2017009916A (ja) | 2015-06-25 | 2015-06-25 | 映像表示装置、映像表示方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017009916A true JP2017009916A (ja) | 2017-01-12 |
Family
ID=57603079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015127874A Pending JP2017009916A (ja) | 2015-06-25 | 2015-06-25 | 映像表示装置、映像表示方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10257444B2 (ja) |
JP (1) | JP2017009916A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200090347A (ko) * | 2019-01-21 | 2020-07-29 | 엘지전자 주식회사 | 카메라 장치 및 이를 구비하는 전자 장치 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4407778B2 (ja) | 2000-02-25 | 2010-02-03 | 株式会社島津製作所 | 暗視画像模擬生成装置 |
US8749635B2 (en) * | 2009-06-03 | 2014-06-10 | Flir Systems, Inc. | Infrared camera systems and methods for dual sensor applications |
-
2015
- 2015-06-25 JP JP2015127874A patent/JP2017009916A/ja active Pending
-
2016
- 2016-06-21 US US15/188,728 patent/US10257444B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10257444B2 (en) | 2019-04-09 |
US20160381307A1 (en) | 2016-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108780578B (zh) | 增强现实系统和操作增强现实系统的方法 | |
US10310595B2 (en) | Information processing apparatus, information processing method, computer program, and image processing system | |
WO2017183346A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5237066B2 (ja) | 複合現実感提示システムおよび複合現実感提示方法、プログラム | |
US10475243B2 (en) | Transition between virtual reality and real world | |
US11107436B2 (en) | Image processing device and image processing method | |
US11176747B2 (en) | Information processing apparatus and information processing method | |
CN106327584B (zh) | 一种用于虚拟现实设备的图像处理方法及装置 | |
CN110413105A (zh) | 虚拟环境内的虚拟对象的有形可视化 | |
WO2016129156A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2019053997A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2019031015A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11573629B2 (en) | Image processing and display method, augmented reality device, image processing device, and display system | |
US7940295B2 (en) | Image display apparatus and control method thereof | |
WO2013191120A1 (ja) | 画像処理装置、方法、プログラム、および記録媒体 | |
US11003408B2 (en) | Image generating apparatus and image generating method | |
US11749141B2 (en) | Information processing apparatus, information processing method, and recording medium | |
WO2019033446A1 (zh) | 虚拟现实设备及其内容调整方法 | |
CN113284220A (zh) | 基于来自物理环境的环境光修改经渲染的图像数据 | |
US11366315B2 (en) | Image processing apparatus, method for controlling the same, non-transitory computer-readable storage medium, and system | |
US10402939B2 (en) | Information processing device, information processing method, and program | |
JP2017009916A (ja) | 映像表示装置、映像表示方法、およびプログラム | |
KR20170044319A (ko) | 헤드 마운트 디스플레이의 시야 확장 방법 | |
WO2023015085A2 (en) | Motion blur compensation through eye tracking | |
JP2019074881A (ja) | 画像生成装置および画像生成方法 |