JP2020155827A - 視認装置および視認方法 - Google Patents
視認装置および視認方法 Download PDFInfo
- Publication number
- JP2020155827A JP2020155827A JP2019050067A JP2019050067A JP2020155827A JP 2020155827 A JP2020155827 A JP 2020155827A JP 2019050067 A JP2019050067 A JP 2019050067A JP 2019050067 A JP2019050067 A JP 2019050067A JP 2020155827 A JP2020155827 A JP 2020155827A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display
- external environment
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000000007 visual effect Effects 0.000 claims abstract description 74
- 238000012545 processing Methods 0.000 claims abstract description 58
- 230000008569 process Effects 0.000 claims description 7
- 238000004148 unit process Methods 0.000 claims description 2
- 238000007794 visualization technique Methods 0.000 claims 1
- 238000013461 design Methods 0.000 abstract description 7
- 238000004458 analytical method Methods 0.000 description 39
- 238000004891 communication Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 239000011521 glass Substances 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000001356 surgical procedure Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000000638 stimulation Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 3
- 230000004397 blinking Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 235000019557 luminance Nutrition 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003183 myoelectrical effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005194 fractionation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Abstract
【課題】提示画像のデザインへの制約を最小にしつつ、かつ視覚に過度に影響を与えることによって想定外の事象に対する臨機応変の行動を制約してしまうことを回避しつつ、必要な場所に利用者の注意を誘導することができる視認装置および視認方法を提供することを目的とする。【解決手段】視認装置は、左眼と右眼に対して所定の画像を表示させることにより、利用者に所定の画像に含まれる注目させる部分の画像を認識させる視認装置であって、注目させる部分について左眼に対応する画像および右眼に対応する画像の少なくとも1つに対して加工する画像処理部と、加工された画像を含む所定の画像を表示する表示部と、を備える。【選択図】図1
Description
本発明は、視認装置および視認方法に関する。
人は、常に莫大な情報に囲まれている。人は、その全てを同時に認識することはできないため、必要な情報を適宜取捨選択している。視覚系にはシーンの中の「重要な」情報に情報処理を振り分ける視覚的注意と呼ばれる仕組みがある。人は、この情報の選択を効率的に行っていると考えられる。情報を提供する側は、この注意の性質を利用して伝えたい情報がうまく伝わるように様々な工夫をしている。例えば、コンピュータのディスプレイのような動的な表示が可能なデバイス上では、不要な情報にフィルタをかけてぼかすことによって空間の領域を目立たせる手法等が提案されている(例えば非特許文献1参照)。
例えば、特許文献1に記載の技術では、ステレオカメラで撮影された画像を用いて三次元のCG(コンピュータグラフィック)画像を生成する。そして、特許文献1に記載の技術では、特定の対象に注意を向けさせたいという目的に対して、撮影空間中の被写体画像に生成した三次元CG画像を重畳し、撮影された画像あるいは三次元CG画像、又はその両方に色相、彩度、シェーディング、ライティング方向の少なくとも一つの要素に付いて画像処理を施すか、あるいは透過マピング、陰線消去ワイヤーフレーム表示、点滅表示などの表示手法でオーバーレイし三次元デジタル拡大鏡に表示される施術対象となる物体あるいは生体の画像情報に対して差異を設け視覚的認知性を向上させる。また、特許文献1に記載の技術では、デジタル高拡大率で使用する場合に、患者解剖学的特定部位の三次元コンピュータグラフィクスボリュームモデルの三次元デジタル拡大鏡モニター表示範囲外の対象物あるいは患者解剖学的の目的部位が存在する方向を、画像表示装置の辺縁を点滅するか、矢印で方向指示を表示する、あるいは分画表示画面に縮小全体表示した全体画像中に表示部位の画角部位を枠で囲んで表示する。特許文献1に記載の技術では、このような画像をVR(Virtual Reality)グラスに表示させる。
R. Bailey., A. Mcnamara, N. Sudarsanam, et al.: "Subtle gaze direction," ACM Transactions on Graphics,2009,Vol. 28, No. 4, pp. 17 -25,
しかしながら、従来技術のように点滅のような視覚的修飾によって目立たせる手法では、対象の見た目が変化してしまう。特にその手法による強調が同時に複数存在すると、雑然とした見た目となってしまい、表示させる画像のデザインにも制約が生じる。また自動車の運転などでは、従来技術によって特定の個所に(たとえば車道上の自転車に)意識が集中させられてしまったがゆえに、想定外の事象(たとえば死角から歩行者が現れるなど)が起きた時に、むしろ臨機応変の対応が取れずに危険を招くようなこともある。
本発明は、上記の問題点に鑑みてなされたものであって、提示画像のデザインへの制約を最小にしつつ、かつ視覚に過度に影響を与えることによって想定外の事象に対する臨機応変の行動を制約してしまうことを回避しつつ、必要な場所に利用者の注意を誘導することができる視認装置および視認方法を提供することを目的とする。
(1)上記目的を達成するため、本発明の一態様に係る視認装置(1,1A)は、左眼と右眼に対して所定の画像を表示させることにより、利用者に前記所定の画像に含まれる注目させる部分の画像を認識させる視認装置であって、前記注目させる部分について前記左眼に対応する画像および前記右眼に対応する画像の少なくとも1つに対して加工する画像処理部(12,12A)と、前記加工された画像を含む前記所定の画像を表示する表示部(18)と、を備える。
(2)また、本発明の一態様に係る視認装置において、前記注目させる部分の画像は、他の画像の表示形態とは異なるように形成された画像であるようにしてもよい。
(3)また、本発明の一態様に係る視認装置において、前記画像処理部は、前記所定の画像から、エキスパートの視線の動きに基づいて、前記注目させる部分の画像を抽出するようにしてもよい。
(4)また、本発明の一態様に係る視認装置において、前記画像処理部は、前記注目させる部分について前記左眼に対応する画像および前記右眼に対応する画像の少なくとも1つに対して強調加工を行うか曖昧化加工を行うようにしてもよい。
(5)上記目的を達成するため、本発明の一態様に係る視認方法は、左眼と右眼に対して所定の画像を表示させることにより、利用者に前記所定の画像に含まれる注目させる部分の画像を認識させる視認装置の視認方法であって、画像処理部が、前記注目させる部分について前記左眼に対応する画像および前記右眼に対応する画像の少なくとも1つに対して加工する画像処理手順と、表示部が、前記加工された画像を含む前記所定の画像を表示する表示手順と、を含む。
上述した(1)または(5)によれば、人間が目(裸眼)で見ているのとほとんど相違ない(ストレスのない)状態で、特定の対象に意識を向けさせることができる。これにより、上述した(1)または(5)によれば、利用者が作業する上で邪魔になったり不快感を与えることが無く、また突発的な事象にも人間に対応能力を担保することが可能になる。また、上述した(1)または(5)によれば、デザインへの制約を最小にしつつ必要な場所にユーザ(または閲覧者)の注意を誘導することが可能になる。上述した(1)または(5)によれば、デザインや広告、安全表示の自由度を高めつつ、効果的に必要な情報を伝えることが可能になる。脳の視認特性を利用して、注目させたい画像を認識させやすくすることができる。
また、上述した(2)または(4)によれば、二つの画像の平均が知覚されるため、ほぼ元画像と同じ見た目が再現されるが、強調部分について左右眼に異なる情報が与えられているため、その部分に注意が誘導される。
また、上述した(3)によれば、熟練者が注目する注目点を学ぶことができる。
また、上述した(3)によれば、熟練者が注目する注目点を学ぶことができる。
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。
まず、車両の運転または、車両の運転の訓練に視認装置1を適用する例を説明する。
図1は、本実施形態に係る視認装置1の構成例を示すブロック図である。図1に示すように、視認装置1は、通信部10、センサ11、画像処理部12、外部環境モデル格納部13、エキスパートモデル格納部14、効果的表示モデル格納部16、および表示部18を備える。
画像処理部12は、外部環境認識部121、注目点分析部122、および表示注目点生成部123を備える。
センサ11は、第1撮影部111および第2撮影部112を備える。
表示部18は、第1表示部181および第2表示部182を備える。
図1は、本実施形態に係る視認装置1の構成例を示すブロック図である。図1に示すように、視認装置1は、通信部10、センサ11、画像処理部12、外部環境モデル格納部13、エキスパートモデル格納部14、効果的表示モデル格納部16、および表示部18を備える。
画像処理部12は、外部環境認識部121、注目点分析部122、および表示注目点生成部123を備える。
センサ11は、第1撮影部111および第2撮影部112を備える。
表示部18は、第1表示部181および第2表示部182を備える。
通信部10は、外部装置と通信を行って情報の送信と受信を行う。外部装置は、例えば基地局、サーバー等である。視認装置1と外部装置とは、無線回線または有線回線で接続されている。通信部10は、受信した位置情報を含む情報を外部環境認識部121に出力する。外部環境モデル格納部13がネットワーク上にある場合、通信部10は、外部環境認識部121の指示に応じて、ネットワーク上の外部環境モデル格納部13を参照して取得した情報を外部環境認識部121に出力する。エキスパートモデル格納部14がネットワーク上にある場合、通信部10は、注目点分析部122の指示に応じて、ネットワーク上のエキスパートモデル格納部14を参照して取得した情報を注目点分析部122に出力する。効果的表示モデル格納部16がネットワーク上にある場合、通信部10は、表示注目点生成部123の指示に応じて、ネットワーク上の効果的表示モデル格納部16を参照して取得した情報を表示注目点生成部123に出力する。
センサ11は、外部環境を認識する際に必要な情報を検出するセンサである。なお、センサ11は、他にジャイロセンサ、加速度センサ等を備えていてもよい。
第1撮影部111および第2撮影部112は、CCD(Charge Coupled Device)イメージセンサ撮影装置、CMOS(Complementary Metal−Oxide−Semiconductor)イメージセンサ撮影装置等である。第1撮影部111は、例えば利用者の右眼側に取り付けられている。第2撮影部112は、例えば利用者の左眼側に取り付けられている。第1撮影部111および第2撮影部112は、撮影した画像を外部環境認識部121に出力する。なお、第1撮影部111が撮影した画像には、第1撮影部111が撮影したことを示す識別情報が含まれている。第2撮影部112が撮影した画像には、第2撮影部112が撮影したことを示す識別情報が含まれている。
画像処理部12は、画像を取得し、取得された画像から注目すべき注目点の画像を抽出する。画像処理部12は、抽出した注目点の画像に対して左眼用の画像と右眼用の画像に異なる画像処理を行う。画像処理部12は、注目点の領域に画像処理した画像を表示部18に表示させる。
外部環境認識部121は、第1撮影部111が撮影した第1画像および第2撮影部112が撮影した第2画像を取得する。外部環境認識部121は、周知の手法で画像認識処理(二値化処理、輪郭抽出処理、クラスタリング処理、特徴量抽出処理等)を行うことで、取得した画像(第1画像、第2画像)に対して人や物などの注目すべき対象物の画像を認識する。外部環境認識部121は、認識結果と取得した画像を、注目点分析部122に出力する。なお、外部環境認識部121は、抽出する対象物の画像の位置を、周知の手法で追跡する。外部環境認識部121は、取得した画像を表示注目点生成部123に出力する。なお、撮影装置が1つであり、撮影された画像が1つの場合、外部環境認識部121は、1つの画像を右眼用の画像と左眼用の画像に分割し、分割した画像(第1画像、第2画像)を表示注目点生成部123に出力する。
外部環境モデル格納部13は、予め構築された画像認識に使用される画像認識モデルを格納する。なお、外部環境モデル格納部13はネットワーク上に設けられていてもよい。なお、画像認識モデルとは、例えば、視認装置1が使用される用途に応じた検出する対象際に、例えばパターンマッチングや特徴量の比較に用いられるモデルである。視認装置1が例えば車両の運転訓練等に使用される場合、画像認識モデルは、例えば、大人、子供、犬、猫、自転車、自動二輪車、車線、ガードレール等の識別を可能にするモデル(画像または特徴量)である。
エキスパートモデル格納部14は、予め構築されたエキスパートモデルを格納する。なお、格納するエキスパートモデルの種類は、視認装置1の用途に応じたものであればよく、例えば無事故運転手、ドライビングスクールの講師、レーシングドライバ等の注目点の情報である。なお、エキスパートモデル格納部14はネットワーク上に設けられていてもよい。なお、エキスパートモデルとは、運転時の熟練者の視線の動きを学習して構築したモデルである。エキスパートモデル格納部14は、例えば、エキスパートの視線を視線追跡によって取得し、視線の順序や範囲、保持時間をデータとして蓄積することでモデルを構築する。
注目点分析部122は、外部環境認識部121が出力する認識結果と画像を取得する。注目点分析部122は、取得した認識結果と画像に基づいて、外部環境モデル格納部13とエキスパートモデル格納部14を参照して、注目点を分析する。具体的には、注目点分析部122は、注目点の座標と範囲を設定する。注目点分析部122は、分析した分析結果を表示注目点生成部123に出力する。
効果的表示モデル格納部16は、注目点の種類に応じて、画像を強調加工するモデルと、画像を曖昧化加工するモデルを格納する。なお、効果的表示モデル格納部16はネットワーク上に設けられていてもよい。
表示注目点生成部123は、外部環境認識部121が出力する画像を取得し、注目点分析部122が出力する分析結果を取得する。表示注目点生成部123は、取得した画像と分析結果に基づいて、効果的表示モデル格納部16を参照して画像に対して処理を行う。具体的には、表示注目点生成部123は、第1画像に対して画像上の注目点を強調加工の処理を行う。表示注目点生成部123は、強調加工した画像を第1表示部181に出力する。表示注目点生成部123は、第2画像に対して画像上の注目点を曖昧化加工の処理を行う。表示注目点生成部123は、曖昧化加工した画像を第2表示部182に出力する。なお、注目点の画像の加工方法については後述する。
表示部18は、例えばVR(Virtual Reality;仮想現実)グラスまたはMR(Mixed Reality:複合現実)グラス、またはAR(Augmented Reality:拡張現実)グラスである。
第1表示部181は、表示注目点生成部123が出力する強調加工された画像を表示する。
第2表示部182は、表示注目点生成部123が出力する曖昧化加工された画像を表示する。
第1表示部181は、表示注目点生成部123が出力する強調加工された画像を表示する。
第2表示部182は、表示注目点生成部123が出力する曖昧化加工された画像を表示する。
次に、視認装置1の外観例を説明する。
図2は、本実施形態に係る視認装置1の外観例を示す斜視図である。図2に示す例は、視認装置1をVRグラスに適用した例である。
図2に示す例では、第1撮影部111が右側前面に取り付けられ、第2撮影部112が左側前面に取り付けられている。また、例えばテンプルに、センサ11、外部環境認識部121、外部環境モデル格納部13、エキスパートモデル格納部14、注目点分析部122、効果的表示モデル格納部16、および表示注目点生成部123が格納されている。
なお、図2に示した構成や外観は一例であり、これに限らない。
図2は、本実施形態に係る視認装置1の外観例を示す斜視図である。図2に示す例は、視認装置1をVRグラスに適用した例である。
図2に示す例では、第1撮影部111が右側前面に取り付けられ、第2撮影部112が左側前面に取り付けられている。また、例えばテンプルに、センサ11、外部環境認識部121、外部環境モデル格納部13、エキスパートモデル格納部14、注目点分析部122、効果的表示モデル格納部16、および表示注目点生成部123が格納されている。
なお、図2に示した構成や外観は一例であり、これに限らない。
次に、注意誘導の原理とメカニズムについて説明する(参考文献1参照)。
本実施形態では、注目点の画像に対して、両眼間の明るさ混合現象を利用し、見えの明るさを変えずに視覚的注意を誘引するように加工する。
本実施形態では、注目点の画像に対して、両眼間の明るさ混合現象を利用し、見えの明るさを変えずに視覚的注意を誘引するように加工する。
左眼と右眼に輝度の異なる刺激を入力した時に、それが融合して中間の輝度で知覚されることを利用して、見えの明るさを変えることなく、視覚的注意を誘導する視覚パターンの可能性を検証した。
両眼輝度差刺激を用いた暗黙的な注意の誘引を可能にするためには、左眼と右眼に呈示する輝度の差がなるべく大きくなるようにしながら、同時にそれらが安定して一つの明るさとして知覚される必要がある。図3は、実験で使用した左眼への刺激例と、右眼への刺激例を示す図である。符号g1が示す画像は左眼への刺激であり、符号g2が示す画像は右眼への刺激である。この例では、中央に十字で示した固視点に対して、左視野が標準刺激であり、右視野が比較刺激である。標準刺激では左右眼に同じ輝度が呈示されており、比較刺激では異なる輝度が呈示されている。刺激の輝度を0(黒)から100(白)とし、標準刺激の各眼への輝度は常に50とし、比較刺激の右眼及び左眼への輝度をそれぞれは、10〜90の範囲を10刻みにした9段階の値とした。組み合わせは、9段階×9段階の81通りである。
両眼輝度差刺激を用いた暗黙的な注意の誘引を可能にするためには、左眼と右眼に呈示する輝度の差がなるべく大きくなるようにしながら、同時にそれらが安定して一つの明るさとして知覚される必要がある。図3は、実験で使用した左眼への刺激例と、右眼への刺激例を示す図である。符号g1が示す画像は左眼への刺激であり、符号g2が示す画像は右眼への刺激である。この例では、中央に十字で示した固視点に対して、左視野が標準刺激であり、右視野が比較刺激である。標準刺激では左右眼に同じ輝度が呈示されており、比較刺激では異なる輝度が呈示されている。刺激の輝度を0(黒)から100(白)とし、標準刺激の各眼への輝度は常に50とし、比較刺激の右眼及び左眼への輝度をそれぞれは、10〜90の範囲を10刻みにした9段階の値とした。組み合わせは、9段階×9段階の81通りである。
これらの刺激を用いて実験を行った結果、安定した両眼の明るさ混合を得るには、横軸に左眼に呈示した比較刺激の輝度値、縦軸に右眼に呈示した比較刺激の輝度値として測定値をプロットしたグラフにおいて中央付近のLinear Summation(線形加算)で説明できる範囲である必要があることが分かった。この解釈に基づき、実験結果からLinear Summation方式で、両眼間の輝度差がなるべく大きくなる組み合わせを設定する必要であることが分かった。
このように設定した輝度の組み合わせを用いて作成した両眼輝度差刺激が、注意を誘引することができるかどうかを逐次探索が生じる視覚探索課題の探索時間に注目して検証した。この検証により、逐次探索が生じる視覚探索課題を行い、背景パターンに両眼輝度差刺激を適用することによって目標刺激の表示領域の手がかりを与えた場合と与えない場合を比較したところ、適用した場合に目標刺激の探索時間が短縮される傾向が確認できた。
(参考文献1)「無意識の注意誘導のための両眼加算を用いた情報表示手法の検証」、田中裕也、仁科繁明、菅野重樹、映像情報メディア学会、2015、映像情報メディア学会技術報告 Vol.39,No.46,p39−44
以上の実験・検証結果に基づき、本実施形態では、左眼と右眼に提示する様々な輝度の組み合わせに対して安定して明るさの混合が起き、かつ両眼間の輝度差が最大となる組み合わせを表示注目点生成部123が選択する。そして、表示注目点生成部123が、選択した結果に基づいて、第1画像に対して強調加工を行い、第2画像に対して曖昧化加工を行う。
これにより、本実施形態によれば、色や明るさや動きを用いた明示的な方法と異なる、視覚的な煩雑さをともなわずに注意を喚起する情報表示とすることができる。この結果、本実施形態によれば、人間が目(裸眼)で見ているのとほとんど相違ない(ストレスのない)状態で、特定の対象に意識を向けさせることができる。
次に、視認装置1が行う処理手順例と画像例を、図4〜図8を用いて説明する。
図4は、本実施形態に係る視認装置1が行う処理手順例のフローチャートである。図5は、取得された画像例を示す図である。図6は、注目点分析部122によって抽出された注目点の例を示す図である。図7は、表示注目点生成部123によって生成された画像例を示す図である。図8は、第1表示部181と第2表示部182それぞれに表示される画像例を示す図である。
図4は、本実施形態に係る視認装置1が行う処理手順例のフローチャートである。図5は、取得された画像例を示す図である。図6は、注目点分析部122によって抽出された注目点の例を示す図である。図7は、表示注目点生成部123によって生成された画像例を示す図である。図8は、第1表示部181と第2表示部182それぞれに表示される画像例を示す図である。
(ステップS1)第1撮影部111と第2撮影部112は、静止画または連続した静止画または動画の撮影を行う。続けて、外部環境認識部121は、撮影された画像(図5)を取得する。なお、訓練の場合、外部環境認識部121は、撮影済みの静止画または連続した静止画または動画を取得するようにしてもよい。
(ステップS2)外部環境認識部121は、取得した画像を第1画像と第2画像に分割する。なお、外部環境認識部121は、第1撮影部111が撮影した画像を第1画像とし、第2撮影部112が撮影した画像を第2画像とするようにしてもよい。続けて、外部環境認識部121は、周知の手法で画像認識処理を行うことで、取得した画像(第1画像、第2画像)に対して人や物などの対象物の画像を認識する。
(ステップS3)注目点分析部122は、外部環境認識部121によって認識された認識結果と取得された画像に基づいて、外部環境モデル格納部13とエキスパートモデル格納部14を参照して、注目点を分析する。図6において、符号g11で囲んだ領域が注目点の領域である。なお、画像は、xy座標系で表され、画像上の位置や領域はxyの値によって表される。なお、注目点の領域は1つに限られず、2つ以上であってもよい。
(ステップS4)表示注目点生成部123は、分析結果に基づいて、効果的表示モデル格納部16を参照して、第1画像に対して画像上の注目点を強調加工の処理を行う。図7の符号g21の画像は、注目点の画像に対して強調加工の処理を行った画像である。
(ステップS5)表示注目点生成部123は、分析結果に基づいて、効果的表示モデル格納部16を参照して、第2画像に対して画像上の注目点を曖昧化加工の処理を行う。図7の符号g22の画像は、注目点の画像に対して曖昧化加工の処理を行った画像である。
(ステップS6)第1表示部181は、表示注目点生成部123によって強調加工された画像を表示する。図8の符号g31が示す画像は、取得された画像のうち注目点が強調加工された画像である。
(ステップS7)第2表示部182は、表示注目点生成部123によって曖昧化加工された画像を表示する。図8の符号g32が示す画像は、取得された画像のうち注目点が強調加工された画像である。
(ステップS7)第2表示部182は、表示注目点生成部123によって曖昧化加工された画像を表示する。図8の符号g32が示す画像は、取得された画像のうち注目点が強調加工された画像である。
本実施形態によれば、このように注目点が強調加工された画像を第1表示部181に表示させ、注目点が曖昧化加工された画像を第2表示部182に表示させることで、視覚的注意を利用者に誘引することができる。なお、上述したように、本実施形態では、第1表示部181および第2表示部182それぞれに表示される画像は、注目点の画像が、他の画像表示形態と異なる(強調されている、または曖昧化されている)ように形成されている。また、本実施形態では、第1表示部181に表示させる注目点への加工と、第2表示部182に表示させる注目点への加工とが異なっている。このように、本実施形態では、視覚パターンとして、元画像に対して、強調したい部分の輝度を少し上げた画像と下げた画像を作成し、それらを上記ディスプレイを用いて左右眼に個別に表示するようにした。
なお、上述した例では、第1画像の注目点に対して強調加工を行い、第2画像の注目点に対して曖昧化加工を行う例を説明したが、これに限らない。第2画像の注目点に対して強調加工を行い、第1画像の注目点に対して曖昧化加工を行うようにしてもよい。
以上のように、本実施形態では、両眼への視覚情報に差異がある時に注意が向けられるという視覚の特性を使って注意誘導を行うようにした。
また、本実施形態では、両眼への差異が小さければその平均の像が知覚されることを利用して、一見なんら強調表示がされていないように見せながら、注意を誘導する視覚表示を行うようにした。
また、本実施形態では、両眼への差異が小さければその平均の像が知覚されることを利用して、一見なんら強調表示がされていないように見せながら、注意を誘導する視覚表示を行うようにした。
また、本実施形態では、表示部18に、両眼に別々の画像を表示することができるディスプレイを使用するようにした。なお、表示部18は、シャッターあるいは偏光フィルタをディスプレイ側あるいはメガネに用いて左右眼への像を表示し分けるタイプのディスプレイや、ヘッドマウントディスプレイのように両眼それぞれに二つの表示部(第1表示部181、第2表示部182)で表示するものなど、三次元表示TV(テレビ)等であってもよい。
これにより、本実施形態によれば、二つの画像の平均が知覚されるため、ほぼ元画像と同じ見た目が再現されるが、強調部分について左右眼に異なる情報が与えられているため、その部分に注意が誘導される。
また、本実施形態によれば、画像に含まれる注目点に対して強調加工と曖昧化加工して呈示するため、脳の視認特性を利用して、注目させたい画像を認識させやすくすることができる。本実施形態によれば、特に、人間が目(裸眼)で見ているのとほとんど相違ない(ストレスのない)状態で、特定の対象に意識を向けさせることができる。この結果、本実施形態によれば、利用者が作業する上で邪魔になったり利用者に不快感を与えることが無く、また突発的な事象にも人間に対応能力を担保することが可能になる。
また、本実施形態によれば、画像に含まれる注目点に対して強調加工と曖昧化加工して呈示するため、脳の視認特性を利用して、注目させたい画像を認識させやすくすることができる。本実施形態によれば、特に、人間が目(裸眼)で見ているのとほとんど相違ない(ストレスのない)状態で、特定の対象に意識を向けさせることができる。この結果、本実施形態によれば、利用者が作業する上で邪魔になったり利用者に不快感を与えることが無く、また突発的な事象にも人間に対応能力を担保することが可能になる。
また、本実施形態によれば、注目点に対して従来のように矢印や枠などを表示させないため、デザインへの制約を最小にしつつ必要な場所に利用者(または閲覧者)の注意を誘導することが可能になる。この結果、デザインや広告、安全表示の自由度を高めつつ、効果的に必要な情報を伝えることが可能になる。
なお、上述した例では、第1画像に含まれる注目点の画像と、第2画像に含まれる注目点の画像との両方を加工する例を説明したが、加工するのはどちらか1つであってもよい。
<実施例>
上述した実施形態では、視認装置1を、車両の運転、車両の運転の訓練に適用する例を説明したが、他にも適用可能である。
上述した実施形態では、視認装置1を、車両の運転、車両の運転の訓練に適用する例を説明したが、他にも適用可能である。
図9は、本実施形態に係る視認装置の他の構成例を示すブロック図である。図9に示すように、視認装置1Aは、通信部10、センサ11A、画像処理部12A、外部環境モデル格納部13A、エキスパートモデル格納部14A、効果的表示モデル格納部16A、および表示部18を備える。
画像処理部12Aは、外部環境認識部121A、注目点分析部122A、および表示注目点生成部123Aを備える。
センサ11Aは、第1撮影部111、第2撮影部112、第1収音部113、第2収音部114、生体センサ115、視線センサ116、…を備える。
表示部18は、第1表示部181および第2表示部182を備える。
なお、視認装置1が備える機能部と同じ機能を有する機能部には、同じ符号を用いて説明を省略する。また、視認装置1Aは、操作部19を備えていてもよい。
画像処理部12Aは、外部環境認識部121A、注目点分析部122A、および表示注目点生成部123Aを備える。
センサ11Aは、第1撮影部111、第2撮影部112、第1収音部113、第2収音部114、生体センサ115、視線センサ116、…を備える。
表示部18は、第1表示部181および第2表示部182を備える。
なお、視認装置1が備える機能部と同じ機能を有する機能部には、同じ符号を用いて説明を省略する。また、視認装置1Aは、操作部19を備えていてもよい。
操作部19は、利用者が操作した操作結果を検出し、検出した操作結果を画像処理部12Aに出力する。操作結果には、例えば訓練の種類(外科手術、運転、囲碁、将棋、かるた、コンピュータゲーム、装置の操作、格闘技等)を示す情報が含まれている。
第1收音部113および第2收音部114は、音響信号を收音し、収音した音響信号を外部環境認識部121Aに出力する。なお、第1収音部113が出力する音響信号には、第1収音部113を示す情報が付加されている。第2収音部114が出力する音響信号には、第2収音部114を示す情報が付加されている。
生体センサ115は、生体情報を検出するセンサであり、例えば心拍センサ、脳波センサ、表面筋電位センサ等である。生体センサ115は、検出した生体信号を外部環境認識部121Aに出力する。なお、生体センサ115が出力する生体信号には、生体センサ115を示す情報が付加されている。
視線センサ116は、利用者の視線を検出するセンサであり、例えば撮影部と受光部と画像処理部によって構成されている。視線センサ116は、検出した検出結果を外部環境認識部121Aに出力する。なお、視線センサ116が出力する検出結果には、視線センサ116を示す情報が付加されている。
外部環境認識部121Aは、第1撮影部111が撮影した第1画像、第2撮影部112が撮影した第2画像を取得する。外部環境認識部121Aは、第1収音部113が収音した音響信号、第2収音部114が収音した音響信号、生体センサ115が検出した生体信号、および視線センサ116が検出した視線検出結果のうち少なくとも1つを取得するようにしてもよい。
外部環境認識部121Aは、取得された画像に対して周知の手法で画像認識処理を行うことで、取得した画像(第1画像、第2画像)に対して人や物などの注目すべき対象物の画像を認識する。外部環境認識部121は、画像を認識した画像認識結果と取得した画像を、注目点分析部122に出力する。なお、外部環境認識部121は、抽出する対象物の画像の位置を、周知の手法で追跡する。外部環境認識部121は、取得した画像を表示注目点生成部123に出力する。
外部環境認識部121Aは、取得された音響信号に対して周知の手法で音声認識処理(雑音抑圧処理、音源方位同定処理、音源同定処理等)を行う。外部環境認識部121Aは、認識した音声認識結果を注目点分析部122と表示注目点生成部123に出力する。
外部環境認識部121Aは、取得された生体信号に対して周知の手法で信号処理を行って、心拍、脳波、表面筋電位等の生体情報を算出する。外部環境認識部121Aは、算出した生体情報を注目点分析部122と表示注目点生成部123に出力する。
外部環境認識部121Aは、視線センサ116から取得された検出結果に対して周知の手法で信号処理を行って、利用者の視線位置を決定する。外部環境認識部121Aは、決定した視線位置を注目点分析部122と表示注目点生成部123に出力する。
外部環境認識部121Aは、操作部19が出力する操作結果に応じて、外部環境モデル格納部13A、エキスパートモデル格納部14A、および効果的表示モデル格納部16Aそれぞれが格納するモデルを選択する。外部環境認識部121Aは、操作部19が出力する操作結果に応じて、外部環境認識部121A、注目点分析部122A、および表示注目点生成部123Aの動作モード(外科手術、運転、囲碁、将棋、かるた、コンピュータゲーム、装置の操作、格闘技等)を切り替える。
外部環境認識部121Aは、取得された画像に対して周知の手法で画像認識処理を行うことで、取得した画像(第1画像、第2画像)に対して人や物などの注目すべき対象物の画像を認識する。外部環境認識部121は、画像を認識した画像認識結果と取得した画像を、注目点分析部122に出力する。なお、外部環境認識部121は、抽出する対象物の画像の位置を、周知の手法で追跡する。外部環境認識部121は、取得した画像を表示注目点生成部123に出力する。
外部環境認識部121Aは、取得された音響信号に対して周知の手法で音声認識処理(雑音抑圧処理、音源方位同定処理、音源同定処理等)を行う。外部環境認識部121Aは、認識した音声認識結果を注目点分析部122と表示注目点生成部123に出力する。
外部環境認識部121Aは、取得された生体信号に対して周知の手法で信号処理を行って、心拍、脳波、表面筋電位等の生体情報を算出する。外部環境認識部121Aは、算出した生体情報を注目点分析部122と表示注目点生成部123に出力する。
外部環境認識部121Aは、視線センサ116から取得された検出結果に対して周知の手法で信号処理を行って、利用者の視線位置を決定する。外部環境認識部121Aは、決定した視線位置を注目点分析部122と表示注目点生成部123に出力する。
外部環境認識部121Aは、操作部19が出力する操作結果に応じて、外部環境モデル格納部13A、エキスパートモデル格納部14A、および効果的表示モデル格納部16Aそれぞれが格納するモデルを選択する。外部環境認識部121Aは、操作部19が出力する操作結果に応じて、外部環境認識部121A、注目点分析部122A、および表示注目点生成部123Aの動作モード(外科手術、運転、囲碁、将棋、かるた、コンピュータゲーム、装置の操作、格闘技等)を切り替える。
外部環境モデル格納部13Aは、予め構築された画像認識に使用される画像認識モデルを格納する。なお、外部環境モデル格納部13はネットワーク上に設けられていてもよい。なお、画像認識モデルとは、例えば、視認装置1が使用される用途に応じた検出する対象際に、例えばパターンマッチングや特徴量の比較に用いられるモデルである。視認装置1が例えば車両の運転訓練等に使用される場合、画像認識モデルは、例えば外科医の訓練用のモデル、将棋の対局のモデル、囲碁の対局のモデル、工場の設備の操作のモデル、プロフェッショナルゲーマー(Professional Gamer)のモデル、かるたの対局のモデル等である。例えば、工場の設備の操作のモデルの場合は、装置の各操作ボタン、動作するロボットアーム、取り付ける部品、取り付けるネジ等を画像認識するためのモデルである。また、将棋の対局のモデルの場合は、各駒の画像、盤面を画像認識するためのモデルである。プロフェッショナルゲーマーのモデルの場合は、ゲームに登場するキャラクターや装備や背景を画像認識するためのモデルである。
エキスパートモデル格納部14Aは、予め構築されたエキスパートモデルを格納する。なお、格納するエキスパートモデルの種類は、視認装置1の用途に応じたものであればよく、例えば無事故運転手、ドライビングスクールの講師、レーシングドライバ等の注目点の情報である。なお、エキスパートモデル格納部14Aはネットワーク上に設けられていてもよい。エキスパートモデル格納部14Aは、例えば、エキスパートの視線を視線追跡によって取得し、視線の順序や範囲、保持時間をデータとして蓄積することでモデルを構築する。
注目点分析部122Aは、外部環境認識部121Aが出力する画像認識結果と画像と音声認識結果と生体情報と視線位置を取得する。注目点分析部122Aは、取得した画像認識結果と画像と音声認識結果と生体情報と視線位置に基づいて、外部環境モデル格納部13Aとエキスパートモデル格納部14Aを参照して、注目点を分析する。具体的には、注目点分析部122Aは、注目点の座標と範囲を設定する。注目点分析部122Aは、分析した分析結果を表示注目点生成部123Aに出力する。
効果的表示モデル格納部16Aは、用途に応じた注目点の種類に応じて、画像を強調加工するモデルと、画像を曖昧化加工するモデルを格納する。なお、効果的表示モデル格納部16Aはネットワーク上に設けられていてもよい。
表示注目点生成部123Aは、外部環境認識部121Aが出力する画像を取得し、注目点分析部122Aが出力する分析結果を取得する。表示注目点生成部123Aは、取得した画像と分析結果に基づいて、効果的表示モデル格納部16Aを参照して画像に対して処理を行う。表示注目点生成部123Aは、強調加工した画像を第1表示部181に出力する。表示注目点生成部123は、曖昧化加工した画像を第2表示部182に出力する。
次に、視認装置1Aを、外科医の訓練へ適用する例を説明する。
この場合、外部環境モデル格納部13Aは、外科手術等の際に使用する画像(患部、処置を行う部位、怪我や病気の箇所等)を認識するための画像モデルを格納する。エキスパートモデル格納部14Aは、外科手術における熟練の外科医の視線の動きを格納する。効果的表示モデル格納部16Aは、外科手術に適した画像を強調加工するモデルと、画像を曖昧化加工するモデルを格納する。また、生体センサ115は、治療対象の患者に装着されていてもよい。また、生体信号は、患者に装着されていると想定し、治療の進行に合わせて取得または生成した信号であってもよい。注目点分析部122Aは、例えば、取得した画像認識結果と画像と(患者の音声、計器の動作音等に対する)音声認識結果と生体情報に基づいて、外部環境モデル格納部13Aとエキスパートモデル格納部14Aを参照して、注目点を分析する。表示注目点生成部123Aは、取得した画像と分析結果に基づいて、効果的表示モデル格納部16Aを参照して画像に対して処理を行う。
この場合、外部環境モデル格納部13Aは、外科手術等の際に使用する画像(患部、処置を行う部位、怪我や病気の箇所等)を認識するための画像モデルを格納する。エキスパートモデル格納部14Aは、外科手術における熟練の外科医の視線の動きを格納する。効果的表示モデル格納部16Aは、外科手術に適した画像を強調加工するモデルと、画像を曖昧化加工するモデルを格納する。また、生体センサ115は、治療対象の患者に装着されていてもよい。また、生体信号は、患者に装着されていると想定し、治療の進行に合わせて取得または生成した信号であってもよい。注目点分析部122Aは、例えば、取得した画像認識結果と画像と(患者の音声、計器の動作音等に対する)音声認識結果と生体情報に基づいて、外部環境モデル格納部13Aとエキスパートモデル格納部14Aを参照して、注目点を分析する。表示注目点生成部123Aは、取得した画像と分析結果に基づいて、効果的表示モデル格納部16Aを参照して画像に対して処理を行う。
これにより、本実施形態によれば、視認装置1Aを用いて外科手術の訓練を行う際に、両眼への視覚情報に差異がある時に注意が向けられるという視覚の特性を使って注意誘導を行うことができる。
次に、視認装置1Aを、格闘技の訓練へ適用する例を説明する。
この場合、外部環境モデル格納部13Aは、格闘技の際に使用する画像(攻撃ポイント、弱点の位置等)を認識するための画像モデルを格納する。エキスパートモデル格納部14Aは、格闘技における熟練の選手の視線の動きを格納する。効果的表示モデル格納部16Aは、格闘技に適した画像を強調加工するモデルと、画像を曖昧化加工するモデルを格納する。注目点分析部122Aは、例えば、取得した画像認識結果と画像と(対戦相手の音声信号に対する)音声認識結果に基づいて、外部環境モデル格納部13Aとエキスパートモデル格納部14Aを参照して、注目点を分析する。表示注目点生成部123Aは、取得した画像と分析結果に基づいて、効果的表示モデル格納部16Aを参照して画像に対して処理を行う。
この場合、外部環境モデル格納部13Aは、格闘技の際に使用する画像(攻撃ポイント、弱点の位置等)を認識するための画像モデルを格納する。エキスパートモデル格納部14Aは、格闘技における熟練の選手の視線の動きを格納する。効果的表示モデル格納部16Aは、格闘技に適した画像を強調加工するモデルと、画像を曖昧化加工するモデルを格納する。注目点分析部122Aは、例えば、取得した画像認識結果と画像と(対戦相手の音声信号に対する)音声認識結果に基づいて、外部環境モデル格納部13Aとエキスパートモデル格納部14Aを参照して、注目点を分析する。表示注目点生成部123Aは、取得した画像と分析結果に基づいて、効果的表示モデル格納部16Aを参照して画像に対して処理を行う。
これにより、本実施形態によれば、視認装置1Aを用いて格闘技の訓練を行う際に、両眼への視覚情報に差異がある時に注意が向けられるという視覚の特性を使って注意誘導を行うことができる。
なお、本発明における視認装置1(または1A)の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより視認装置1(または1A)が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1,1A…視認装置、10…通信部、11…センサ、12,12A…画像処理部、13,13A…外部環境モデル格納部、14,14A…エキスパートモデル格納部、16,16A…効果的表示モデル格納部、18…表示部、111…第1撮影部、112…第2撮影部、121,121A…外部環境認識部、122,122A…注目点分析部、123,123A…表示注目点生成部、113…第1收音部、114…第2收音部、115…生体センサ、116…視線センサ、181…第1表示部、182…第2表示部
Claims (5)
- 左眼と右眼に対して所定の画像を表示させることにより、利用者に前記所定の画像に含まれる注目させる部分の画像を認識させる視認装置であって、
前記注目させる部分について前記左眼に対応する画像および前記右眼に対応する画像の少なくとも1つに対して加工する画像処理部と、
前記加工された画像を含む前記所定の画像を表示する表示部と、
を備える視認装置。 - 前記注目させる部分の画像は、他の画像の表示形態とは異なるように形成された画像である、請求項1に記載の視認装置。
- 前記画像処理部は、
前記所定の画像から、エキスパートの視線の動きに基づいて、前記注目させる部分の画像を抽出する、請求項1または請求項2に記載の視認装置。 - 前記画像処理部は、
前記注目させる部分について前記左眼に対応する画像および前記右眼に対応する画像の少なくとも1つに対して強調加工を行うか曖昧化加工を行う、請求項1から請求項3のいずれか1項に記載の視認装置。 - 左眼と右眼に対して所定の画像を表示させることにより、利用者に前記所定の画像に含まれる注目させる部分の画像を認識させる視認装置の視認方法であって、
画像処理部が、前記注目させる部分について前記左眼に対応する画像および前記右眼に対応する画像の少なくとも1つに対して加工する画像処理手順と、
表示部が、前記加工された画像を含む前記所定の画像を表示する表示手順と、
を含む視認方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019050067A JP2020155827A (ja) | 2019-03-18 | 2019-03-18 | 視認装置および視認方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019050067A JP2020155827A (ja) | 2019-03-18 | 2019-03-18 | 視認装置および視認方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020155827A true JP2020155827A (ja) | 2020-09-24 |
Family
ID=72559840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019050067A Pending JP2020155827A (ja) | 2019-03-18 | 2019-03-18 | 視認装置および視認方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020155827A (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005117136A (ja) * | 2003-10-03 | 2005-04-28 | Sumitomo Electric Ind Ltd | 車両用物体検出装置 |
JP2009053748A (ja) * | 2007-08-23 | 2009-03-12 | Nikon Corp | 画像処理装置、画像処理プログラムおよびカメラ |
WO2009123066A1 (ja) * | 2008-04-03 | 2009-10-08 | 日本電気株式会社 | 画像処理方法、画像処理装置及び記録媒体 |
JP2012165272A (ja) * | 2011-02-08 | 2012-08-30 | Canon Inc | 映像表示装置、映像表示方法及びプログラム |
JP2013172224A (ja) * | 2012-02-20 | 2013-09-02 | Hitachi Consumer Electronics Co Ltd | 映像処理装置および映像表示装置 |
JP2017191490A (ja) * | 2016-04-14 | 2017-10-19 | 株式会社フジタ | 技能伝承システム及び方法 |
-
2019
- 2019-03-18 JP JP2019050067A patent/JP2020155827A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005117136A (ja) * | 2003-10-03 | 2005-04-28 | Sumitomo Electric Ind Ltd | 車両用物体検出装置 |
JP2009053748A (ja) * | 2007-08-23 | 2009-03-12 | Nikon Corp | 画像処理装置、画像処理プログラムおよびカメラ |
WO2009123066A1 (ja) * | 2008-04-03 | 2009-10-08 | 日本電気株式会社 | 画像処理方法、画像処理装置及び記録媒体 |
JP2012165272A (ja) * | 2011-02-08 | 2012-08-30 | Canon Inc | 映像表示装置、映像表示方法及びプログラム |
JP2013172224A (ja) * | 2012-02-20 | 2013-09-02 | Hitachi Consumer Electronics Co Ltd | 映像処理装置および映像表示装置 |
JP2017191490A (ja) * | 2016-04-14 | 2017-10-19 | 株式会社フジタ | 技能伝承システム及び方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11656680B2 (en) | Technique for controlling virtual image generation system using emotional states of user | |
Zhao et al. | CueSee: exploring visual cues for people with low vision to facilitate a visual search task | |
CN106023289B (zh) | 图像生成系统及图像生成方法 | |
Kim et al. | Virtual reality sickness predictor: Analysis of visual-vestibular conflict and vr contents | |
Normoyle et al. | The effect of posture and dynamics on the perception of emotion | |
CN108710206A (zh) | 一种应用于vr显示器的防眩晕和视疲劳的方法和装置 | |
CN110267025B (zh) | 虚拟3d显示的渲染方法、装置以及其显示方法、系统 | |
CN105653020A (zh) | 穿越时空的方法和装置以及使用其的眼镜或头盔 | |
CN106127846A (zh) | 虚拟现实终端及其视觉虚拟方法和装置 | |
US11328187B2 (en) | Information processing apparatus and information processing method | |
CN109032350B (zh) | 眩晕感减轻方法、虚拟现实设备及计算机可读存储介质 | |
JP2020155827A (ja) | 視認装置および視認方法 | |
Yokoro et al. | DecluttAR: An Interactive Visual Clutter Dimming System to Help Focus on Work | |
KR20190087907A (ko) | 멀미가 감소된 가상현실 게임 제공 방법 및 가상현실 게임 단말기 | |
KR20190088247A (ko) | 뇌연결성 기반의 시지각 트레이닝 장치, 방법 및 프로그램 | |
JP7258620B2 (ja) | 画像処理システム、及び画像処理方法 | |
CN110009560B (zh) | 图像处理装置 | |
KR102185519B1 (ko) | 다이렉트 인코딩 방식의 씨스루 헤드 마운트 디스플레이를 위한 실세계 영상 왜곡 방법 및 실세계 영상 왜곡 기능을 가지는 다이렉트 인코딩 방식의 씨스루 헤드 마운트 디스플레이 | |
US11270451B2 (en) | Motion parallax in object recognition | |
KR20200099047A (ko) | 씨스루 헤드 마운트 디스플레이를 위한 실세계 영상 왜곡 방법 및 실세계 영상 왜곡 기능을 가지는 씨스루 헤드 마운트 디스플레이 | |
JP6206949B2 (ja) | 視野制限画像データ作成プログラム及びこれを用いた視野制限装置 | |
WO2023243093A1 (ja) | データ端末及びデータ端末の3d画像表示方法、並びにデータ処理システム | |
Miura et al. | Reality varied by visions: Requirements of immersive virtual reality content for users with low-vision | |
EP4231635A1 (en) | Efficient dynamic occlusion based on stereo vision within an augmented or virtual reality application | |
US20240119643A1 (en) | Image processing device, image processing method, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230613 |