JP2021026260A - 表示装置、表示方法、および、コンピュータープログラム - Google Patents
表示装置、表示方法、および、コンピュータープログラム Download PDFInfo
- Publication number
- JP2021026260A JP2021026260A JP2019140781A JP2019140781A JP2021026260A JP 2021026260 A JP2021026260 A JP 2021026260A JP 2019140781 A JP2019140781 A JP 2019140781A JP 2019140781 A JP2019140781 A JP 2019140781A JP 2021026260 A JP2021026260 A JP 2021026260A
- Authority
- JP
- Japan
- Prior art keywords
- display
- image
- unit
- indicator
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
【課題】表示装置において、指示体の動きを認識できる対象物関連画像を容易に判別できる技術を提供する。【解決手段】表示装置は、表示部と、前記外景を撮像するカメラと、指示体認識部と、対象物認識部と、前記対象物認識部が認識した前記対象物に関連する前記画像である対象物関連画像を、前記表示部に表示する表示制御部と、を備え、前記表示制御部は、さらに、前記指示体認識部によって前記対象物関連画像と重なった範囲内における前記指示体の動きが認識されることで、前記対象物関連画像に関連する関連情報を前記表示部に表示する関連表示部と、前記カメラの撮像範囲内に、前記対象物関連画像が存在しているか否かに応じて前記対象物関連画像の表示状態を変更する表示処理部と、を有する。【選択図】図4
Description
本開示は、外景に重畳して画像を表示する技術に関する。
従来、外景に重畳して画像を表示デバイスに表示させる技術において、表示されたオブジェクトを操作者が手で指し示すと、オブジェクトに関する情報が表示デバイス上に表示される技術が知られている(特許文献1)。
従来の技術において、操作者の手の動きは、画像センサーによって取り込まれた画像を用いて認識される。この場合において、画像センサーの検出範囲外に操作者の手が存在する場合には、操作者の手が画像センサーによって認識されない。これにより、操作者がオブジェクトを指し示しているにも拘わらず、オブジェクトに関する情報が表示されない場合が生じ得る。このような課題は、操作者の手の動きを認識してオブジェクトに関する情報を表示する技術に限られず、指示体の動きを認識して対象物関連画像に関する情報を表示する技術に共通する。
本開示の一形態によれば、表示装置が提供される。この表示装置は、外景を透過し外景に重畳して視認できるように画像を表示する表示部と、前記外景を撮像するカメラと、前記カメラによって撮像された少なくとも2枚の撮像画像を用いて指示体の動きを認識する指示体認識部と、前記撮像画像を用いて前記外景中の対象物を認識する対象物認識部と、前記対象物認識部が認識した前記対象物に関連する前記画像である対象物関連画像を、前記表示部に表示する表示制御部と、を備え、前記表示制御部は、さらに、前記指示体認識部によって前記対象物関連画像と重なった範囲内における前記指示体の動きが認識されることで、前記対象物関連画像に関連する関連情報を前記表示部に表示する関連表示部と、前記カメラの撮像範囲内に、前記対象物関連画像が存在しているか否かに応じて前記対象物関連画像の表示状態を変更する表示処理部と、を有する。
A.第1実施形態:
図1は、第1実施形態における表示装置500を示す図である。表示装置500は、操作者OPの頭部に装着される頭部装着型表示装置100で構成されている。頭部装着型表示装置100は、指示体PBとしての手指の動きを認識する。
図1は、第1実施形態における表示装置500を示す図である。表示装置500は、操作者OPの頭部に装着される頭部装着型表示装置100で構成されている。頭部装着型表示装置100は、指示体PBとしての手指の動きを認識する。
頭部装着型表示装置100は、操作者OPに画像を視認させる画像表示部110と、画像表示部110を制御する制御部120とを備える。画像表示部110は、操作者OPの頭部に装着される装着体として構成されており、本実施形態では眼鏡形状を有する。画像表示部110は、右目用表示部112Rと左目用表示部112Lとを含む表示部112によって構成される。画像表示部110には、外景VWを撮像するカメラ114が取り付けられている。画像表示部110は、透過型であり、外景VWを透過し外景を重畳して視認できるように画像を表示するように構成されている。すなわち、頭部装着型表示装置100は、表示部112を通過して視認される外景VWの中に、表示部112で表示された画像が浮かび上がる透過型のヘッドマウントディスプレイである。
図1の例では、表示部112を用いて外景VWの空間内に仮想スクリーンVSが表示されている。仮想スクリーンVSには、外景VW中の建物などの対象物に紐付けて、対象物に関連した画像である対象物関連画像IM1,IM2,IM3が表示されている。操作者OPは、仮想スクリーンVSに表示された対象物関連画像IM1,IM2,IM3上で、指示体PBを用いて所定の操作を実行する。頭部装着型表示装置100は、カメラ114を用いて指示体PBを含む画像を撮影し、指示体PBの先端部PTの空間座標や、指示体PBの動きを検出する。仮想スクリーンVS上におけるカメラ114の撮像範囲102の外縁は一点鎖線で示している。カメラ114としては、単眼カメラが使用される。
頭部装着型表示装置100はさらに、検出された指示体PBの先端部PTの空間的な位置や指示体PBの動きに応じた処理を実行する。また、指示体PBとしては、手指に限らず、操作者OPが指示を与えるために使用する指示用ペンや指示棒などの他の対象物を利用することも可能である。
図2は、第1実施形態における頭部装着型表示装置100の機能ブロック図である。頭部装着型表示装置100の制御部120は、プロセッサーとしてのCPU122と、記憶部124と、GNSSレシーバー125と、6軸センサー126と、磁気センサー127と、電源部129と、を備える。
記憶部124は、ROMやRAMなどによって構成されている。記憶部124には、CPU122が実行するための各種プログラムなどが記憶されている。
GNSSレシーバー125は、GNSS(Global Navigation Satellite System)を構成する人工衛星から受信した航法信号に基づいて、頭部装着型表示装置100の現在位置を測位する。
6軸センサー126は、3軸加速度センサーと3軸ジャイロセンサーとを備えるモーションセンサーである。磁気センサー127は、例えば、3軸の地磁気センサーである。電源部129は、バッテリーを含み、頭部装着型表示装置100が動作するための電力を供給する。
CPU122は、指示体認識部210と、対象物認識部220と、表示制御部300とを備える。CPU122の機能の一部又は全部をハードウェア回路で実現してもよい。指示体認識部210は、カメラ114によって撮像された少なくとも2枚の撮像画像を用いて指示体PBの動き認識する。指示体認識部210は、例えば、記憶部124に予め記憶された指示体PBの形状と、撮像画像中の対象物の形状とをパターンマッチングすることで、指示体PBを認識する。そして、指示体認識部210は、時系列に撮像された少なくとも2枚の指示体PBを含む撮像画像を用いて指示体PBの動きを認識する。
図1に示すように、仮想スクリーンVS内の位置は、横方向のu座標と、縱方向のv座標で表される。指示体PBの先端部PTの空間座標は、仮想スクリーンVSの2次元座標(u,v)と奥行座標Zとを用いて、(u,v,Z)で表すことが可能である。奥行座標Zは、図1において、カメラ114から指示体PBの先端部PTである指先までの距離である。指示体認識部210は、カメラ114で撮像された指示体PBの先端部PTの面積を算出し、算出した面積に応じて奥行座標Zを検出する。先端部PTと奥行座標Zとの関係を示す参照データは、記憶部124に予め記憶されている。例えば、記憶部124には、先端部PTの面積が小さいほど、奥行座標Zが大きくなる関係を示す参照データが記憶されている。なお、指示体認識部210は、奥行座標Zは算出することなく、先端部PTを二次元座標(u,v)で表してもよい。また、奥行座標Zは、他の方法を用いて算出されてもよい。例えば、頭部装着型表示装置100が距離センサーを備える場合には、距離センサーの検出値を用いて奥行座標Zを算出してもよい。
図2に示す対象物認識部220は、カメラ114によって撮像した外景VWの撮像画像を用いて、外景中の対象物を認識する。本実施形態では、記憶部124に予め記憶された対象物に関する情報と、撮像画像中の対象物とをパターンマッチングすることで、予め記憶された対象物を認識する。また対象物認識部220は、認識した対象物のうちで、対象物関連画像が表示される対象物を判定する。記憶部124には、経度および緯度で表された領域ごとに、対象物と、対象物に関連した対象物関連画像とが対応付けられたテーブルが記憶されている。対象物認識部220は、記憶部124に記憶されたこのテーブルを参照することで、対象物関連画像が表示される対象物を判定する。なお、対象物認識部220は、カメラ114によって撮像した撮像画像中の所定のマーカーを検出することで、対象物関連画像が表示される対象物を判定してもよい。
表示制御部300は、対象物認識部220が認識した対象物に関連する画像を、画像表示部110の表示部112に表示する。表示制御部300は、関連表示部310と、表示処理部320とを有する。
関連表示部310は、仮想スクリーンVS上において、指示体認識部210によって表示部112に表示された対象物関連画像IM1,IM2,IM3と重なった範囲内における指示体PBの動きが認識されることで、対象物関連画像IM1,IM2,IM3に関連する関連情報を表示部112に表示する。対象物関連画像に関連する関連情報は、予め記憶部124に記憶されている。関連情報としては、対象物関連画像IM1,IM2,IM3の詳細を示す情報などである。
表示処理部320は、対象物に関連する対象物関連画像IM1,IM2,IM3を表示部112に表示する。また表示処理部320は、カメラ114の撮像範囲102内に対象物関連画像IM1,IM2,IM3が存在しているか否かに応じて対象物関連画像IM1,IM2,IM3の表示状態を変更する。つまり、表示処理部320は、表示部112に表示された対象物関連画像IM1,IM2,IM3が、仮想スクリーンVS上において、カメラ114の撮像範囲102内に存在している第1の場合と、カメラ114の撮像範囲102外に存在している第2の場合とで、対象物関連画像IM1,IM2,IM3の表示状態を変更する。本実施形態では、表示処理部320は、第1の場合と第2の場合とで対象物関連画像IM1,IM2,IM3の強調の程度を異ならせる。例えば、表示処理部320は、第1の場合の方が第2の場合に比べて、画像IM1,IM2,IM3の強調の程度を大きくする。具体的な、表示処理部320が実行する処理内容については後述する。
図3は、頭部装着型表示装置100が実行する表示処理のフローチャートである。図4は、ステップS40の詳細を示すフローチャートである。図5は、表示部112を用いて仮想スクリーンVSに表示された対象物関連画像IMa〜IMeと、表示部112を透過して視認される外景VWとを示す図である。表示処理は、操作者OPから制御部120に入力された開始指示をトリガーに実行され、一定時間間隔で繰り返される。
図3に示すように、ステップS10において、カメラ114は外景VWを撮影する。次に、ステップS20において、制御部120はカメラ114によって撮影した外景画像と、GNSSレシーバー125,6軸センサー126などを用いて自己位置情報と、を取得する。自己位置情報は、頭部装着型表示装置100が位置する緯度および経度と、頭部装着型表示装置100の向きであってもよい。次に、ステップS30において、対象物認識部220は、取得した自己位置情報と外景画像と記憶部124のデータとを用いて、対象物関連画像を表示する対象物が存在するか否かを判定する。
対象物関連画像を表示する対象物が存在しない場合には、本ルーチンの表示処理は終了し、次のルーチンの表示処理が所定時間後に開始される。一方で、対象物関連画像を表示する対象物が存在する場合には、ステップS40において、表示処理部320は、対象物関連画像を表示部112に表示する。
図5に示すように、外景画像中の複数の対象物のうちで、対象物202,204,205,206,209が対象物関連画像を表示する対象物であったとする。対象物202,204,206はビルであり、対象物205は空であり、対象物209は看板である。この場合、表示制御部300は、対象物202に関連する対象物関連画像IMaと、対象物204に関連する対象物関連画像IMbと、対象物205に関連する対象物関連画像IMdと、対象物206に関連する対象物関連画像IMeと、対象物209に関連する対象物関連画像IMfを画像表示部110の表示部112に表示する。
対象物関連画像IMaは、対象物202のビルに入居する「△▽事務所」についての画像である。対象物関連画像IMbは、対象物204のビル内で販売されている品物の販売に関する画像である。対象物関連画像IMdは、天気予報に関する画像である。対象物関連画像IMeは、対象物206のビルの名称に関する画像である。対象物関連画像IMfは、対象物209の「○×タクシー」の看板の内容について画像である。各対象物関連画像IMa,IMb,IMd,IMe,IMfは、対象物202,204,205,206,209を指し示す吹き出し画像である。表示制御部300は、各対象物関連画像IMa,IMb,IMd,IMe,IMfと対応する対象物202,204,205,206,209との相対位置が予め定めた関係となるように対象物関連画像IMa,IMb,IMd,IMe,IMfを表示する。
図4に示すように、ステップS40では、表示処理部320は仮想スクリーンVS上において、撮像範囲102内に対象物関連画像IMa〜IMfが存在しているか否かを判定する。具体的には、表示処理部320は、対象物関連画像IMa〜IMfの外枠で囲まれた面積の半分以上が、撮像範囲102内に位置する場合に、撮像範囲102内に位置すると判定する。図5に示す例では、対象物関連画像IMa,IMb,IMfが撮像範囲102内に位置すると判定され、対象物関連画像IMd,IMeが撮像範囲102外に存在すると判定される。
図4のステップS42に示すように、表示処理部320は、撮像範囲102内に位置する対象物関連画像IMa,IMb,IMfについては、撮像範囲102外に位置する対象物関連画像IMd,IMeよりも強調の程度を大きくして表示する。また、ステップS44に示すように、表示処理部320は、撮像範囲102外に位置する対象物関連画像IMd,IMeについては、撮像範囲102内に位置する対象物関連画像IMa,IMb,IMfよりも強調の程度を小さくして表示する。強調の程度を小さくして表示することを抑制表示とも呼ぶ。具体的には、図5に示すように、表示処理部320は、対象物関連画像IMa,IMb,IMfの外枠を実線で表示し、対象物関連画像IMd,IMeの外枠を点線で表示する。このように、撮像範囲102内に位置する対象物関連画像IMa,IMb,IMfについては強調の程度を大きくすることで、表示装置500の操作者OPに対して、カメラ114の撮像範囲102内での指示体PBの操作を促すことができる。
図5に示す仮想スクリーンVS上において、強調の程度を大きくして表示されている対象物関連画像IMa,IMb,IMfは、カメラ114の撮像範囲102内に位置している。よって、仮想スクリーンVS上において、対象物関連画像IMa,IMb,IMfと重なった範囲内において指示体PBの動きを指示体認識部210によって認識できる。これにより、関連表示部310は、対象物関連画像IMa,IMb,IMfの関連情報を表示できる。一方で、強調の程度を小さくして表示されている対象物関連画像IMd,IMeは、カメラ114の撮像範囲102外に位置している。よって、仮想スクリーンVS上において、対象物関連画像IMd,IMeと重なった範囲内において指示体PBを動かしても、その動きを指示体認識部210によって認識できない。これにより、関連表示部310は、対象物関連画像IMd,IMeの関連情報を表示できない。つまり、対象物関連画像IMa〜IMf上において、指示体PBを動かすことで関連情報を表示できる画像と、指示体PBを動かしても関連情報を表示できない画像とを操作者OPが容易に区別できるように、対象物関連画像IMa〜IMfは強調の程度を異ならせて表示されている。
図6は、関連情報を説明するための図である。関連表示部310は、仮想スクリーンVS上において、強調の程度が大きく表示された対象物関連画像IMa,IMb,IMfと重なった範囲内において指示体認識部210が指示体PBの所定の動きを認識した場合に、関連情報を表示部112に表示する。所定の動きとは、例えば先端部PTで突く動作であるタップ動作である。対象物関連画像IMa〜IMfに対応する関連情報は、記憶部124に記憶されている。図6に示すように、仮想スクリーンVS上において、対象物関連画像IMbと重なった範囲内で指示体PBの所定の動きを指示体認識部210が認識した場合に、関連表示部310は、関連情報IMbaを対象物関連画像IMbに代えて表示部112に表示する。関連情報IMbaは、セール期間とセール対象品を表す画像である。
図7は、表示部112を用いて仮想スクリーンVSに表示された対象物関連画像IMa〜IMeと、表示部112を透過して視認される外景VWとを示す第2の図である。図5に示す状態から、操作者OPが所定角度だけ左を向いた場合、対象物関連画像IMdが撮像範囲102内に位置する。この場合、対象物関連画像IMdは、強調表示される。一方で、対象物関連画像IMa,IMfは撮像範囲102外に位置する。この場合、対象物関連画像IMa,IMfは、強調の程度を小さくして表示される。
上記第1実施形態によれば、表示処理部320はカメラ114の撮像範囲102内に対象物関連画像IMa〜IMfが存在しているか否かに応じて対象物関連画像IMa〜IMfの表示状態を変更する。これにより、表示装置500の操作者OPは、対象物関連画像IMa〜IMfがカメラ114の撮像範囲102内に位置しているか否かを容易に判別できる。これにより、カメラ114の撮像範囲102、すなわち指示体認識部210が認識できる領域内での先端部PTの操作を操作者OPに促すことができる。また、上記第1実施形態では、表示状態の変更は、対象物関連画像IMa〜IMfの強調の程度を異ならせることで実行している。これにより、表示装置500の操作者OPは、対象物関連画像IMa〜IMfがカメラ114の撮像範囲102内に位置しているか否かをさらに容易に判別できる。
B.表示状態の変更の他の実施形態:
上記第1実施形態では、表示処理部320は、対象物関連画像IMa〜IMfが撮像範囲102内に位置する場合には外枠を実線で表示し、撮像範囲102外に位置する場合には外枠を点線で表示することで表示状態を変更していたが、これに限定されるものではない。他の例について以下に説明する。
上記第1実施形態では、表示処理部320は、対象物関連画像IMa〜IMfが撮像範囲102内に位置する場合には外枠を実線で表示し、撮像範囲102外に位置する場合には外枠を点線で表示することで表示状態を変更していたが、これに限定されるものではない。他の例について以下に説明する。
図8は、表示状態の変更についての第1の他の実施形態を説明するための図である。図8では、操作者OPは工場内に位置している。外景VWには、複数の対象物302,304,305,308,309が存在する。複数の対象物302,304,305,308,309は、配管であったり配電盤であったりする。関連する対象物関連画像IMA,IMB,IMC,IMD,IMEは、仮想スクリーンVS上の所定の位置に表示される。記憶部124には、対象物関連画像IMA,IMB,IMC,IMD,IMEに対応する関連情報が記憶されている。関連情報としては、例えば、対象物IMA,IMB,IMC,IMD,IMEの名称や取扱説明内容である。表示処理部320は、対象物関連画像IMA,IMB,IMC,IMD,IMEの向きや色や大きさを変更することで表示状態を変更する。具体的には、表示処理部320は、撮像範囲102内に位置する対象物関連画像IMA,IMB,IMCについては、三角形の図形の頂点が下側となる向きで、かつ、三角形の図形を大きく、かつ、三角形をカラーで表示することで、強調の程度を大きくする。一方で、表示処理部320は、撮像範囲102外に位置する対象物関連画像IMD,IMEについては、三角形の頂点が上側と成る向きで、かつ、三角形の図形を小さく、かつ、三角形をグレー色で表示することで、強調の程度を小さくする。
図9は、表示状態の変更についての第2の他の実施形態を説明するための図である。図9では、操作者OPは美術館内に位置している。外景VWには、複数の対象物401,402,409が存在する。複数の対象物401,402,403は、絵の説明文を記載したパネルである。関連する対象物関連画像IMAa,IMBa,IMCaは、仮想スクリーンVS上の所定の位置に表示される。記憶部124には、対象物関連画像IMAa,IMBa,IMCaに対応する関連情報が記憶されている。関連情報としては、例えば、絵の詳細な説明文である。表示処理部320は、対象物関連画像IMAa,IMBa,IMCaをジェスチャーを模した画像で表す。具体的には、表示処理部320は、撮像範囲102内に位置する対象物関連画像IMAa,IMBaについては、人差し指でタップ動作を行うジェスチャーを模した画像で表示する。また、表示処理部320は、撮像範囲102外に位置する対象物関連画像IMCaについては、親指を立てたジェスチャーを模した画像で表示する。
C.対象物関連画像の表示についての他の実施形態:
上記第1実施形態では、表示処理部320は、対象物関連画像IMa〜IMfは、仮想スクリーンVS上の所定の位置に表示していた。例えば、表示処理部320は、ビルや看板などの対象物が物体である場合には、図5に示すように、操作者OPから見て対象物の右側に対象物関連画像IMa,IMb,IMe,IMfを表示していた。また、表示処理部320は、空などの物体ではない対象物については、表示部112を透過して仮想スクリーンVSに重畳される外景VWのうちで、上側に位置する物体、例えば避雷針800に対して予め定めた位置となるように対象物関連画像IMdを表示していた。しかしながら、表示処理部320は、対象物が撮像範囲102に位置する場合には、対象物の対象物関連画像を撮像範囲102内に表示してもよい。以下に図10を用いて説明する。
上記第1実施形態では、表示処理部320は、対象物関連画像IMa〜IMfは、仮想スクリーンVS上の所定の位置に表示していた。例えば、表示処理部320は、ビルや看板などの対象物が物体である場合には、図5に示すように、操作者OPから見て対象物の右側に対象物関連画像IMa,IMb,IMe,IMfを表示していた。また、表示処理部320は、空などの物体ではない対象物については、表示部112を透過して仮想スクリーンVSに重畳される外景VWのうちで、上側に位置する物体、例えば避雷針800に対して予め定めた位置となるように対象物関連画像IMdを表示していた。しかしながら、表示処理部320は、対象物が撮像範囲102に位置する場合には、対象物の対象物関連画像を撮像範囲102内に表示してもよい。以下に図10を用いて説明する。
図10は、対象物関連画像の表示方法を説明するための図である。表示処理部320は、対象物205,206についても、他の対象物202,204,209と同様に対象物関連画像IMd,IMeを表示部112上における撮像範囲102内に位置するように表示する。これにより、より多くの対象物関連画像IMa〜IMfをカメラ114の撮像範囲102内に表示できるので、操作者OPが指示体PBによってより多くの関連情報を表示させることができる。
D.他の形態:
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
本開示は、上述した実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の形態で実現することができる。例えば、本開示は、以下の形態によっても実現可能である。以下に記載した各形態中の技術的特徴に対応する上記実施形態中の技術的特徴は、本開示の課題の一部又は全部を解決するために、あるいは、本開示の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
(1)本開示の一形態によれば、表示装置が提供される。この表示装置は、外景を透過し外景に重畳して視認できるように画像を表示する表示部と、前記外景を撮像するカメラと、
前記カメラによって撮像された少なくとも2枚の撮像画像を用いて指示体の動きを認識する指示体認識部と、前記撮像画像を用いて前記外景中の対象物を認識する対象物認識部と、前記対象物認識部が認識した前記対象物に関連する前記画像である対象物関連画像を、前記表示部に表示する表示制御部と、を備え、前記表示制御部は、さらに、前記指示体認識部によって前記対象物関連画像と重なった範囲内における前記指示体の動きが認識されることで、前記対象物関連画像に関連する関連情報を前記表示部に表示する関連表示部と、前記カメラの撮像範囲内に、前記対象物関連画像が存在しているか否かに応じて前記対象物関連画像の表示状態を変更する表示処理部と、を有する。
この形態によれば、表示処理部はカメラの撮像範囲内に対象物関連画像が存在している否かに応じて対象物関連画像の表示状態を変更するので、表示装置の操作者は対象物関連画像がカメラの撮像範囲内に位置しているか否かを容易に判別できる。
前記カメラによって撮像された少なくとも2枚の撮像画像を用いて指示体の動きを認識する指示体認識部と、前記撮像画像を用いて前記外景中の対象物を認識する対象物認識部と、前記対象物認識部が認識した前記対象物に関連する前記画像である対象物関連画像を、前記表示部に表示する表示制御部と、を備え、前記表示制御部は、さらに、前記指示体認識部によって前記対象物関連画像と重なった範囲内における前記指示体の動きが認識されることで、前記対象物関連画像に関連する関連情報を前記表示部に表示する関連表示部と、前記カメラの撮像範囲内に、前記対象物関連画像が存在しているか否かに応じて前記対象物関連画像の表示状態を変更する表示処理部と、を有する。
この形態によれば、表示処理部はカメラの撮像範囲内に対象物関連画像が存在している否かに応じて対象物関連画像の表示状態を変更するので、表示装置の操作者は対象物関連画像がカメラの撮像範囲内に位置しているか否かを容易に判別できる。
(2)上記形態であって、前記表示制御部は、前記カメラの撮像範囲内に前記対象物関連画像が存在している第1の場合と、前記カメラの撮像範囲外に前記対象物関連画像が存在している第2の場合とで、前記対象物関連画像の強調の程度を異ならせて表示してもよい。
この形態によれば、第1の場合と第2の場合とで対象物関連画像の強調の程度を異ならせて表示することで、表示装置の操作者は対象物関連画像がカメラの撮像範囲内に位置しているか否かを容易に判別できる。
この形態によれば、第1の場合と第2の場合とで対象物関連画像の強調の程度を異ならせて表示することで、表示装置の操作者は対象物関連画像がカメラの撮像範囲内に位置しているか否かを容易に判別できる。
(3)上記形態であって、前記表示制御部は、前記第1の場合の方が前記第2の場合に比べて、前記対象物関連画像の強調の程度を大きくしてもよい。
この形態によれば、第1の場合の方が第2の場合に比べて対象物関連画像の強調の程度を大きくすることで、表示装置の操作者に対して、カメラの撮像範囲内での指示体の操作を促すことができる。
この形態によれば、第1の場合の方が第2の場合に比べて対象物関連画像の強調の程度を大きくすることで、表示装置の操作者に対して、カメラの撮像範囲内での指示体の操作を促すことができる。
(4)上記形態であって、前記表示制御部は、前記対象物が前記撮像範囲内に位置する場合には、前記対象物の前記対象物関連画像を前記表示部上における前記撮像範囲内に表示してもよい。
この形態によれば、対象物関連画像をカメラの撮像範囲内に表示できる。
この形態によれば、対象物関連画像をカメラの撮像範囲内に表示できる。
本開示は、上記形態の他に、表示方法や、コンピュータープログラムや、コンピュータープログラムを記録した記録媒体等の形態で実現することができる。
100…頭部装着型表示装置、102…撮像範囲、110…画像表示部、112…表示部、112L…左目用表示部、112R…右目用表示部、114…カメラ、120…制御部、122…CPU、124…記憶部、125…GNSSレシーバー、126…6軸センサー、127…磁気センサー、129…電源部、202,204,205,206,209…対象物、210…指示体認識部、220…対象物認識部、300…表示制御部、302…対象物、310…関連表示部、320…表示処理部、401…対象物、500…表示装置、800…避雷針、IM1,IM2,IM3,IMa,IMb,IMd,IMe,IMf,IMA,IMAa,IMB,IMBa,IMC,IMCa,IMD,IME…対象物関連画像、OP…操作者、PB…指示体、PT…先端部、VS…仮想スクリーン、VW…外景、Z…奥行座標
Claims (6)
- 表示装置であって、
外景を透過し外景に重畳して視認できるように画像を表示する表示部と、
前記外景を撮像するカメラと、
前記カメラによって撮像された少なくとも2枚の撮像画像を用いて指示体の動きを認識する指示体認識部と、
前記撮像画像を用いて前記外景中の対象物を認識する対象物認識部と、
前記対象物認識部が認識した前記対象物に関連する前記画像である対象物関連画像を、前記表示部に表示する表示制御部と、を備え、
前記表示制御部は、さらに、
前記指示体認識部によって前記対象物関連画像と重なった範囲内における前記指示体の動きが認識されることで、前記対象物関連画像に関連する関連情報を前記表示部に表示する関連表示部と、
前記カメラの撮像範囲内に、前記対象物関連画像が存在しているか否かに応じて前記対象物関連画像の表示状態を変更する表示処理部と、を有する、表示装置。 - 請求項1に記載の表示装置であって、
前記表示制御部は、前記カメラの撮像範囲内に前記対象物関連画像が存在している第1の場合と、前記カメラの撮像範囲外に前記対象物関連画像が存在している第2の場合とで、前記対象物関連画像の強調の程度を異ならせて表示する、表示装置。 - 請求項2に記載の表示装置であって、
前記表示制御部は、前記第1の場合の方が前記第2の場合に比べて、前記対象物関連画像の強調の程度を大きくする、表示装置。 - 請求項1から請求項3までのいずれか一項に記載の表示装置であって、
前記表示制御部は、前記対象物が前記撮像範囲内に位置する場合には、前記対象物の前記対象物関連画像を前記表示部上における前記撮像範囲内に表示する、表示装置。 - 外景を透過し外景に重畳して視認できるように画像を表示する表示部と、前記外景を撮像するカメラとを備える表示装置が実行する表示方法であって、
前記カメラによって撮像された少なくとも2枚の撮像画像を用いて指示体の動きを認識する指示体認識工程と、
前記撮像画像を用いて前記外景中の対象物を認識する対象物認識工程と、
前記対象物認識工程によって認識された前記対象物に関連する前記画像である対象物関連画像を前記表示部に表示する表示工程と、を備え、
前記表示工程は、さらに、
前記指示体認識工程によって前記対象物関連画像と重なった範囲内における前記指示体の動きを認識することで、前記対象物関連画像に関連する関連情報を前記表示部に表示する関連表示工程と、
前記カメラの撮像範囲内に、前記対象物関連画像が存在しているか否かに応じて前記対象物関連画像の表示状態を変更する表示処理工程と、を有する、表示方法。 - 外景を透過し外景に重畳して視認できるように画像を表示する表示部と、前記外景を撮像するカメラとを備える表示装置に実行させるためのコンピュータープログラムであって、
前記カメラによって撮像された少なくとも2枚の撮像画像を用いて指示体の動きを認識する指示体認識機能と、
前記撮像画像を用いて前記外景中の対象物を認識する対象物認識機能と、
前記対象物認識機能によって認識された前記対象物に関連する前記画像である対象物関連画像を前記表示部に表示する表示機能と、を備え、
前記表示機能は、さらに、
前記指示体認識機能によって前記対象物関連画像と重なった範囲内における前記指示体の動きを認識することで、前記対象物関連画像に関連する関連情報を前記表示部に表示する関連表示機能と、
前記カメラの撮像範囲内に、前記対象物関連画像が存在しているか否かに応じて前記対象物関連画像の表示状態を変更する表示処理機能と、を有する、コンピュータープログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019140781A JP2021026260A (ja) | 2019-07-31 | 2019-07-31 | 表示装置、表示方法、および、コンピュータープログラム |
US16/943,223 US11354896B2 (en) | 2019-07-31 | 2020-07-30 | Display device, display method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019140781A JP2021026260A (ja) | 2019-07-31 | 2019-07-31 | 表示装置、表示方法、および、コンピュータープログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021026260A true JP2021026260A (ja) | 2021-02-22 |
Family
ID=74259334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019140781A Pending JP2021026260A (ja) | 2019-07-31 | 2019-07-31 | 表示装置、表示方法、および、コンピュータープログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11354896B2 (ja) |
JP (1) | JP2021026260A (ja) |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002042172A (ja) | 2000-07-25 | 2002-02-08 | Matsushita Electric Works Ltd | 仮想物体の選択方法、この方法が適用される記録媒体およびサービス |
US8374388B2 (en) * | 2007-12-28 | 2013-02-12 | Rustam Stolkin | Real-time tracking of non-rigid objects in image sequences for which the background may be changing |
JP5762892B2 (ja) * | 2011-09-06 | 2015-08-12 | ビッグローブ株式会社 | 情報表示システム、情報表示方法、及び情報表示用プログラム |
KR20190133080A (ko) | 2011-09-19 | 2019-11-29 | 아이사이트 모빌 테크놀로지 엘티디 | 증강 현실 시스템용 터치프리 인터페이스 |
US9096920B1 (en) * | 2012-03-22 | 2015-08-04 | Google Inc. | User interface method |
US8836768B1 (en) * | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US9310895B2 (en) * | 2012-10-12 | 2016-04-12 | Microsoft Technology Licensing, Llc | Touchless input |
US9996150B2 (en) | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
KR101956073B1 (ko) * | 2012-12-20 | 2019-03-08 | 삼성전자주식회사 | 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법 |
US10127724B2 (en) * | 2013-01-04 | 2018-11-13 | Vuezr, Inc. | System and method for providing augmented reality on mobile devices |
US8818716B1 (en) * | 2013-03-15 | 2014-08-26 | Honda Motor Co., Ltd. | System and method for gesture-based point of interest search |
JP6572600B2 (ja) * | 2015-04-09 | 2019-09-11 | セイコーエプソン株式会社 | 情報処理装置、情報処理装置の制御方法、および、コンピュータープログラム |
US10281976B2 (en) * | 2015-07-07 | 2019-05-07 | Seiko Epson Corporation | Display device, control method for display device, and computer program |
JP6711137B2 (ja) * | 2016-05-25 | 2020-06-17 | 富士通株式会社 | 表示制御プログラム、表示制御方法および表示制御装置 |
US11443495B2 (en) * | 2018-12-31 | 2022-09-13 | Palo Alto Research Center Incorporated | Alignment- and orientation-based task assistance in an AR environment |
-
2019
- 2019-07-31 JP JP2019140781A patent/JP2021026260A/ja active Pending
-
2020
- 2020-07-30 US US16/943,223 patent/US11354896B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20210034873A1 (en) | 2021-02-04 |
US11354896B2 (en) | 2022-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2020202551B2 (en) | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor | |
US20220092830A1 (en) | Image processing apparatus, image processing method, and program | |
CN110859630B (zh) | 一种基于ar技术的姿态矫正器及其矫正方法 | |
JP5724543B2 (ja) | 端末装置、オブジェクト制御方法及びプログラム | |
US20110157236A1 (en) | Head-mounted display | |
KR100878127B1 (ko) | 몸짓 기반 입력 및 타겟 표시용 단일 카메라 시스템 | |
JP4768196B2 (ja) | 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法 | |
JP6335556B2 (ja) | ポインティングによる情報クエリ | |
US20130215148A1 (en) | Interactive input system having a 3d input space | |
CN108027654B (zh) | 输入设备、输入方法和程序 | |
CN104166509B (zh) | 一种非接触式屏幕交互方法及系统 | |
CN108027656B (zh) | 输入设备、输入方法和程序 | |
US20190266798A1 (en) | Apparatus and method for performing real object detection and control using a virtual reality head mounted display system | |
CN104160369A (zh) | 用于使用可移动引导标记来提供交互导航辅助的方法、装置和计算机可读存储介质 | |
US20140028716A1 (en) | Method and electronic device for generating an instruction in an augmented reality environment | |
JP6739847B2 (ja) | 画像表示制御装置および画像表示制御用プログラム | |
WO2015100205A1 (en) | Remote sensitivity adjustment in an interactive display system | |
JP2022084658A (ja) | 拡張現実空間に配置される3dオブジェクトを生成する方法 | |
CN114706489B (zh) | 一种输入设备的虚拟方法、装置、设备和存储介质 | |
JP4678428B2 (ja) | 仮想空間内位置指示装置 | |
JP2021026260A (ja) | 表示装置、表示方法、および、コンピュータープログラム | |
US11960660B2 (en) | Terminal device, virtual object manipulation method, and virtual object manipulation program | |
US20220166917A1 (en) | Information processing apparatus, information processing method, and program | |
CN117897682A (zh) | 在物理表面上显示数字媒体内容 | |
CN111506280B (zh) | 用于指示屏幕外兴趣点的图形用户界面 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20200811 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210915 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211101 |