JP2015100032A - 映像表示装置、映像提示方法及びプログラム - Google Patents
映像表示装置、映像提示方法及びプログラム Download PDFInfo
- Publication number
- JP2015100032A JP2015100032A JP2013239137A JP2013239137A JP2015100032A JP 2015100032 A JP2015100032 A JP 2015100032A JP 2013239137 A JP2013239137 A JP 2013239137A JP 2013239137 A JP2013239137 A JP 2013239137A JP 2015100032 A JP2015100032 A JP 2015100032A
- Authority
- JP
- Japan
- Prior art keywords
- video
- unit
- user
- gesture
- presentation area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 50
- 238000003384 imaging method Methods 0.000 claims abstract description 28
- 238000001514 detection method Methods 0.000 claims description 20
- 238000012937 correction Methods 0.000 claims description 10
- 210000003813 thumb Anatomy 0.000 abstract description 6
- 210000005224 forefinger Anatomy 0.000 abstract 2
- 230000006870 function Effects 0.000 description 30
- 230000004048 modification Effects 0.000 description 21
- 238000012986 modification Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 210000003811 finger Anatomy 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 239000011521 glass Substances 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 210000004936 left thumb Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000004935 right thumb Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【解決手段】眼鏡型端末は、ユーザにより観察される像を撮影して撮影データを生成する撮影部と、観察される像に重ねて映像コンテンツを表示する表示部12とを備える。眼鏡型端末は、撮影部が生成した撮影データに基づいて、ユーザにより行われた空間領域を平面的に囲むジェスチャを認識する。眼鏡型端末は、右手の親指FR1と人差し指FR2とで「L」字を作り、左手の親指FL1と人差し指FL2とで「L」字を作り、それらを組み合わせて、平面状の略矩形の空間領域を作るジェスチャを認識する。眼鏡型端末は、認識したジェスチャに基づいて、ユーザの位置から見てジェスチャ領域Tの延長線上に映像提示領域を設定する。眼鏡型端末は、映像提示領域においてユーザにより映像コンテンツが観察されるように、映像コンテンツを表示部12に表示する。
【選択図】図8
Description
これに対し、本発明の目的は、ユーザが観察する実環境に当該ユーザが映像コンテンツを配置できるようにすることである。
本発明の映像表示装置において、前記延長線上に存在する平面領域を検出する平面領域検出部を備え、前記設定部は、前記平面領域検出部が検出した前記平面領域上に、前記映像提示領域を設定してもよい。
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態の眼鏡型端末1の外観構成を示す図である。図1には、ユーザ2に装着されているときの眼鏡型端末1が示されている。眼鏡型端末1は、ユーザ2の頭部に装着された状態で使用される映像表示装置である。眼鏡型端末1は、ユーザ2の頭部を挟むようにして装着される。このとき、眼鏡型端末1は、アーム部と呼ばれる部品がユーザの両耳2aに接する。眼鏡型端末1を装着したユーザ2は、眼鏡部10のレンズを通して像を観察する。以下に説明するユーザ2は、特に断りのない限り、眼鏡型端末1を装着した状態であるものとする。
位置方向センサ14は、例えば3軸加速度、3軸角速度及び3軸地磁気を含む9軸センサであり、眼鏡型端末1の位置及び眼鏡型端末1が向く方向を検出する位置方向検出手段である。
眼鏡型端末1は、ユーザ2が観察する実環境中に、映像コンテンツを提示するための仮想的な領域(以下「映像提示領域」という。)を設定(定義)する。そして、眼鏡型端末1は、設定した映像提示領域においてユーザ2により映像コンテンツが観察されるように、映像コンテンツを表示部12に表示する。映像提示領域に提示される映像コンテンツは、眼鏡型端末1を装着したユーザ2だけが観察することができる。図2には、ユーザ2が居る室空間100に映像提示領域SC1〜SC4が設定された例が示されている。室空間100は、天井C、側壁部W及び床Fに囲まれて形成されている。例えば、ユーザ2は、側壁部Wの方向に視線を向けると、映像提示領域SC1、SC2又はSC3の映像コンテンツを観察することができ、天井Cの方向に視線を向けると、映像提示領域SC4の映像コンテンツを観察することができる。これ以外にも、床Fや室空間100に設置された机やその他の家具に映像提示領域が設定された場合に、ユーザ2は、映像提示領域に視線を向けることで映像コンテンツを観察することができる。図2に示す映像提示領域SC1〜SC4から分かるように、本実施形態の映像提示領域は、矩形(正方形を含む。)の領域である。
眼鏡部10の撮影部11は、撮影して撮影データを生成すると、生成した撮影データを制御部20へ供給する。表示部12は、制御部20が行った表示制御に従って、映像コンテンツを表示する。距離センサ13は、例えば、制御部20が映像提示領域を設定する際に目標物までの距離を検出し、検出結果を制御部20へ供給する。位置方向センサ14は、例えば眼鏡型端末1の動作中において、眼鏡型端末1の位置及び眼鏡型端末1が向く方向を繰り返し検出して、検出結果を制御部20へ供給する。
図4に示すように、設定テーブル31では、「レコード番号」フィールドと、「機能」フィールドと、「設定情報」フィールドとが関連付けられている。「レコード番号」フィールドには、設定テーブル31におけるレコードを識別する番号が格納される。図4に示すレコード番号「1」〜「4」の各レコードには、図2で説明した映像提示領域SC1〜SC4のうち、符号の末尾の値が同じ映像提示領域に関する情報が格納される。「機能」フィールドには、各映像提示領域に割り当てられた機能を識別する情報が格納される。本実施形態では、「機能」フィールドには、機能を利用するために実行すべきアプリケーションプログラムを識別する識別子(以下「アプリケーション識別子」という。)が格納される。各映像提示領域に割り当てられた機能を分かりやすくするために、図4の「機能」フィールドには、機能を説明する文字列が示されている。
撮影制御部21は、撮影部11の撮影に関する制御を司る。撮影制御部21は、例えば、映像提示領域を設定する際に、撮影部11に動画像を撮影させる。また、撮影制御部21は、設定部23が設定した映像提示領域の静止画像を撮影部11に撮影させて、タグ情報を生成する。
まず、眼鏡型端末1の制御部20は、アプリケーションプログラムを実行する(ステップS1)。ここでは、制御部20は、表示部12に映像コンテンツを表示するためのアプリケーションプログラムを、ユーザ2の指示に従って実行する。
別の方法として、制御部20は、例えば、距離センサ13により検出された距離の検出結果に基づいて三次元空間を認識してもよいし、ステレオカメラを用いた方法によって三次元空間を認識してもよい。
なお、制御部20は、更に別の方法でジェスチャを認識してもよい。制御部20は、例えば、撮影データが表す撮影画像の中から肌色又は肌色に近い色の画像領域を検出し、画像解析を行うことによってジェスチャを認識してもよい。
制御部20は、眼鏡型端末1が向く方向、及び、ジェスチャ領域のサイズを認識する(ステップS4)。まず、制御部20は、ジェスチャを認識したときに位置方向センサ14が検出した方向に基づいて、眼鏡型端末1が向く方向を認識する。また、制御部20は、図8(b)に示すように、右手の親指FR1と左手の人差し指FL2とが交差する位置にある点P1と、右手の人差し指FR2と左手の親指FL1とが交差する位置にある点P2とを認識する。そして、制御部20は、点P1と点P2とを結ぶ線分を対角線とする矩形(図8(b)の斜線部)を、ジェスチャ領域Tとして検出する。ここでは、制御部20は、点P1と点P2とを結ぶ線分の長さ「A」を、ジェスチャ領域Tのサイズとして認識する。
別の方法として、制御部20は、例えば、図8(a)に示した斜線部の領域(図形)の外接矩形又は内接矩形を特定して、ジェスチャ領域Tを検出してもよい。
以下に説明する映像提示領域の設定においては、以下の3つの事項を仮定する。
(仮定1)ユーザ2の位置(つまり視点の位置)と、撮影部11の位置(レンズの位置)とが同一。
(仮定2)ユーザ2の位置(つまり視点の位置)と、ジェスチャ領域の重心とが同一の高さ。
(仮定3)側壁部Wとジェスチャ領域の平面方向とが平行。
Dx=Ax*C/B、Dy=Ay*C/B、D=A*C/B ・・・(1)
Dx'=Dx、Dy'=Dy*cosθ ・・・(2)
なお、撮影部11が上向きに傾いた場合も、制御部20は、図10で説明した方法で映像提示領域SC'を設定してよい。
そして、制御部20は、ステップS4の処理で位置方向センサ14が検出した方向を示す方向情報を、設定テーブル31のステップS7,S8の処理と同じレコードに格納する(ステップS9)。
以上が、映像提示領域を設定するときの眼鏡型端末1の動作の説明である。
制御部20は、ユーザ2が映像提示領域を観察中か否かを判断する(ステップS11)。制御部20は、撮影部11が生成した撮影データが表す1フレームの撮影画像と、設定テーブル31に格納された各タグ情報が表す撮影画像とを、例えば公知のパターンマッチングの技術を用いて照合する。そして、制御部20は、両者の同一性に基づいて(例えば一致度)、どのタグ情報に対応する映像提示領域が、ユーザ2により観察されているかを判断する。
ステップS11の処理で、制御部20は、設定テーブル31の全てのレコードのタグ情報を検索対象としてもよいが、位置方向センサ14の検出結果に基づいて、検索対象とするレコード(タグ情報)を絞り込んでもよい。例えば、制御部20は、眼鏡型端末1が現在向いている方向を基準として所定の範囲内を示す方向情報を含むレコードを、検索対象とする。この検索対象の絞込みにより、ステップS1の処理に関する制御部20の処理量が減る。
図12(a)で説明した方向を見ていたユーザ2が、例えば右上方向に視線を変更したとする。この場合、制御部20は、映像提示領域SC1の映像コンテンツの表示位置を変更する。図12(b)に示すように、映像提示領域SC1の右上部分のみをユーザ2が観察している場合には、制御部20は、その観察部分に対応する部分の映像コンテンツだけが観察されるように、映像コンテンツの表示位置を変更する。図12(b)に示す方向を見ていたユーザ2が、例えば更に視線を変更して、映像提示領域SC1を全く観察しなかったとする。この場合、制御部20は、図12(c)に示すように映像提示領域SC1の映像コンテンツを表示させない。このとき、ユーザ2は、実空間のみを観察している状態にある。
その後、ステップS14の処理で、制御部20は、映像提示領域の観察中でないと判断すると(ステップS14;NO)、映像コンテンツの表示を終了する(ステップS15)。
また、眼鏡型端末1は、図2で説明したように複数の映像提示領域を同時に設定して、その各々で異なる映像コンテンツを提示しうる。このため、ユーザ2は、マルチタスクで実行される複数の機能の映像コンテンツを、視線の方向や自身の位置を変えながら観察することができる。
また、汎用のHMDでは、ユーザが装着した状態では眼前に常に映像が表示されるため、例えば、ユーザ2にとっては眼精疲労の原因となることがある。また、ユーザ2が一時的に映像を視聴しないようにする場合には、ユーザは映像の再生を中断させるか、又は、装着していたHMDを一旦取り外す必要がある。これに対し、眼鏡型端末1によれば、ユーザ2は映像提示領域を設定した場所を観察しなければ、映像コンテンツが観察されない(図12(c)参照)。このため、ユーザ2にとっての使用負担の軽減の効果も期待できる。
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
制御部20は、動画コンテンツを表示する場合には、ユーザ2が観察中の期間にのみ、動画コンテンツを再生してもよい。すなわち、眼鏡型端末1の制御部20は、動画コンテンツの再生中に、ユーザ2により映像提示領域の全体が観察されなくなった場合には、その映像提示領域において観察される動画コンテンツの再生を中断(一時停止)する。その後、制御部20は、ユーザ2により映像提示領域の少なくとも一部でも再び観察されたときに、中断していた動画コンテンツの再生を再開する。別の方法として、制御部20は、ユーザ2により映像提示領域の少なくとも一部が観察されなくなった場合には、動画コンテンツの再生を中断し、映像提示領域の全体が再び観察されたときに、動画コンテンツの再生を再開してもよい。この変形例の眼鏡型端末1によれば、ユーザ2が動画コンテンツを部分的に見逃す可能性を低くすることができる。
この変形例において、制御部20は、動画コンテンツ以外の映像コンテンツについて、ユーザ2が観察中の期間にのみ再生してもよい。例えば、制御部20は、指定されたアプリケーションプログラムに関連付けられた映像提示領域を、ユーザ2が観察していない期間においては、そのアプリケーションプログラムを利用した処理(作業)を中断させ、また、映像コンテンツの表示を中断させる。ユーザ2が映像提示領域を観察中でないときに処理を中断するか否かについては、アプリケーションプログラム毎に予め設定されていてもよいし、ユーザ2が逐次明示的に指定してもよい。ユーザ2が指定する場合の指定方法は、例えば、手や指を用いたジェスチャを用いる方法や音声入力を用いる方法等がある。
制御部20は、ユーザ2によって複数の映像提示領域が同時に観察される場合には、いずれか1つの映像提示領域で映像コンテンツが観察されるように表示させ、他の映像提示領域では映像コンテンツを表示させないようにしてもよい。制御部20は、どのような条件に基づいて映像コンテンツを表示させる映像提示領域を決定してもよいが、例えば、ユーザ2によって観察される複数の映像提示領域のうち、最も面積が大きい映像提示領域、撮影部11の撮影画像において最も中心に近い位置に配置されている映像提示領域、又は、優先度が最も高い機能の映像提示領域で映像コンテンツが観察されるようにする。
この変形例の眼鏡型端末1によれば、ユーザ2が複数の映像コンテンツが同時に観察したことを原因して、提示中の映像コンテンツへの注意力が低下することを抑制することができる。
眼鏡型端末1は、自装置でない他の映像表示装置(ここでは他の眼鏡型端末。以下「他装置」という。)と映像提示領域、及び、映像コンテンツを共有する機能を有していてもよい。他の眼鏡型端末は、眼鏡型端末1と同じ構成を有する。
この変形例の眼鏡型端末1の制御部20は、図5で説明した機能構成に加え、更に、設定情報取得部25に相当する機能を実現する。設定情報取得部25は、他装置で設定された映像提示領域の設定を示す設定情報を、通信部40を介して取得する。設定情報取得部25が取得する設定情報は、図4で説明した「設定情報」フィールドに格納される情報と同じでよい。設定情報取得部25は、取得した設定情報とアプリケーション識別子とを対応付けて、設定テーブル31の同じレコードに格納する。
表示制御部24は、設定情報取得部25が取得した設定情報に基づいて映像提示領域を設定し、この映像提示領域に他装置と同じ映像コンテンツを表示させる。
制御部20は、他装置から設定情報とアプリケーション識別子とを取得して、それらを対応付けて設定テーブル31に格納する(ステップS21)。次に、制御部20は、ステップS21の処理で取得した設定情報に基づいて映像提示領域を設定し、この映像提示領域に他装置と同じ映像コンテンツを表示させる(ステップS22)。制御部20は、他装置と同じ映像コンテンツが記憶部30に記憶されている場合には、記憶部30から読み出した映像コンテンツを表示部12に表示させる。また、制御部20は、他装置等から通信部40を介して取得した映像コンテンツを表示部12に表示させてもよい。以降、制御部20は、上述した実施形態と同じ手順で、ステップS11〜S15の処理ステップを実行する。
制御部20は、設定した映像提示領域を、ユーザ2が行ったジェスチャに基づいて補正(例えば微調整)する機能を有していてもよい。
この変形例の眼鏡型端末1の制御部20は、図5で説明した機能構成に加え、更に、補正部26に相当する機能を実現する。補正部26は、設定部23が設定した映像提示領域を、ジェスチャ認識部22が認識したジェスチャに基づいて補正する。映像提示領域を補正する場合には、補正部26は、設定テーブル31に格納された設定情報を書き替える。ジェスチャ認識部22は、設定部23が設定した映像提示領域が表示部12に表示されているときに、映像提示領域を補正するためのジェスチャを認識する。
制御部20は、ステップS1〜S7の処理ステップを実行して映像提示領域を設定すると、設定した映像提示領域を表示部12に表示させる(ステップS101)。制御部20は、映像提示領域に映像コンテンツを表示させてもよいし、映像提示領域の範囲を示す画像を表示させてもよい。そして、制御部20は、映像提示領域の表示中に認識したユーザ2のジェスチャに基づいて、この映像提示領域を補正する(ステップS102)。例えば、制御部20は、ユーザ2が設定済みの映像提示領域に重ねて図6や図8で説明したジェスチャを行った場合、このジェスチャを認識して映像提示領域を補正する。この際、制御部20は、上述した実施形態と同じ方法で映像提示領域を再設定すればよい。そして、制御部20は、映像提示領域の補正結果に応じて設定テーブル31の情報を書き替える。
制御部20は、ユーザ2による別のジェスチャに基づいて映像提示領域を補正してもよい。例えば、制御部20は、補正対象の映像提示領域に指を重ねた状態で、所定の方向に指が移動させられると、指の移動方向に映像提示領域を移動させる補正を行う。
上述した実施形態では、制御部20は、ユーザ2の前方にある平面領域を検出して、検出した平面領域上に映像提示領域を設定していた。しかし、ユーザ2が広い室空間に居る場合等、近傍に平面領域が存在しない可能性もある。この場合、制御部20は、ユーザ2の前方の予め決められた距離の位置に、映像提示領域を設定してもよい。この場合の眼鏡型端末1の映像提示領域の設定方法は、上述した実施形態と同じでよく、実空間中の決められた距離だけ離れた位置に平面領域が存在すると仮定して、映像提示領域を設定すればよい。制御部20は、例えば、眼鏡部10のレンズの無限縁の位置や予め決められた固定距離の位置に映像提示領域を設定する。
この変形例において、眼鏡型端末1における平面領域の検出に係る構成(例えば平面領域検出部23aの機能)が省略されてもよい。
眼鏡型端末1は、距離センサ13を備えないようにしてもよい。この場合、制御部20は、撮影部11により生成された撮影データを解析して、三次元空間を認識したり、平面領域を検出したり、平面領域までの距離を検出したりするとよい。
また、眼鏡型端末1は、タグ情報を記憶しない構成であってもよい。この場合、眼鏡型端末1は、位置方向センサ14の検出結果に基づいて、映像提示領域の設定時の位置及び方向を特定して、位置情報及び方向情報を設定テーブル31に格納する。そして、眼鏡型端末1は、位置方向センサ14の現在の検出結果と、設定テーブル31に格納された位置情報及び方向情報とを照合して、両者の同一性に基づいて映像提示領域の位置を特定する。
また、眼鏡型端末1は、位置方向センサ14に代えて、眼鏡型端末1が向く方向を検出する方向センサを備えてもよい。この方向センサは、例えば、加速度センサ、地磁気センサ又はジャイロセンサである。
また、眼鏡型端末1は、位置方向センサ14を備えないようにしてもよい。この場合、眼鏡型端末1は、方向情報を使用せず、タグ情報を用いて映像提示領域の位置を特定する。
上述した実施形態の眼鏡型端末1の制御部20は、ユーザ2により行われた空間領域を平面的に囲むジェスチャを認識して、映像提示領域を設定していた。制御部20は、別のジェスチャを認識して、映像提示領域を設定してもよい。例えば、ユーザ2が、空間領域において点によって映像コンテンツの提示位置を指定するジェスチャをすると、制御部20は、ユーザ2が視認可能な映像提示領域のサイズを計算する。そして、制御部20は、ユーザ2の位置から見てユーザ2が指定した提示位置の延長線上に、計算したサイズの映像提示領域を設定する。この際、制御部20は、側面部W等の平面領域までの距離を用いて映像提示領域のサイズを計算してもよい。
すなわち、制御部20は、ユーザ2の位置から見て、ユーザ2のジェスチャで指定された空間領域の延長線上に、ユーザ2が映像コンテンツを観察可能なサイズで映像提示領域を設定すればよい。具体的なジェスチャや、ジェスチャと映像提示領域との関係については、種々の変形が可能である。
眼鏡型端末1(眼鏡部10)の具体的な形状は、図1に示した形状に限定されない。
本発明の映像表示装置は、眼鏡型の映像表示装置に限らず、ユーザによって観察される像に重ねて映像を表示する機能を有する映像表示装置であればよい。例えば、本発明の映像表示装置は、ユーザが把持して使用する形態の映像表示装置であってもよいし、ユーザが装着するヘルメット等の装着物に取り付けて使用される形態の映像表示装置であってもよい。
上述した眼鏡型端末1の制御部20の機能は、ハードウェア資源、ソフトウェア資源又はこれらの組み合わせのいずれによって実現されてもよい。制御部20の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリ等のコンピュータ読取可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。また、本発明は、コンピュータが行う映像提示方法として実施することも可能である。
Claims (9)
- ユーザにより観察される像を撮影して撮影データを生成する撮影部と、
前記観察される像に重ねて映像コンテンツを表示する表示部と、
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するジェスチャ認識部と、
前記ジェスチャ認識部が認識したジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する設定部と、
前記設定部が設定した映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる表示制御部と
を備える映像表示装置。 - 前記ジェスチャ認識部は、
前記ユーザにより行われた前記空間領域を平面的に囲むジェスチャを認識する
ことを特徴とする請求項1に記載の映像表示装置。 - 前記延長線上に存在する平面領域を検出する平面領域検出部を備え、
前記設定部は、
前記平面領域検出部が検出した前記平面領域上に、前記映像提示領域を設定する
ことを特徴とする請求項1又は請求項2に記載の映像表示装置。 - 前記表示制御部は、
前記ユーザにより前記映像提示領域が観察されなくなった場合には、当該映像提示領域における映像コンテンツの再生を中断し、当該映像提示領域が再び観察されたときに前記再生を再開する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の映像表示装置。 - 前記表示制御部は、
前記ユーザによって複数の前記映像提示領域が観察される場合に、一の前記映像提示領域の映像コンテンツを、前記ユーザにより観察されないようにするか又は他の前記映像表提示エリアの映像コンテンツよりも観察されにくくする制御を行う
ことを特徴とする請求項1から請求項4のいずれか1項に記載の映像表示装置。 - 自装置でない他の映像表示装置から前記映像提示領域の設定を示す設定情報を取得する設定情報取得部を備え、
前記設定部は、
前記設定情報取得部が取得した設定情報に基づいて前記映像提示領域を設定し、
前記表示制御部は、
前記他の映像表示装置と同じ前記映像コンテンツを表示させる
ことを特徴とする請求項1から請求項5のいずれか1項に記載の映像表示装置。 - 前記設定部が設定した映像提示領域を、前記ジェスチャ認識部が認識したジェスチャに基づいて補正する補正部を備え、
前記ジェスチャ認識部は、
前記設定した映像提示領域が前記表示部に表示されているときに、当該映像提示領域を補正するためのジェスチャを認識する
ことを特徴とする請求項1から請求項6のいずれか1項に記載の映像表示装置。 - ユーザにより観察される像を撮影して撮影データを生成する撮影部と、
前記観察される像に重ねて映像コンテンツを表示する表示部と
を備える映像表示装置の映像提示方法であって、
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するステップと、
認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定するステップと、
設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させるステップと
を有する映像提示方法。 - ユーザにより観察される像を撮影して撮影データを生成する撮影部と、
前記観察される像に重ねて映像コンテンツを表示する表示部と
を備える映像表示装置のコンピュータに、
前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するステップと、
認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定するステップと、
設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させるステップと
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013239137A JP6294054B2 (ja) | 2013-11-19 | 2013-11-19 | 映像表示装置、映像提示方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013239137A JP6294054B2 (ja) | 2013-11-19 | 2013-11-19 | 映像表示装置、映像提示方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015100032A true JP2015100032A (ja) | 2015-05-28 |
JP6294054B2 JP6294054B2 (ja) | 2018-03-14 |
Family
ID=53376401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013239137A Active JP6294054B2 (ja) | 2013-11-19 | 2013-11-19 | 映像表示装置、映像提示方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6294054B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017037525A (ja) * | 2015-08-11 | 2017-02-16 | 京セラ株式会社 | ウェアラブル装置及び出力システム |
JPWO2017191703A1 (ja) * | 2016-05-02 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置 |
US10643579B2 (en) | 2016-01-20 | 2020-05-05 | Samsung Electronics Co., Ltd. | HMD device and method for controlling same |
JP2020166741A (ja) * | 2019-03-29 | 2020-10-08 | スターティアラボ株式会社 | Ar用の画像処理装置、画像処理システム及びプログラム |
US20220130121A1 (en) * | 2019-09-20 | 2022-04-28 | Facebook Technologies, Llc | Projection Casting in Virtual Environments |
US11947111B2 (en) | 2019-09-20 | 2024-04-02 | Meta Platforms Technologies, Llc | Automatic projection type selection in an artificial reality environment |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006059136A (ja) * | 2004-08-20 | 2006-03-02 | Seiko Epson Corp | ビューア装置及びそのプログラム |
JP2012243007A (ja) * | 2011-05-18 | 2012-12-10 | Toshiba Corp | 映像表示装置及びそれを用いた映像領域選択方法 |
JP2013034237A (ja) * | 2012-10-17 | 2013-02-14 | Sony Corp | 画像処理装置、画像処理方法、画像処理システム |
US8558759B1 (en) * | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
-
2013
- 2013-11-19 JP JP2013239137A patent/JP6294054B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006059136A (ja) * | 2004-08-20 | 2006-03-02 | Seiko Epson Corp | ビューア装置及びそのプログラム |
JP2012243007A (ja) * | 2011-05-18 | 2012-12-10 | Toshiba Corp | 映像表示装置及びそれを用いた映像領域選択方法 |
US8558759B1 (en) * | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
JP2013034237A (ja) * | 2012-10-17 | 2013-02-14 | Sony Corp | 画像処理装置、画像処理方法、画像処理システム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017037525A (ja) * | 2015-08-11 | 2017-02-16 | 京セラ株式会社 | ウェアラブル装置及び出力システム |
US10643579B2 (en) | 2016-01-20 | 2020-05-05 | Samsung Electronics Co., Ltd. | HMD device and method for controlling same |
US11164546B2 (en) | 2016-01-20 | 2021-11-02 | Samsung Electronics Co., Ltd. | HMD device and method for controlling same |
JPWO2017191703A1 (ja) * | 2016-05-02 | 2018-10-04 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置 |
JP2020166741A (ja) * | 2019-03-29 | 2020-10-08 | スターティアラボ株式会社 | Ar用の画像処理装置、画像処理システム及びプログラム |
US20220130121A1 (en) * | 2019-09-20 | 2022-04-28 | Facebook Technologies, Llc | Projection Casting in Virtual Environments |
US11947111B2 (en) | 2019-09-20 | 2024-04-02 | Meta Platforms Technologies, Llc | Automatic projection type selection in an artificial reality environment |
US11991222B1 (en) | 2023-05-02 | 2024-05-21 | Meta Platforms Technologies, Llc | Persistent call control user interface element in an artificial reality environment |
Also Published As
Publication number | Publication date |
---|---|
JP6294054B2 (ja) | 2018-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11928784B2 (en) | Systems and methods for presenting perspective views of augmented reality virtual object | |
JP6294054B2 (ja) | 映像表示装置、映像提示方法及びプログラム | |
US10764585B2 (en) | Reprojecting holographic video to enhance streaming bandwidth/quality | |
JP6393367B2 (ja) | 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法 | |
US10078367B2 (en) | Stabilization plane determination based on gaze location | |
EP3195595B1 (en) | Technologies for adjusting a perspective of a captured image for display | |
JP6177872B2 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
TWI669635B (zh) | 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質 | |
JP2018511098A (ja) | 複合現実システム | |
JP6250024B2 (ja) | キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法 | |
WO2014128751A1 (ja) | ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法 | |
US11720996B2 (en) | Camera-based transparent display | |
CN112655202B (zh) | 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正 | |
CN113628322B (zh) | 图像处理、ar显示与直播方法、设备及存储介质 | |
WO2020090316A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2014128750A1 (ja) | 入出力装置、入出力プログラム、および入出力方法 | |
CN111164542A (zh) | 修改计算设备上的图像的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160805 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170821 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6294054 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |