JP2015100032A - 映像表示装置、映像提示方法及びプログラム - Google Patents

映像表示装置、映像提示方法及びプログラム Download PDF

Info

Publication number
JP2015100032A
JP2015100032A JP2013239137A JP2013239137A JP2015100032A JP 2015100032 A JP2015100032 A JP 2015100032A JP 2013239137 A JP2013239137 A JP 2013239137A JP 2013239137 A JP2013239137 A JP 2013239137A JP 2015100032 A JP2015100032 A JP 2015100032A
Authority
JP
Japan
Prior art keywords
video
unit
user
gesture
presentation area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013239137A
Other languages
English (en)
Other versions
JP6294054B2 (ja
Inventor
真治 木村
Shinji Kimura
真治 木村
美木子 中西
Mikiko Nakanishi
美木子 中西
堀越 力
Tsutomu Horikoshi
力 堀越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013239137A priority Critical patent/JP6294054B2/ja
Publication of JP2015100032A publication Critical patent/JP2015100032A/ja
Application granted granted Critical
Publication of JP6294054B2 publication Critical patent/JP6294054B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザが観察する実環境に当該ユーザが映像コンテンツを配置できるようにする。
【解決手段】眼鏡型端末は、ユーザにより観察される像を撮影して撮影データを生成する撮影部と、観察される像に重ねて映像コンテンツを表示する表示部12とを備える。眼鏡型端末は、撮影部が生成した撮影データに基づいて、ユーザにより行われた空間領域を平面的に囲むジェスチャを認識する。眼鏡型端末は、右手の親指FR1と人差し指FR2とで「L」字を作り、左手の親指FL1と人差し指FL2とで「L」字を作り、それらを組み合わせて、平面状の略矩形の空間領域を作るジェスチャを認識する。眼鏡型端末は、認識したジェスチャに基づいて、ユーザの位置から見てジェスチャ領域Tの延長線上に映像提示領域を設定する。眼鏡型端末は、映像提示領域においてユーザにより映像コンテンツが観察されるように、映像コンテンツを表示部12に表示する。
【選択図】図8

Description

本発明は、実環境に映像コンテンツを重畳してユーザに提示する技術に関する。
拡張現実(AR;Augmented Reality)を利用して画像を提示する技術が知られている。特許文献1及び非特許文献1には、実環境中にマーカを設置する等の事前処理を行うことなく、広告等の画像を提示する技術が開示されている。特許文献1は、撮影画像から背景画像内の面を有する領域を推定し、推定した領域内の各画素の画素値が単色又は単色のグラデーションを示し、且つ、所定サイズ以上の領域を、提示画像を重畳する領域として選択することを開示している。非特許文献1は、市街地を撮影した画像である市街地画像から広告提示の対象である平面群を検出し、壁面の高さを計算した結果に基づいて提示画像の表示に適する領域を選択して、市街地画像にCG画像を重畳することを開示している。
特開2013−109469号公報
内山寛之,出口大輔,井手一郎,村瀬洋,川西隆仁,柏野邦夫、"市街地構造物への拡張現実型広告提示"、[online]、2011年、ViEWビジョン技術の実利用ワークショップ講演論文集、[平成25年10月25日検索]、インターネット〈URL:http://www.murase.nuie.nagoya-u.ac.jp/publications/887-pdf.pdf〉
特許文献1及び非特許文献1に記載された技術では、実環境を撮影した画像の特徴に応じて当該実環境に重畳される画像の表示領域が定まる。
これに対し、本発明の目的は、ユーザが観察する実環境に当該ユーザが映像コンテンツを配置できるようにすることである。
上述した課題を解決するため、本発明の映像表示装置は、ユーザにより観察される像を撮影して撮影データを生成する撮影部と、前記観察される像に重ねて映像コンテンツを表示する表示部と、前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するジェスチャ認識部と、前記ジェスチャ認識部が認識したジェスチャに基づいて、前記ユーザの位置から見て前記空間領域の延長線上に映像提示領域を設定する設定部と、前記設定部が設定した映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる表示制御部とを備える。
本発明の映像表示装置において、前記ジェスチャ認識部は、前記ユーザにより行われた前記空間領域を平面的に囲むジェスチャを認識してもよい。
本発明の映像表示装置において、前記延長線上に存在する平面領域を検出する平面領域検出部を備え、前記設定部は、前記平面領域検出部が検出した前記平面領域上に、前記映像提示領域を設定してもよい。
本発明の映像表示装置において、前記表示制御部は、前記ユーザにより前記映像提示領域が観察されなくなった場合には、当該映像提示領域における映像コンテンツの再生を中断し、当該映像提示領域が再び観察されたときに前記再生を再開してもよい。
本発明の映像表示装置において、前記表示制御部は、前記ユーザによって複数の前記映像提示領域が観察される場合に、一の前記映像提示領域の映像コンテンツを、前記ユーザにより観察されないようにするか又は他の前記映像表提示エリアの映像コンテンツよりも観察されにくくする制御を行ってもよい。
本発明の映像表示装置において、自装置でない他の映像表示装置から前記映像提示領域の設定を示す設定情報を取得する設定情報取得部を備え、前記設定部は、前記設定情報取得部が取得した設定情報に基づいて前記映像提示領域を設定し、前記表示制御部は、前記他の映像表示装置と同じ前記映像コンテンツを表示させてもよい。
本発明の映像表示装置において、前記設定部が設定した映像提示領域を、前記ジェスチャ認識部が認識したジェスチャに基づいて補正する補正部を備え、前記ジェスチャ認識部は、前記設定した映像提示領域が前記表示部に表示されているときに、当該映像提示領域を補正するためのジェスチャを認識してもよい。
本発明の映像提示方法は、ユーザにより観察される像を撮影して撮影データを生成する撮影部と、前記観察される像に重ねて映像コンテンツを表示する表示部とを備える映像表示装置の映像提示方法であって、前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するステップと、認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記空間領域の延長線上に映像提示領域を設定するステップと、設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させるステップとを有する。
本発明のプログラムは、ユーザにより観察される像を撮影して撮影データを生成する撮影部と、前記観察される像に重ねて映像コンテンツを表示する表示部とを備える映像表示装置のコンピュータに、前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するステップと、認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記空間領域の延長線上に映像提示領域を設定するステップと、設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させるステップとを実行させるためのプログラムである。
本発明によれば、ユーザが観察する実環境に当該ユーザが映像コンテンツを配置できる。
本発明の一実施形態に係る眼鏡型端末の外観構成を示す図。 同眼鏡型端末が有する映像提示機能の概要の説明図。 同眼鏡型端末のハードウェア構成を示すブロック図。 同眼鏡型端末の設定テーブルの構成例を示す図。 同眼鏡型端末の制御部の機能構成を示す機能ブロック図。 同眼鏡型端末のユーザが行うジェスチャの説明図。 同眼鏡型端末が行う処理の流れを示すフローチャート。 同眼鏡型端末が認識するユーザのジェスチャの説明図。 同眼鏡型端末における映像提示領域の設定方法の説明図。 同眼鏡型端末における映像提示領域の他の設定方法の説明図。 同眼鏡型端末が行う処理の流れを示すフローチャート。 同眼鏡型端末における映像コンテンツの表示例を示す図。 変形例3の眼鏡型端末が行う処理の流れを示すフローチャート。 変形例4の眼鏡型端末が行う処理の流れを示すフローチャート。
[実施形態]
以下、図面を参照して本発明の実施形態を説明する。
図1は、本発明の一実施形態の眼鏡型端末1の外観構成を示す図である。図1には、ユーザ2に装着されているときの眼鏡型端末1が示されている。眼鏡型端末1は、ユーザ2の頭部に装着された状態で使用される映像表示装置である。眼鏡型端末1は、ユーザ2の頭部を挟むようにして装着される。このとき、眼鏡型端末1は、アーム部と呼ばれる部品がユーザの両耳2aに接する。眼鏡型端末1を装着したユーザ2は、眼鏡部10のレンズを通して像を観察する。以下に説明するユーザ2は、特に断りのない限り、眼鏡型端末1を装着した状態であるものとする。
眼鏡型端末1の眼鏡部10は、電気的な構成として、撮影部11と、表示部12と、距離センサ13と、位置方向センサ14とを備える。撮影部11は、CCD(Charge Coupled Device)等の撮像素子を含み、動画像及び静止画像の撮影が可能である。撮影部11は、眼鏡部10を通してユーザに観察される像を撮影する。撮影部11は、撮影する像の位置(範囲)が、眼鏡部10を通してユーザ2により観察される像の位置(範囲)と一致するとみなせる位置に配置される。撮影部11は、動画像又は静止画像を撮影すると、撮影した画像(すなわち撮影画像)を表す撮影データを生成する。
表示部12は、光学シースルー型のヘッドマウントディスプレイ(HMD;Head Mounted Display)を含み、眼鏡部10を通してユーザに観察される像に重ねて映像コンテンツを表示する。ここでは、表示部12は、ユーザの左目で映像が視認されるように、眼鏡部10の左眼側のレンズに重ねて映像コンテンツを表示する。
距離センサ13は、例えば光学式又は超音波式の距離センサであり、ユーザ2から見て前方(例えばユーザ2の視線方向)にある目標物までの距離を検出する距離検出手段である。
位置方向センサ14は、例えば3軸加速度、3軸角速度及び3軸地磁気を含む9軸センサであり、眼鏡型端末1の位置及び眼鏡型端末1が向く方向を検出する位置方向検出手段である。
図2は、眼鏡型端末1が有する映像提示機能の概要を説明する図である。
眼鏡型端末1は、ユーザ2が観察する実環境中に、映像コンテンツを提示するための仮想的な領域(以下「映像提示領域」という。)を設定(定義)する。そして、眼鏡型端末1は、設定した映像提示領域においてユーザ2により映像コンテンツが観察されるように、映像コンテンツを表示部12に表示する。映像提示領域に提示される映像コンテンツは、眼鏡型端末1を装着したユーザ2だけが観察することができる。図2には、ユーザ2が居る室空間100に映像提示領域SC1〜SC4が設定された例が示されている。室空間100は、天井C、側壁部W及び床Fに囲まれて形成されている。例えば、ユーザ2は、側壁部Wの方向に視線を向けると、映像提示領域SC1、SC2又はSC3の映像コンテンツを観察することができ、天井Cの方向に視線を向けると、映像提示領域SC4の映像コンテンツを観察することができる。これ以外にも、床Fや室空間100に設置された机やその他の家具に映像提示領域が設定された場合に、ユーザ2は、映像提示領域に視線を向けることで映像コンテンツを観察することができる。図2に示す映像提示領域SC1〜SC4から分かるように、本実施形態の映像提示領域は、矩形(正方形を含む。)の領域である。
図3は、眼鏡型端末1のハードウェア構成を示すブロック図である。図3に示すようい、眼鏡型端末1は、眼鏡部10と、制御部20と、記憶部30と、通信部40とを備える。
眼鏡部10の撮影部11は、撮影して撮影データを生成すると、生成した撮影データを制御部20へ供給する。表示部12は、制御部20が行った表示制御に従って、映像コンテンツを表示する。距離センサ13は、例えば、制御部20が映像提示領域を設定する際に目標物までの距離を検出し、検出結果を制御部20へ供給する。位置方向センサ14は、例えば眼鏡型端末1の動作中において、眼鏡型端末1の位置及び眼鏡型端末1が向く方向を繰り返し検出して、検出結果を制御部20へ供給する。
制御部20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)を有するマイクロコンピュータを備える。CPUは、ROM又は記憶部30に記憶されたプログラムを、ワークエリアとしてのRAMに読み出して実行することにより、眼鏡型端末1の各部を制御する。記憶部30は、例えばEEPROM(Electrically Erasable Programmable ROM)を有する記憶手段であり、制御部20により実行されるアプリケーションプログラム及び設定テーブル31を記憶する。記憶部30が記憶するアプリケーションプログラムは、例えば、動画コンテンツ又は静止画コンテンツを再生するためのアプリケーションプログラムやブラウザ、メーラである。これらのアプリケーションプログラムは、映像を表示するためのアプリケーションプログラムである。通信部40は、外部装置と通信(典型的には無線通信)するためのインタフェースである。
図4は、設定テーブル31の構成例を示す図である。設定テーブル31は、設定された映像提示領域に関する情報を格納したデータテーブルである。
図4に示すように、設定テーブル31では、「レコード番号」フィールドと、「機能」フィールドと、「設定情報」フィールドとが関連付けられている。「レコード番号」フィールドには、設定テーブル31におけるレコードを識別する番号が格納される。図4に示すレコード番号「1」〜「4」の各レコードには、図2で説明した映像提示領域SC1〜SC4のうち、符号の末尾の値が同じ映像提示領域に関する情報が格納される。「機能」フィールドには、各映像提示領域に割り当てられた機能を識別する情報が格納される。本実施形態では、「機能」フィールドには、機能を利用するために実行すべきアプリケーションプログラムを識別する識別子(以下「アプリケーション識別子」という。)が格納される。各映像提示領域に割り当てられた機能を分かりやすくするために、図4の「機能」フィールドには、機能を説明する文字列が示されている。
「設定情報」フィールドには、映像提示領域の設定を示す設定情報が格納される。「設定情報」フィールドは、詳細には、「方向情報」フィールドと、「サイズ情報」フィールドと、「タグ情報」フィールドとを含む。「方向情報」フィールドには、映像提示領域が設定されたときに眼鏡型端末1が向いていた方向を示す方向情報が格納される。「サイズ情報」フィールドには、映像提示領域の縦横のサイズを示すサイズ情報が格納される。「タグ情報」フィールドには、映像提示領域にタグとして関連付けられたタグ情報が格納される。タグ情報は、具体的には、映像提示領域の撮影画像(ここでは静止画像)を表す撮影データである。
図5は、眼鏡型端末1の制御部20の機能構成を示す機能ブロック図である。図5に示すように、制御部20は、撮影制御部21と、ジェスチャ認識部22と、設定部23と、表示制御部24とに相当する機能を実現する。図5に示す設定情報取得部25及び補正部26は、後述する変形例に関わる機能であり、本実施形態には関係ないものとする。
撮影制御部21は、撮影部11の撮影に関する制御を司る。撮影制御部21は、例えば、映像提示領域を設定する際に、撮影部11に動画像を撮影させる。また、撮影制御部21は、設定部23が設定した映像提示領域の静止画像を撮影部11に撮影させて、タグ情報を生成する。
ジェスチャ認識部22は、撮影部11が生成した撮影データに基づいて、ユーザ2により行われた空間領域を平面的に囲むジェスチャを認識する。図6は、ユーザ2が行うジェスチャを説明する図である。図6に示すように、ユーザ2は、右手の親指FR1と人差し指FR2とで「L」字を作り、左手の親指FL1と人差し指FL2とで「L」字を作り、それらを組み合わせて、平面状の略矩形の空間領域を作る。ジェスチャ認識部22は、図6で説明したユーザ2のジェスチャを認識して、このジェスチャで指定された空間領域を検出する。ジェスチャ認識部22が検出する空間領域のことを、以下では「ジェスチャ領域」と称する。
設定部23は、ジェスチャ認識部22が認識したジェスチャに基づいて、ユーザ2の位置から見てジェスチャ領域の延長線上に映像提示領域を設定する。ユーザ2の位置は、例えばユーザ2の視点の位置であるが、特に断りのない限り、撮影部11の撮影レンズの位置とみなす。設定部23は、映像提示領域を設定したとき、映像提示領域の設定を示す設定情報を、当該映像提示領域に割り当てた機能と関連付けて設定テーブル31に格納する。更に、設定部23は、位置方向センサ14の検出結果に基づいて特定した方向情報を、設定テーブル31に格納する。
また、設定部23は、平面領域検出部23aを含む。平面領域検出部23aは、距離センサ13の検出結果又は撮影部11が生成した撮影データに基づいて、ユーザ2の前方に存在する(現存する)平面領域を検出する。この平面領域は、例えば、室空間100を構成する天井C、側壁部W又は床Fである。設定部23は、平面領域検出部23aで検出された平面領域上に、映像提示領域を設定する。
表示制御部24は、設定テーブル31に基づいて、設定部23が設定した映像提示領域においてユーザ2により映像コンテンツが観察されるように、映像コンテンツを表示部12に表示させる。表示制御部24は、映像提示領域に映像コンテンツが映し出されている(投影されている)ような感覚(例えば遠近感)をユーザ2に与えるように、映像コンテンツを表示部12に表示させる。
図7は、眼鏡型端末1が行う映像提示領域の設定に関する処理の流れを示すフローチャートある。
まず、眼鏡型端末1の制御部20は、アプリケーションプログラムを実行する(ステップS1)。ここでは、制御部20は、表示部12に映像コンテンツを表示するためのアプリケーションプログラムを、ユーザ2の指示に従って実行する。
次に、制御部20は、眼鏡型端末1の周囲の三次元空間を認識する(ステップS2)。ユーザ2の前方における三次元空間を認識するために、制御部20は、例えば撮影部11が生成した動画像を示す撮影データに基づいてSfM(Structure from Motion)による三次元点群を取得する。具体的には、制御部20は、撮影データが表す撮影画像の中の特徴点を、例えば公知のHarrisオペレータに従って検出する。次に、制御部20は、時間軸上で連続する複数フレームの撮影データに基づいて、例えばKLT(Kanade Lucas Tomasi)トラッカに従って特徴点を追跡する。そして、制御部20は、追跡した特徴点から、SfMにより特徴点の三次元位置を推定する。
別の方法として、制御部20は、例えば、距離センサ13により検出された距離の検出結果に基づいて三次元空間を認識してもよいし、ステレオカメラを用いた方法によって三次元空間を認識してもよい。
次に、制御部20は、ユーザ2により行われたジェスチャを認識する(ステップS3)。制御部20は、例えば一のフレームの撮影データに基づいて、或る時点(瞬間)にユーザ2により行われた、図6で説明したジェスチャを認識する。ユーザ2は、図8(a)に示すように、自身の眼前であって眼鏡部10のレンズの向こう側で、このジェスチャを行う。ユーザ2は、図8(a)の斜線部で示した領域を作るジェスチャを行うことで、映像提示領域の位置及びサイズを指定する。
ステップS3の処理では、制御部20は、公知のジェスチャの認識技術を用いて、ユーザ2が行ったジェスチャを認識してよい。一例を挙げると、SixSenseと呼ばれるジェスチャの認識技術がある(SixSenseについては、http://www.pranavmistry.com/projects/sixthsense/又はhttp://kissaten-no-heya.blogspot.jp/2012/08/tedmitpattie-maessixth-sense.htmlを参照。)。このジェスチャの認識技術では、ユーザが、両手の親指及び人差し指の各々にマーカを取り付けて、図6で説明したジェスチャを行う。ユーザが持っているカメラは、撮影画像から各マーカを検出することによって、ユーザが行ったジェスチャを認識する。これとは別に、Ubi−Cameraを用いたジェスチャの認識技術がある(Ubi−Cameraについては、http://japanese.engadget.com/2012/03/30/ubi-camera/を参照。)。このジェスチャの認識技術では、ユーザはいずれか1本の指(典型的には右手の人差し指)に小型のカメラを装着して、図6で説明したジェスチャを行う。ユーザの指に装着されたカメラは、別の指(典型的には左手の親指)によって自機の感圧センサが押されたことを検出すると、ユーザが行ったジェスチャを認識する。この技術を眼鏡型端末1に適用した場合、制御部20は、例えば、カメラから撮影データ又は感圧センサが押されたことを示す情報を取得することによって、ジェスチャを認識する。
なお、制御部20は、更に別の方法でジェスチャを認識してもよい。制御部20は、例えば、撮影データが表す撮影画像の中から肌色又は肌色に近い色の画像領域を検出し、画像解析を行うことによってジェスチャを認識してもよい。
図7の説明に戻る。
制御部20は、眼鏡型端末1が向く方向、及び、ジェスチャ領域のサイズを認識する(ステップS4)。まず、制御部20は、ジェスチャを認識したときに位置方向センサ14が検出した方向に基づいて、眼鏡型端末1が向く方向を認識する。また、制御部20は、図8(b)に示すように、右手の親指FR1と左手の人差し指FL2とが交差する位置にある点P1と、右手の人差し指FR2と左手の親指FL1とが交差する位置にある点P2とを認識する。そして、制御部20は、点P1と点P2とを結ぶ線分を対角線とする矩形(図8(b)の斜線部)を、ジェスチャ領域Tとして検出する。ここでは、制御部20は、点P1と点P2とを結ぶ線分の長さ「A」を、ジェスチャ領域Tのサイズとして認識する。
別の方法として、制御部20は、例えば、図8(a)に示した斜線部の領域(図形)の外接矩形又は内接矩形を特定して、ジェスチャ領域Tを検出してもよい。
次に、制御部20は、ユーザ2の前方にある平面領域を検出する(ステップS5)。制御部20は、例えば、ステップS2の処理で認識したユーザ2の前方における三次元空間の認識結果(特徴点群)に基づいて平面領域を検出する(非特許文献1の記載参照)。別の方法として、制御部20は、距離センサ13による距離の検出結果に基づいて、平面領域を検出してもよい。例えば、制御部20は、ユーザ2の前方にある目標物までの距離が閾値以下である場合に、その距離だけ前方に離れた位置に平面領域を検出する。
次に、制御部20は、平面領域を検出したかどうかを判断する(ステップS6)。制御部20は、ステップS5の処理で平面領域を検出しなかったと判断した場合には(ステップS6;NO)、ステップS2の処理に戻る。他方、制御部20は、ステップS5の処理で平面領域を検出したと判断した場合には(ステップS6;YES)、検出した平面領域上に映像提示領域を設定する(ステップS7)。
図9は、映像提示領域の設定方法を説明する図である。図9(a)には、側壁部Wに映像提示領域SCが設定される場合の撮影部11、ジェスチャ領域T及び側壁部Wの位置関係を説明する図が示されている。図9(b)には、図9(a)の矢印I方向、すなわち、水平方向に平面視したときの撮影部11、ジェスチャ領域T及び側壁部Wの位置関係が示されている。
以下に説明する映像提示領域の設定においては、以下の3つの事項を仮定する。
(仮定1)ユーザ2の位置(つまり視点の位置)と、撮影部11の位置(レンズの位置)とが同一。
(仮定2)ユーザ2の位置(つまり視点の位置)と、ジェスチャ領域の重心とが同一の高さ。
(仮定3)側壁部Wとジェスチャ領域の平面方向とが平行。
図9(a)に示すように、ジェスチャ領域Tの横方向(ここでは水平方向)の長さを「Ax」とし、縦方向(ここでは鉛直方向)の長さを「Ay」とする。また、図9(b)に示すように、撮影部11の位置とジェスチャ領域Tの重心との間の長さを「B」とする。長さBは、図示せぬ距離センサを用いて実測されてもよいし、見込みに基づいて予め決められていてもよい。ジェスチャ領域Tの重心と側壁部Wとの間の長さを「C」とする。長さCは、距離センサ13の検出結果が使用される。
制御部20は、ユーザ2の位置から見てジェスチャ領域Tの延長線上に、映像提示領域SCを設定する。具体的には、制御部20は、撮影部11の位置と点P1とを結ぶ線分の延長線上で、側壁部Wと交差する点に点Pe1を設定し、撮影部11の位置と点P2とを結ぶ線分の延長線上で、側壁部Wと交差する点に点Pe2を設定する。そして、制御部20は、点Pe1と点Pe2とを結ぶ線分を対角線とする矩形の領域を、映像提示領域SCとして設定する。ここで、映像提示領域SCの横方向の長さを「Dx」とし、縦方向の長さを「Dy」とし、点Pe1と点Pe2とを結ぶ線分の長さを「D」とした場合、下記式(1)の関係を満たすように、制御部20は映像提示領域SCを設定する。
Dx=Ax*C/B、Dy=Ay*C/B、D=A*C/B ・・・(1)
図9で説明した映像提示領域SCの設定方法によると、ユーザ2の位置とジェスチャ領域Tとで構成される四角錘と、ユーザ2の位置と映像提示領域SCとで構成される四角錘とが相似となる。また、式(1)から分かるように、制御部20は、長さBと長さCとの比に応じた倍率で、ジェスチャ領域Tを縦横に等倍することによって、映像提示領域SCのサイズを決定していることになる。
ところで、図9で説明した映像提示領域の設定方法では、(仮定1)を設けることにより、撮影部11の位置とユーザ2の視点の位置とのずれを無視していた。しかし、撮影部11の位置とユーザ2の視点の位置とは厳密には一致しない。そこで、制御部20は、ユーザ2が眼鏡型端末1を装着した際の撮影部11の位置と、ユーザ2の視点の位置との相対的な位置関係から得られるパラメータ(例えば、撮影部11の外部パラメータ)に基づいて、撮影部11の撮影画像を変換する処理を、撮影データに施すことが望ましい。この場合、制御部20は、撮影部11の撮影画像が、ユーザ2の視点で観察される像と同じとなるように変換処理を施すとよい。
また、(仮定2)及び(仮定3)に関し、撮影部11の位置とジェスチャ領域Tの重心とが同一の高さになく、撮影部11が上下に傾く場合がある。この場合、映像提示領域が設定される平面領域(側壁部W)と、ジェスチャ領域Tの平面方向とが非平行となる。この場合、(仮定2)及び(仮定3)が成り立たない。そこで、図10に示すように、撮影部11が水平方向から角度θで下向きに傾いた場合、制御部20は、下記式(2)の関係を満たすように映像提示領域SC'を設定する。
Dx'=Dx、Dy'=Dy*cosθ ・・・(2)
式(2)において、映像提示領域SC'の横方向の長さを「Dx'」とし、縦方向の長さを「Dy'」とする。θの値は、例えば、眼鏡型端末1に設けられ、撮影部11又は眼鏡型端末1の姿勢を検出するセンサを用いて算出される。撮影部11又は眼鏡型端末1の姿勢を検出するセンサは、例えば、加速度センサやジャイロセンサ等である。
なお、撮影部11が上向きに傾いた場合も、制御部20は、図10で説明した方法で映像提示領域SC'を設定してよい。
ところで、表示部12の視野角は、一般に人間の視界や撮影部11の画角に比べて小さい。このため、図8(b)で説明したジェスチャ領域Tと、ユーザ2の視線とを結ぶ四角錐で要求される視野角(この場合、水平視野角=2arctan(Ax/2C)、垂直視野角=2arctan(Ay/2C))が、表示部12の視野角を超える場合がある。この場合、制御部20は、表示部12の視野角を上限として映像提示領域を設定してもよい。この設定方法とした場合、ユーザ2からは、要求した大きさよりも小さい画面で映像コンテンツが観察されるが、画面全体の映像コンテンツを一度に観察することができる。又は、制御部20は、映像提示領域をユーザの要求どおりに表示部12の視野角以上に設定し、表示部12に表示する映像コンテンツを、画面全体ではなく、画面の一部としてもよい。この設定方法とした場合、ユーザ2からは、要求した大きさとおりで映像コンテンツが観察され、固定した場所からでは画面の一部の映像コンテンツしか観察されない。ユーザ2は、画面全体の映像コンテンツを観察するためには、自身が移動して視界に入る映像提示領域の範囲を移動させることとなる。
図7に戻り、次に、制御部20は、設定した映像提示領域を撮影部11に撮影させる。ここでは、制御部20は、ユーザ2の手等が映り込まないように、側壁部Wにおける映像提示領域SCに相当する部分を、撮影部11に撮影させる。そして、制御部20は、撮影部11により生成された静止画像を表す撮影データをタグ情報として、設定テーブル31のステップS7の処理と同じレコードに格納する(ステップS8)。
そして、制御部20は、ステップS4の処理で位置方向センサ14が検出した方向を示す方向情報を、設定テーブル31のステップS7,S8の処理と同じレコードに格納する(ステップS9)。
以上が、映像提示領域を設定するときの眼鏡型端末1の動作の説明である。
図11は、眼鏡型端末1が映像コンテンツをユーザ2に提示するときに行う処理の流れを示すフローチャートある。以下、図2で説明した映像提示領域SC1の映像コンテンツを提示するときの眼鏡型端末1の動作を説明する。以下の動作中において、制御部20は、撮影部11に動画像を撮影させている。
制御部20は、ユーザ2が映像提示領域を観察中か否かを判断する(ステップS11)。制御部20は、撮影部11が生成した撮影データが表す1フレームの撮影画像と、設定テーブル31に格納された各タグ情報が表す撮影画像とを、例えば公知のパターンマッチングの技術を用いて照合する。そして、制御部20は、両者の同一性に基づいて(例えば一致度)、どのタグ情報に対応する映像提示領域が、ユーザ2により観察されているかを判断する。
ステップS11の処理で、制御部20は、設定テーブル31の全てのレコードのタグ情報を検索対象としてもよいが、位置方向センサ14の検出結果に基づいて、検索対象とするレコード(タグ情報)を絞り込んでもよい。例えば、制御部20は、眼鏡型端末1が現在向いている方向を基準として所定の範囲内を示す方向情報を含むレコードを、検索対象とする。この検索対象の絞込みにより、ステップS1の処理に関する制御部20の処理量が減る。
制御部20は、ユーザ2が映像提示領域を観察中と判断すると(ステップS11;YES)、観察中の映像提示領域における映像コンテンツの表示位置を特定する(ステップS12)。この表示位置は、表示部12における位置である。制御部20は、設定テーブル31に格納されたタグ情報が示す画像とこのタグ情報に対応する映像提示領域との位置関係と、撮影部11の現在の撮影画像と当該映像提示領域との位置関係とが同じとなる(維持する)ように、映像コンテンツの表示位置を特定する。すなわち、制御部20は、映像提示領域を観察するユーザ2に対し、この映像提示領域が側壁部W等の平面領域に固定されているような感覚を与えるような位置関係に維持する。
そして、制御部20は、映像提示領域においてユーザ2により映像コンテンツが観察されるように、ステップS12の処理で特定した表示部12の表示位置に、映像コンテンツを表示させる(ステップS13)。制御部20は、設定テーブル31に基づいて観察中の映像提示領域に割り当てられた機能を特定し、特定した機能を利用するためのアプリケーションプログラムに基づいて、映像コンテンツを表示させる。制御部20は、映像コンテンツの表示に使用するアプリケーションプログラムを予め実行していてもよいし、ステップS13の処理で実行してもよい。図12(a)に示すように、ユーザ2が映像提示領域SC1の全体を観察している場合、ユーザ2は、映像提示領域SC1に割り当てられた機能の映像コンテンツの全体を、映像提示領域SC1(側壁部W)に表示されているような感覚で観察することができる。
次に、制御部20は、ユーザ2が映像提示領域を観察中か否かを判断する(ステップS14)。制御部20は、ユーザ2が映像提示領域を観察中と判断すると(ステップS14;YES)、ステップS12の処理に戻る。映像提示領域の観察中においては、制御部20は、ステップS12〜S14の処理ステップを繰り返し実行する。
ここで、ユーザ2が視線の方向を変えた場合の眼鏡型端末1の動作を説明する。
図12(a)で説明した方向を見ていたユーザ2が、例えば右上方向に視線を変更したとする。この場合、制御部20は、映像提示領域SC1の映像コンテンツの表示位置を変更する。図12(b)に示すように、映像提示領域SC1の右上部分のみをユーザ2が観察している場合には、制御部20は、その観察部分に対応する部分の映像コンテンツだけが観察されるように、映像コンテンツの表示位置を変更する。図12(b)に示す方向を見ていたユーザ2が、例えば更に視線を変更して、映像提示領域SC1を全く観察しなかったとする。この場合、制御部20は、図12(c)に示すように映像提示領域SC1の映像コンテンツを表示させない。このとき、ユーザ2は、実空間のみを観察している状態にある。
その後、ステップS14の処理で、制御部20は、映像提示領域の観察中でないと判断すると(ステップS14;NO)、映像コンテンツの表示を終了する(ステップS15)。
以上説明した実施形態の眼鏡型端末1を装着したユーザ2は、眼前で行ったジェスチャにより、ユーザ2が観察する実環境に映像を配置させることができる。このため、ユーザ2は、直感的で、且つ簡単なジェスチャによって仮想的な映像提示領域を配置し、更に、その映像提示領域にあるディスプレイで映像コンテンツが表示されているような感覚で、この映像コンテンツを観察することができる。
また、眼鏡型端末1は、図2で説明したように複数の映像提示領域を同時に設定して、その各々で異なる映像コンテンツを提示しうる。このため、ユーザ2は、マルチタスクで実行される複数の機能の映像コンテンツを、視線の方向や自身の位置を変えながら観察することができる。
また、汎用のHMDでは、ユーザが装着した状態では眼前に常に映像が表示されるため、例えば、ユーザ2にとっては眼精疲労の原因となることがある。また、ユーザ2が一時的に映像を視聴しないようにする場合には、ユーザは映像の再生を中断させるか、又は、装着していたHMDを一旦取り外す必要がある。これに対し、眼鏡型端末1によれば、ユーザ2は映像提示領域を設定した場所を観察しなければ、映像コンテンツが観察されない(図12(c)参照)。このため、ユーザ2にとっての使用負担の軽減の効果も期待できる。
[変形例]
本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
制御部20は、動画コンテンツを表示する場合には、ユーザ2が観察中の期間にのみ、動画コンテンツを再生してもよい。すなわち、眼鏡型端末1の制御部20は、動画コンテンツの再生中に、ユーザ2により映像提示領域の全体が観察されなくなった場合には、その映像提示領域において観察される動画コンテンツの再生を中断(一時停止)する。その後、制御部20は、ユーザ2により映像提示領域の少なくとも一部でも再び観察されたときに、中断していた動画コンテンツの再生を再開する。別の方法として、制御部20は、ユーザ2により映像提示領域の少なくとも一部が観察されなくなった場合には、動画コンテンツの再生を中断し、映像提示領域の全体が再び観察されたときに、動画コンテンツの再生を再開してもよい。この変形例の眼鏡型端末1によれば、ユーザ2が動画コンテンツを部分的に見逃す可能性を低くすることができる。
この変形例において、制御部20は、動画コンテンツ以外の映像コンテンツについて、ユーザ2が観察中の期間にのみ再生してもよい。例えば、制御部20は、指定されたアプリケーションプログラムに関連付けられた映像提示領域を、ユーザ2が観察していない期間においては、そのアプリケーションプログラムを利用した処理(作業)を中断させ、また、映像コンテンツの表示を中断させる。ユーザ2が映像提示領域を観察中でないときに処理を中断するか否かについては、アプリケーションプログラム毎に予め設定されていてもよいし、ユーザ2が逐次明示的に指定してもよい。ユーザ2が指定する場合の指定方法は、例えば、手や指を用いたジェスチャを用いる方法や音声入力を用いる方法等がある。
(変形例2)
制御部20は、ユーザ2によって複数の映像提示領域が同時に観察される場合には、いずれか1つの映像提示領域で映像コンテンツが観察されるように表示させ、他の映像提示領域では映像コンテンツを表示させないようにしてもよい。制御部20は、どのような条件に基づいて映像コンテンツを表示させる映像提示領域を決定してもよいが、例えば、ユーザ2によって観察される複数の映像提示領域のうち、最も面積が大きい映像提示領域、撮影部11の撮影画像において最も中心に近い位置に配置されている映像提示領域、又は、優先度が最も高い機能の映像提示領域で映像コンテンツが観察されるようにする。
また、制御部20は、ユーザ2によって複数の映像提示領域が同時に観察される場合に、いずれか1つの映像提示領域で映像コンテンツを表示させ、他の映像提示領域の映像コンテンツをユーザ2により観察されにくくする制御を行ってもよい。例えば、制御部20は、ユーザ2により観察されにくくする映像コンテンツの透過度を高くする映像処理を施す。これ以外にも、制御部20は、ユーザ2により観察されにくくする映像コンテンツについては、解像度を低くしたり、映像提示領域のサイズを一時的に小さくしたり、色を変化させたりする映像処理を施してもよい。
この変形例の眼鏡型端末1によれば、ユーザ2が複数の映像コンテンツが同時に観察したことを原因して、提示中の映像コンテンツへの注意力が低下することを抑制することができる。
(変形例3)
眼鏡型端末1は、自装置でない他の映像表示装置(ここでは他の眼鏡型端末。以下「他装置」という。)と映像提示領域、及び、映像コンテンツを共有する機能を有していてもよい。他の眼鏡型端末は、眼鏡型端末1と同じ構成を有する。
この変形例の眼鏡型端末1の制御部20は、図5で説明した機能構成に加え、更に、設定情報取得部25に相当する機能を実現する。設定情報取得部25は、他装置で設定された映像提示領域の設定を示す設定情報を、通信部40を介して取得する。設定情報取得部25が取得する設定情報は、図4で説明した「設定情報」フィールドに格納される情報と同じでよい。設定情報取得部25は、取得した設定情報とアプリケーション識別子とを対応付けて、設定テーブル31の同じレコードに格納する。
表示制御部24は、設定情報取得部25が取得した設定情報に基づいて映像提示領域を設定し、この映像提示領域に他装置と同じ映像コンテンツを表示させる。
図13は、眼鏡型端末1が他装置から取得した設定情報に基づいて映像提示領域を設定するときに行う処理の流れを示すフローチャートある。
制御部20は、他装置から設定情報とアプリケーション識別子とを取得して、それらを対応付けて設定テーブル31に格納する(ステップS21)。次に、制御部20は、ステップS21の処理で取得した設定情報に基づいて映像提示領域を設定し、この映像提示領域に他装置と同じ映像コンテンツを表示させる(ステップS22)。制御部20は、他装置と同じ映像コンテンツが記憶部30に記憶されている場合には、記憶部30から読み出した映像コンテンツを表示部12に表示させる。また、制御部20は、他装置等から通信部40を介して取得した映像コンテンツを表示部12に表示させてもよい。以降、制御部20は、上述した実施形態と同じ手順で、ステップS11〜S15の処理ステップを実行する。
この変形例において、眼鏡型端末1と他装置とで、ユーザにより観察される映像コンテンツが同期していることが望ましい。そこで、動画コンテンツを再生する場合には、制御部20は、他装置と同期するように動画コンテンツを再生してもよい。同期再生を実現するために、表示制御部24は、例えば、他装置との間で共有する同期信号を通信部40を介して取得し、取得した同期信号に基づいて映像コンテンツを再生する。この眼鏡型端末1によれば、複数のユーザで同時に同じ映像を観察しているような使用感を与えることができる。
(変形例4)
制御部20は、設定した映像提示領域を、ユーザ2が行ったジェスチャに基づいて補正(例えば微調整)する機能を有していてもよい。
この変形例の眼鏡型端末1の制御部20は、図5で説明した機能構成に加え、更に、補正部26に相当する機能を実現する。補正部26は、設定部23が設定した映像提示領域を、ジェスチャ認識部22が認識したジェスチャに基づいて補正する。映像提示領域を補正する場合には、補正部26は、設定テーブル31に格納された設定情報を書き替える。ジェスチャ認識部22は、設定部23が設定した映像提示領域が表示部12に表示されているときに、映像提示領域を補正するためのジェスチャを認識する。
図14は、眼鏡型端末1が映像提示領域を補正するときに行う処理の流れを示すフローチャートある。
制御部20は、ステップS1〜S7の処理ステップを実行して映像提示領域を設定すると、設定した映像提示領域を表示部12に表示させる(ステップS101)。制御部20は、映像提示領域に映像コンテンツを表示させてもよいし、映像提示領域の範囲を示す画像を表示させてもよい。そして、制御部20は、映像提示領域の表示中に認識したユーザ2のジェスチャに基づいて、この映像提示領域を補正する(ステップS102)。例えば、制御部20は、ユーザ2が設定済みの映像提示領域に重ねて図6や図8で説明したジェスチャを行った場合、このジェスチャを認識して映像提示領域を補正する。この際、制御部20は、上述した実施形態と同じ方法で映像提示領域を再設定すればよい。そして、制御部20は、映像提示領域の補正結果に応じて設定テーブル31の情報を書き替える。
制御部20は、ユーザ2による別のジェスチャに基づいて映像提示領域を補正してもよい。例えば、制御部20は、補正対象の映像提示領域に指を重ねた状態で、所定の方向に指が移動させられると、指の移動方向に映像提示領域を移動させる補正を行う。
(変形例5)
上述した実施形態では、制御部20は、ユーザ2の前方にある平面領域を検出して、検出した平面領域上に映像提示領域を設定していた。しかし、ユーザ2が広い室空間に居る場合等、近傍に平面領域が存在しない可能性もある。この場合、制御部20は、ユーザ2の前方の予め決められた距離の位置に、映像提示領域を設定してもよい。この場合の眼鏡型端末1の映像提示領域の設定方法は、上述した実施形態と同じでよく、実空間中の決められた距離だけ離れた位置に平面領域が存在すると仮定して、映像提示領域を設定すればよい。制御部20は、例えば、眼鏡部10のレンズの無限縁の位置や予め決められた固定距離の位置に映像提示領域を設定する。
この変形例において、眼鏡型端末1における平面領域の検出に係る構成(例えば平面領域検出部23aの機能)が省略されてもよい。
(変形例6)
眼鏡型端末1は、距離センサ13を備えないようにしてもよい。この場合、制御部20は、撮影部11により生成された撮影データを解析して、三次元空間を認識したり、平面領域を検出したり、平面領域までの距離を検出したりするとよい。
また、眼鏡型端末1は、タグ情報を記憶しない構成であってもよい。この場合、眼鏡型端末1は、位置方向センサ14の検出結果に基づいて、映像提示領域の設定時の位置及び方向を特定して、位置情報及び方向情報を設定テーブル31に格納する。そして、眼鏡型端末1は、位置方向センサ14の現在の検出結果と、設定テーブル31に格納された位置情報及び方向情報とを照合して、両者の同一性に基づいて映像提示領域の位置を特定する。
また、眼鏡型端末1は、位置方向センサ14に代えて、眼鏡型端末1が向く方向を検出する方向センサを備えてもよい。この方向センサは、例えば、加速度センサ、地磁気センサ又はジャイロセンサである。
また、眼鏡型端末1は、位置方向センサ14を備えないようにしてもよい。この場合、眼鏡型端末1は、方向情報を使用せず、タグ情報を用いて映像提示領域の位置を特定する。
上述した実施形態で説明した眼鏡型端末1の制御部20が行う映像提示領域に対する機能(アプリケーションプログラム)の割り当て方法は、あくまで一例である。例えば、制御部20は、映像提示領域を設定した後、ユーザ2が行った所定の操作に従って機能を割り当ててもよい。また、制御部20は、映像提示領域を設定して設定テーブル31に情報を格納した後に、割り当てる機能を変更してもよい。
また、制御部20は、式(1)及び(2)で説明した関係以外の関係で、映像提示領域を決定してもよい。例えば、制御部20は、ユーザ2の両手の指が交差する2点(P1,P2)を認識して矩形領域であるジェスチャ領域を検出していたが、矩形領域の頂点となる4点を認識してジェスチャ領域を検出してもよい。また、制御部20は、ジェスチャ領域と同じサイズの映像提示領域を設定してもよい。この場合、ユーザ2が右手と左手とを使ったジェスチャで所望する映像提示領域のサイズを指定し、制御部20はこのジェスチャを認識してジェスチャ領域を検出する。
(変形例7)
上述した実施形態の眼鏡型端末1の制御部20は、ユーザ2により行われた空間領域を平面的に囲むジェスチャを認識して、映像提示領域を設定していた。制御部20は、別のジェスチャを認識して、映像提示領域を設定してもよい。例えば、ユーザ2が、空間領域において点によって映像コンテンツの提示位置を指定するジェスチャをすると、制御部20は、ユーザ2が視認可能な映像提示領域のサイズを計算する。そして、制御部20は、ユーザ2の位置から見てユーザ2が指定した提示位置の延長線上に、計算したサイズの映像提示領域を設定する。この際、制御部20は、側面部W等の平面領域までの距離を用いて映像提示領域のサイズを計算してもよい。
すなわち、制御部20は、ユーザ2の位置から見て、ユーザ2のジェスチャで指定された空間領域の延長線上に、ユーザ2が映像コンテンツを観察可能なサイズで映像提示領域を設定すればよい。具体的なジェスチャや、ジェスチャと映像提示領域との関係については、種々の変形が可能である。
(変形例8)
眼鏡型端末1(眼鏡部10)の具体的な形状は、図1に示した形状に限定されない。
本発明の映像表示装置は、眼鏡型の映像表示装置に限らず、ユーザによって観察される像に重ねて映像を表示する機能を有する映像表示装置であればよい。例えば、本発明の映像表示装置は、ユーザが把持して使用する形態の映像表示装置であってもよいし、ユーザが装着するヘルメット等の装着物に取り付けて使用される形態の映像表示装置であってもよい。
(変形例9)
上述した眼鏡型端末1の制御部20の機能は、ハードウェア資源、ソフトウェア資源又はこれらの組み合わせのいずれによって実現されてもよい。制御部20の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD(Hard Disk Drive)、FD(Flexible Disk))等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリ等のコンピュータ読取可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。また、本発明は、コンピュータが行う映像提示方法として実施することも可能である。
1…眼鏡型端末、2…ユーザ、10…眼鏡部、11…撮影部、12…表示部、13…距離センサ、14…位置方向センサ、20…制御部、21…撮影制御部、22…ジェスチャ認識部、23…設定部、23a…平面領域検出部、24…表示制御部、25…設定情報取得部、26…補正部、30…記憶部、31…設定テーブル、40…通信部。

Claims (9)

  1. ユーザにより観察される像を撮影して撮影データを生成する撮影部と、
    前記観察される像に重ねて映像コンテンツを表示する表示部と、
    前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するジェスチャ認識部と、
    前記ジェスチャ認識部が認識したジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定する設定部と、
    前記設定部が設定した映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させる表示制御部と
    を備える映像表示装置。
  2. 前記ジェスチャ認識部は、
    前記ユーザにより行われた前記空間領域を平面的に囲むジェスチャを認識する
    ことを特徴とする請求項1に記載の映像表示装置。
  3. 前記延長線上に存在する平面領域を検出する平面領域検出部を備え、
    前記設定部は、
    前記平面領域検出部が検出した前記平面領域上に、前記映像提示領域を設定する
    ことを特徴とする請求項1又は請求項2に記載の映像表示装置。
  4. 前記表示制御部は、
    前記ユーザにより前記映像提示領域が観察されなくなった場合には、当該映像提示領域における映像コンテンツの再生を中断し、当該映像提示領域が再び観察されたときに前記再生を再開する
    ことを特徴とする請求項1から請求項3のいずれか1項に記載の映像表示装置。
  5. 前記表示制御部は、
    前記ユーザによって複数の前記映像提示領域が観察される場合に、一の前記映像提示領域の映像コンテンツを、前記ユーザにより観察されないようにするか又は他の前記映像表提示エリアの映像コンテンツよりも観察されにくくする制御を行う
    ことを特徴とする請求項1から請求項4のいずれか1項に記載の映像表示装置。
  6. 自装置でない他の映像表示装置から前記映像提示領域の設定を示す設定情報を取得する設定情報取得部を備え、
    前記設定部は、
    前記設定情報取得部が取得した設定情報に基づいて前記映像提示領域を設定し、
    前記表示制御部は、
    前記他の映像表示装置と同じ前記映像コンテンツを表示させる
    ことを特徴とする請求項1から請求項5のいずれか1項に記載の映像表示装置。
  7. 前記設定部が設定した映像提示領域を、前記ジェスチャ認識部が認識したジェスチャに基づいて補正する補正部を備え、
    前記ジェスチャ認識部は、
    前記設定した映像提示領域が前記表示部に表示されているときに、当該映像提示領域を補正するためのジェスチャを認識する
    ことを特徴とする請求項1から請求項6のいずれか1項に記載の映像表示装置。
  8. ユーザにより観察される像を撮影して撮影データを生成する撮影部と、
    前記観察される像に重ねて映像コンテンツを表示する表示部と
    を備える映像表示装置の映像提示方法であって、
    前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するステップと、
    認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定するステップと、
    設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させるステップと
    を有する映像提示方法。
  9. ユーザにより観察される像を撮影して撮影データを生成する撮影部と、
    前記観察される像に重ねて映像コンテンツを表示する表示部と
    を備える映像表示装置のコンピュータに、
    前記撮影部が生成した撮影データに基づいて、前記ユーザにより空間領域で行われたジェスチャを認識するステップと、
    認識した前記ジェスチャに基づいて、前記ユーザの位置から見て前記ジェスチャで指定された空間領域の延長線上に映像提示領域を設定するステップと、
    設定した前記映像提示領域において前記ユーザにより映像コンテンツが観察されるように、当該映像コンテンツを前記表示部に表示させるステップと
    を実行させるためのプログラム。
JP2013239137A 2013-11-19 2013-11-19 映像表示装置、映像提示方法及びプログラム Active JP6294054B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013239137A JP6294054B2 (ja) 2013-11-19 2013-11-19 映像表示装置、映像提示方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013239137A JP6294054B2 (ja) 2013-11-19 2013-11-19 映像表示装置、映像提示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015100032A true JP2015100032A (ja) 2015-05-28
JP6294054B2 JP6294054B2 (ja) 2018-03-14

Family

ID=53376401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013239137A Active JP6294054B2 (ja) 2013-11-19 2013-11-19 映像表示装置、映像提示方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6294054B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037525A (ja) * 2015-08-11 2017-02-16 京セラ株式会社 ウェアラブル装置及び出力システム
JPWO2017191703A1 (ja) * 2016-05-02 2018-10-04 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置
US10643579B2 (en) 2016-01-20 2020-05-05 Samsung Electronics Co., Ltd. HMD device and method for controlling same
JP2020166741A (ja) * 2019-03-29 2020-10-08 スターティアラボ株式会社 Ar用の画像処理装置、画像処理システム及びプログラム
US20220130121A1 (en) * 2019-09-20 2022-04-28 Facebook Technologies, Llc Projection Casting in Virtual Environments
US11947111B2 (en) 2019-09-20 2024-04-02 Meta Platforms Technologies, Llc Automatic projection type selection in an artificial reality environment
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059136A (ja) * 2004-08-20 2006-03-02 Seiko Epson Corp ビューア装置及びそのプログラム
JP2012243007A (ja) * 2011-05-18 2012-12-10 Toshiba Corp 映像表示装置及びそれを用いた映像領域選択方法
JP2013034237A (ja) * 2012-10-17 2013-02-14 Sony Corp 画像処理装置、画像処理方法、画像処理システム
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059136A (ja) * 2004-08-20 2006-03-02 Seiko Epson Corp ビューア装置及びそのプログラム
JP2012243007A (ja) * 2011-05-18 2012-12-10 Toshiba Corp 映像表示装置及びそれを用いた映像領域選択方法
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
JP2013034237A (ja) * 2012-10-17 2013-02-14 Sony Corp 画像処理装置、画像処理方法、画像処理システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017037525A (ja) * 2015-08-11 2017-02-16 京セラ株式会社 ウェアラブル装置及び出力システム
US10643579B2 (en) 2016-01-20 2020-05-05 Samsung Electronics Co., Ltd. HMD device and method for controlling same
US11164546B2 (en) 2016-01-20 2021-11-02 Samsung Electronics Co., Ltd. HMD device and method for controlling same
JPWO2017191703A1 (ja) * 2016-05-02 2018-10-04 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置
JP2020166741A (ja) * 2019-03-29 2020-10-08 スターティアラボ株式会社 Ar用の画像処理装置、画像処理システム及びプログラム
US20220130121A1 (en) * 2019-09-20 2022-04-28 Facebook Technologies, Llc Projection Casting in Virtual Environments
US11947111B2 (en) 2019-09-20 2024-04-02 Meta Platforms Technologies, Llc Automatic projection type selection in an artificial reality environment
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Also Published As

Publication number Publication date
JP6294054B2 (ja) 2018-03-14

Similar Documents

Publication Publication Date Title
US11928784B2 (en) Systems and methods for presenting perspective views of augmented reality virtual object
JP6294054B2 (ja) 映像表示装置、映像提示方法及びプログラム
US10764585B2 (en) Reprojecting holographic video to enhance streaming bandwidth/quality
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
US10078367B2 (en) Stabilization plane determination based on gaze location
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
JP6177872B2 (ja) 入出力装置、入出力プログラム、および入出力方法
TWI669635B (zh) 用於顯示彈幕的方法、裝置以及非揮發性電腦可讀儲存介質
JP2018511098A (ja) 複合現実システム
JP6250024B2 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
WO2014128751A1 (ja) ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
US11720996B2 (en) Camera-based transparent display
CN112655202B (zh) 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正
CN113628322B (zh) 图像处理、ar显示与直播方法、设备及存储介质
WO2020090316A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2014128750A1 (ja) 入出力装置、入出力プログラム、および入出力方法
CN111164542A (zh) 修改计算设备上的图像的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180215

R150 Certificate of patent or registration of utility model

Ref document number: 6294054

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250