JP6515022B2 - 観察領域推定方法、観察領域推定装置、及びプログラム - Google Patents

観察領域推定方法、観察領域推定装置、及びプログラム Download PDF

Info

Publication number
JP6515022B2
JP6515022B2 JP2015235927A JP2015235927A JP6515022B2 JP 6515022 B2 JP6515022 B2 JP 6515022B2 JP 2015235927 A JP2015235927 A JP 2015235927A JP 2015235927 A JP2015235927 A JP 2015235927A JP 6515022 B2 JP6515022 B2 JP 6515022B2
Authority
JP
Japan
Prior art keywords
user
observation area
display
distance
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015235927A
Other languages
English (en)
Other versions
JP2017103638A (ja
Inventor
宇翔 草深
宇翔 草深
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015235927A priority Critical patent/JP6515022B2/ja
Publication of JP2017103638A publication Critical patent/JP2017103638A/ja
Application granted granted Critical
Publication of JP6515022B2 publication Critical patent/JP6515022B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ディスプレイの表示領域から、ユーザにより観察されている観察領域を推定する観察領域推定方法、観察領域推定装置、及びプログラムに関する。
シースルーディスプレイを有したデバイスが市場へ投入され始めている。シースルーディスプレイはディスプレイの背景映像をそのままユーザへ提示可能であるため、以下の様な特徴がある。
1.ディスプレイ内とディスプレイ外の映像に視差(ズレ)が生じない。
2.ディスプレイに提示される映像は実世界における光線をそのまま提示するため、背景情報の提示におけるレイテンシがない。
上記のような特徴があるため、例えばAR(Augumented Reality)アプリケーションとの親和性が高い。ARアプリケーションでは、例えば、ユーザが撮影した映像中の物体をトリガとして情報検索を行い、トリガとなった物体に関連する情報をユーザへ提示(表示)するといったものがある。そのため、シースルーディスプレイを通してユーザがどのような映像(物体)を観察しているかをシステムが取得する方法が必要となる。
シースルーディスプレイを利用した情報提示方法は大きく3つに分類される。
1.ハンドヘルド、HMD(Head Mounted Display)ビデオシースルー
2.HMDシースルー
3.ハンドヘルドシースルー
上記「1.」ではカメラで撮影した映像をユーザへ直接提示するため、ユーザが観察する映像とカメラで撮影する映像は同一のものとなるため、カメラで撮影した画像をトリガとすればよい。しかし、カメラ映像をディスプレイへ提示する周りの風景の間には視差が生じるため、シースルーディスプレイの長所である風景映像提示におけるレイテンシの無さや、ディスプレイ内とディスプレイ外の映像のつなぎ目がなくシームレスであるという特徴が失われてしまう。本方式ではシースルーディスプレイを用いる必要性が薄い。
次に、上記「2.」のようにユーザの頭部にカメラを固定するタイプでは、ユーザの頭部の向きによってトリガとなる物体の存在する方向は取得できるが、その映像中のどの領域をユーザがシースルーディスプレイを通して観察しているのかが取得できない。そこで、例えば、ハーフミラー等を使いユーザの視線を考慮してディスプレイとカメラを含めた光学系を設計する方法や、環境内に存在するマーカ等を指定することで、ディスプレイ座標系とカメラ座標系のキャリブレーションを行う方法(特許文献1)が存在する。これらによって頭部に固定したシースルーディスプレイを通したAR表示が可能となる。
最後に、上記「3.」のハンドヘルド型のものでも上記「2.」と同様の、ユーザが観察している領域が取得できないという問題が生じる。加えて、上記「2.」のようにカメラやディスプレイはユーザに固定されないため、新たにディスプレイをユーザから遠ざけたり、近づけたりといった奥行き方向の自由度が生じるためこれに対応する必要がある。これに対しては、例えば特許文献2のような、手鏡型のデバイスの裏面に設置したカメラとユーザ頭部に固定したカメラを用いて、手鏡に提示する映像を、手鏡外の映像とつなぎ目がなくシームレスに提示する手法が提案されている。また、特許文献2は、ディスプレイの透明状態、非透明状態を制御することで同一のディスプレイでディスプレイ越しの風景の撮影を可能とする方法が提案されている。
特開2009−284175号公報 特許4490357号公報
Takumi Yoshida, Shinobu Kuroki, Hideaki Nii, Naoki Kawakami, and Susumu Tachi. 2008. ARScope. In ACM SIGGRAPH 2008 new tech demos (SIGGRAPH '08). ACM, New York, NY, USA, , Article 4 , 1 pages.
特許文献1の手法では、上記したハンドヘルドタイプではユーザの視線を基にカメラやディスプレイが固定されないため、例えばディスプレイをユーザから遠ざけたり近づけたりといった奥行き方向にディスプレイが移動した際のユーザ観察映像の変化に対応できない。また、キャリブレーションのために環境中にマーカを設置する必要が生じる。
また、非特許文献1では、ユーザが把持するデバイスとその周囲の環境が撮影可能な位置にカメラをユーザや環境に固定する必要がある。
特許文献2においても、参考文献1と同様に、ユーザが把持するデバイスとその周囲の環境を撮影するカメラを設置する必要が生じる。
以上のように、ユーザがハンドヘルドなシースルーディスプレイを通して観察する映像を取得するには、環境やユーザに対してマーカやカメラ、映像提示装置を設置する必要があり、シースルーディスプレイ端末のみではユーザが観察する映像を取得することが難しい。
本発明は上記事情に着目してなされたもので、その目的とするところは、ユーザと表示部との間の距離が変動しても、表示部上のユーザによる観察領域の推定を可能にする観察領域推定方法、観察領域推定装置、及びプログラムを提供するところにある。
上記目的を達成するためにこの発明の観察領域推定方法、観察領域推定装置、及びプログラムは、以下の通りである。
(1)この発明の観察領域推定方法は、観察領域推定装置により実行される観察領域推定方法であって、表示部から前記表示部に対向するユーザまでの距離を計測し、前記距離に基づき前記表示部における前記ユーザによる観察領域を推定する。
(2)上記(1)の観察領域推定方法は、前記表示部の表示性能に関する情報に基づき、前記表示部の表示領域の中心を基準として前記観察領域のサイズを推定する。
(3)上記(1)又は(2)の観察領域推定方法は、前記距離の増減に対応して前記観察領域の幅を増減するパラメータに基づき前記観察領域の幅を推定する。
(4)上記(1)乃至(3)の何れか1つの観察領域推定方法は、前記観察領域に対応する映像を検出する。
(5)上記(1)乃至(4)の何れか1つの観察領域推定方法は、キャリブレーションモードを実行して、前記表示部から前記ユーザまでのテスト距離を計測し、前記テスト距離に対応する観察領域の入力を受け付けて前記テスト距離と前記観察領域の関係を検出し、観察領域推定モードを実行して、前記表示部から前記ユーザまでの前記距離を計測し、前記距離及び前記検出された関係に基づき、前記観察領域を推定する。
(6)この発明の観察領域推定装置は、表示部と、前記表示部から前記表示部に対向するユーザまでの距離を計測する計測部と、前距離に基づき前記表示部における前記ユーザによる観察領域を推定する推定部と、を備える。
(7)上記(6)の観察領域推定装置は、前記表示部は透過型の表示部である請求項6の観察領域推定装置。
(8)この発明のプログラムは、上記(1)乃至(5)の何れか一つの方法をコンピュータに実行させるための手順を備える。
本発明によれば、ユーザと表示部との間の距離が変動しても、表示部上のユーザによる観察領域の推定を可能にする観察領域推定方法、観察領域推定装置、及びプログラムを提供できる。
(1)この発目の観察領域推定方法によれば、表示部からユーザまでの距離を計測し、計測された距離に基づき観察領域を推定するので、距離が変動しても、変動した距離に応じた観察領域を推定することができる。例えば、ハンドヘルド型のシースルーディスプレイにおいて、ユーザとディスプレイとの距離が変動しても、その都度、距離が測定され、測定された距離に基づき、ユーザ観察領域が推定され、ユーザ観察映像が検出される。よって、ユーザがシースルーディスプレイを通して観察する映像を検出することができる。
(2)この発明の観察領域推定方法によれば、表示部の表示性能に関する情報に基づき、表示領域の中心を基準として観察領域のサイズを推定することができる。例えば、表示領域の中心画素に相当するピクセルを中心として、観察領域のサイズを推定することができる。
(3)この発明の観察領域推定方法によれば、距離の増減に対応して、推定される観察領域の幅を増減することができる。距離変化に応じた観察領域を推定することができる。
(4)この発明の観察領域推定方法によれば、推定された観察領域に対応した映像を検出することができる。これにより例えば物体の視覚的な特徴量をトリガにした検索システムをシースルーディスプレイにより利用することが可能となる。また、ユーザが観察する映像を取得可能であるため、検索結果を対象の物体上に重畳表示することが可能となる。
(5)この発明の観察領域推定方法によれば、キャリブレーションモードを実行して、テスト距離と観察領域の関係(近似式)を得て、観察領域推定モードを実行して、前記関係を使って、計測された距離から観察領域を推定することができる。
(6)この発明の観察領域推定装置によれば、上記(1)と同様の効果が得られる。
(7)この発明の観察領域推定装置によれば、透過型の表示部において、ユーザにより観察される映像を検出することができる。
(8)この発明のプログラムによれば、上記(1)〜(5)と同様の効果が得られる。
ハンドヘルド型のHMD(Head Mounted Display)ビデオシースルーの情報提示システムの概略構成の一例を示す図である。 HMDシースルーの情報提示システムの概略構成の一例を示す図である。 ハンドヘルドシースルーの情報提示システムの概略構成の一例を示す図である。 ユーザ端末間距離とユーザ観察画像(ユーザ観察領域)の関係を説明するための図である。 キャリブレーションの一例を説明するための図である。 ユーザ観察領域推定処理及びユーザ観察映像取得処理の一例を説明するための機能ブロック図である。 ユーザ観察領域推定処理及びユーザ観察映像取得処理の一例を説明するためのフローチャートである。 キャリブレーションを含むユーザ観察領域推定処理及びユーザ観察映像取得処理の一例を説明するための機能ブロック図である。 キャリブレーションを含むユーザ観察領域推定処理及びユーザ観察映像取得処理の一例を説明するためのフローチャートである。
以下、各実施形態について図面を参照して説明する。
最初に、図1〜図3を参照して、シースルーディスプレイを利用した情報提示システムの例について説明する。
図1は、ハンドヘルド型のHMD(Head Mounted Display)ビデオシースルーの情報提示システムの概略構成の一例を示す図である。図1に示すように、情報提示システム10は、カメラ11、及びディスプレイ12を備える。カメラ11は、被写体15、16を含む画像を撮影する。ディスプレイ12(表示面12a)は、カメラ11により撮影された画像を表示する。ユーザは、ディスプレイ12に表示される画像を見ることができる。
図2は、HMDシースルーの情報提示システムの概略構成の一例を示す図である。図2に示すように、情報提示システム20は、カメラ21、及びディスプレイ22、固定具23を備える。固定具23は、ユーザの頭部にカメラ21を固定する。これにより、ユーザとディスプレイ22の距離は一定に保たれる。カメラ21は、被写体25、26を含む画像を撮影する。ディスプレイ22(表示面22a)は、シースルーディスプレイ(透過型ディスプレイ)であり、ディスプレイ22を挟んで一方の側(ディスプレイ32の前面)に位置するユーザは、ディスプレイ22を透過して、ディスプレイ22の他方の側(ディスプレイ32の背面)の被写体25、26を含む景色を目視することができる。
図3は、ハンドヘルドシースルーの情報提示システムの概略構成の一例を示す図である。図3に示すように、情報提示システム30は、カメラ31、及びディスプレイ32を備える。カメラ31は、被写体35、36を含む画像を撮影する。ディスプレイ32は、シースルーディスプレイ(透過型ディスプレイ)であり、ディスプレイ32を挟んで一方の側に位置するユーザは、ディスプレイ32を透過して、ディスプレイ32の他方の側(ディスプレイ32の背面)の被写体35、36を含む景色を目視することができる。
以下、本実施形態で説明するユーザ観察領域推定処理及びユーザ観察映像取得処理を、情報提示システム30に適用するケースについて説明するが、その他の情報提示システムに適用してもよい。情報提示システム30は、情報提示システム20のように固定具23を備えないので、ユーザとディスプレイ32(表示面32a)の間の距離(ユーザ端末間距離)は変動する。ユーザがディスプレイ32の表示領域のうちのどの領域を観察しているかを推定するためには、変動するユーザ端末間距離を測定する必要がある。そして、この変動するユーザ端末間距離の測定結果に基づき、表示領域からユーザ観察領域を推定するユーザ観察領域推定処理を実行し、推定されたユーザ観察領域からユーザ観察映像を取得(検出)するユーザ観察映像取得処理を実行する。例えば、ユーザ端末間距離が短いと、ユーザ観察領域のサイズは比較的大きくなり(観察領域の幅が比較的長くなり)、逆に、ユーザ端末間距離が長いと、ユーザ観察領域のサイズは比較的小さくなり(観察領域の幅が比較的短くなり)、両者に比例関係が成立すると仮定する。なお、本実施形態では、両者に比例関係が成立するケースについて説明するが、様々な要因を考慮し、完全な比例関係でなくてもよい。
例えば、図4に示すように、情報提示システム30において、あるユーザ端末間距離と、その距離においてユーザがディスプレイ32を通して観察するユーザ観察領域(サイズ)との間の関係(関係式)を、キャリブレーションにより導出する。キャリブレーションは、情報提示システムの出荷前に製品担当者が実行してもよいし、出荷後にユーザが実行してもよいし、両方のタイミングで実行するようにしてもよい。
例えば、図3に示すように情報提示システム30のディスプレイ32の一方の面には距離センサ33が設けられ、距離センサ33は、赤外線又は超音波を利用し、ユーザ端末間距離を取得する。例えば、図5に示すように、キャリブレーションでは、例えば、2点以上のユーザ端末間距離におけるユーザ観察領域のサイズ(例えばユーザ観察映像幅)を記録する。
なお、あるユーザ端末間距離に対して、入力装置を利用してユーザ観察領域のサイズ情報(数値)を入力するようにしてもよい。また、あるユーザ端末間距離に対して、ディスプレイ32が取得した映像を表示(フィードバック)し、ディスプレイ32上でユーザ観察領域の指定を受け付けるようにしてもよい。
例えば、ユーザ端末間距離400mmにおいて、ユーザ観察領域は、カメラ取得映像におけるディスプレイ32の中心に相当するピクセルより左右に217pixel分(幅434pixel)である。また、ユーザ端末間距離600mmにおいて、ユーザ観察領域は、カメラ取得映像におけるディスプレイ中心に相当するピクセルより左右に313pixel分(626pixel)であったとする。これらを基に、比例関係にあると仮定して回帰分析を行うと、近似式、Wuser = a + b * d における定数a、bを導出することができる。上記の値を例にすると、Wuser = -9.6 *d + 1010 という直線によって近似される。この式に基づいて、あるユーザ端末間距離におけるユーザ観察領域(幅)を取得することができ、また、既知であるディスプレイ縦横幅に基づき、カメラ映像中におけるディスプレイ32の中心ピクセルを基準としてユーザ観察領域(縦横のサイズ)を推定し、このユーザ観察領域からユーザ観察映像(対象物)を検出することができる。なお、ユーザ観察領域から対象物を検出する手法は、様々な対象物検出を適用することができる。
図6及び図7を参照し、ユーザ観察領域推定処理及びユーザ観察映像取得処理の一例について説明する。図6に示すように、情報提示システム30は、透過型情報表示部41、撮影機能部42、ユーザ端末間距離計測機能部43、ユーザ観察映像取得部44、及びユーザ観察映像幅推定部45を備える。透過型情報表示部41は、ディスプレイ32に対応し、撮影機能部42は、カメラ31に対応する。ユーザ端末間距離計測機能部43は、距離センサ33を含み、距離センサ33からの情報に基づきユーザ端末間距離を計測する。なお、ユーザ端末間距離計測機能部43、ユーザ観察映像取得部44、及びユーザ観察映像幅推定部45は、プロセッサー及びメモリを備えたコンピュータ等により実現することができる。
まず、撮影機能部42が、映像を撮影する(ST11)。例えば、撮影機能部42は、静止画及び動画の何れも撮影することができる。また、ユーザ端末間距離計測機能部43は、透過型情報表示部41(表示面)の表示領域からこの表示領域に対向するユーザまでの距離を計測し、ユーザ端末間距離を取得する(ST12)。ユーザ端末間距離計測機能部43は、適切なタイミングで、距離を計測し計測結果を出力する。例えば、所定の時間間隔で距離を計測し、その都度、計測結果を出力してもよいし、所定の時間間隔で距離を計測し、距離に一定値以上の変化があった場合に、計測結果を出力するようにしてもよい。
ユーザ観察映像幅推定部45は、ユーザ端末間距離計測機能部43から出力されるユーザ端末間距離に基づいて、透過型情報表示部41の表示領域上のユーザが観察するユーザ観察領域(ユーザ観察映像)のサイズ(幅)を推定する(ST13)。
例えば、ユーザ観察映像取得部44は、透過型情報表示部41の表示性能に関する情報を保持する。表示性能に関する情報は、透過型情報表示部41の表示領域のサイズ(高さ、幅、高さと幅の比率)、解像度、画素数などの情報である。ユーザ観察映像取得部44は、ユーザ観察映像幅推定部45で推定されたユーザ観察領域(ユーザ観察映像)のサイズ(幅)と、透過型情報表示部41の表示性能(例えば高さと幅の比率)に関する情報とに基づいて、表示領域の中心画素に相当するピクセルを中心として、推定されたユーザ観察領域に対応する映像を検出する(ST14)。例えば、推定されたユーザ観察領域の映像をそのまま検出してもよいし、推定されたユーザ観察領域に対してオブジェクト検出を適用し、推定されたユーザ観察領域中のオブジェクトを検出するようにしてもよい。
図8及び図9を参照し、キャリブレーションを含むユーザ観察領域推定処理及びユーザ観察映像取得処理の一例について説明する。図6に示す情報提示システム30に対して、図8に示す情報提示システム30は、さらに、パラメータ算出機能部46を備える。なお、パラメータ算出機能部46は、プロセッサー及びメモリ等を備えたコンピュータ等により実現することができる。
パラメータ算出機能部46は入力部を含み、ユーザは、入力部を介して、キャリブレーションモードの実行を指示する。パラメータ算出機能部46は、キャリブレーションモードの実行指示に対応して、キャリブレーションモードを実行する。
キャリブレーションモードの実行に対応して、撮影機能部42が、映像を撮影し、また、ユーザ端末間距離計測機能部43が、透過型情報表示部41(表示面)の表示領域からこの表示領域に対向するユーザまでの距離(テスト距離)を計測し、ユーザ端末間距離(ユーザ端末間距離d1)を取得する。パラメータ算出機能部46は、透過型情報表示部41に撮影した映像を表示させるとともに、ユーザに対してユーザ観察領域(ユーザ観察映像)のサイズ(ユーザ観察映像幅Wuser1)の指定を要求する。例えば、透過型情報表示部41の表示領域に対向してタッチパネルが配置され、ユーザはタッチパネルを介して表示映像上でユーザ観察領域(ユーザ観察映像)のサイズ(高さ及び幅)を指定する。或いは、ユーザは入力部を介してユーザ観察領域(ユーザ観察映像)のサイズ(高さ及び幅)を数値入力する。パラメータ算出機能部46は、取得したユーザ端末間距離d1に対応付けて指定又は入力されたユーザ観察映像幅Wuser1を記録する(ST21)。
同様に、撮影機能部42が、映像を撮影し、また、ユーザ端末間距離計測機能部43が、透過型情報表示部41(表示面)の表示領域からこの表示領域に対向するユーザまでの距離(テスト距離)を計測し、ユーザ端末間距離(ユーザ端末間距離d2)を取得する。パラメータ算出機能部46は、透過型情報表示部41に撮影した映像を表示させるとともに、ユーザに対してユーザ観察領域(ユーザ観察映像)のサイズ(ユーザ観察映像幅Wuser2)の指定を要求する。例えば、透過型情報表示部41の表示領域に対向してタッチパネルが配置され、ユーザはタッチパネルを介して表示映像上でユーザ観察領域(ユーザ観察映像)のサイズ(高さ及び幅)を指定する。或いは、ユーザは入力部を介してユーザ観察領域(ユーザ観察映像)のサイズ(高さ及び幅)を数値入力する。パラメータ算出機能部46は、取得したユーザ端末間距離d2に対応付けて指定又は入力されたユーザ観察映像幅Wuser2を記録する(ST22)。
パラメータ算出機能部46は、ユーザ端末間距離d1に対応付けられたユーザ観察映像幅Wuser1、及びユーザ端末間距離d2に対応付けられたユーザ観察映像幅Wuser2に基づき、ユーザ端末間距離とユーザ観察映像幅との関係を示す情報(近似式、パラメータ)を導出し(ST23)、ユーザ端末間距離とユーザ観察映像幅との関係を示す情報をユーザ観察映像幅推定部45へ送信する(ST24)。
また、ユーザ観察映像幅推定部45は入力部を含み、ユーザは、入力部を介して、観察領域推定モードの実行を指示する。ユーザ観察映像幅推定部45は、観察領域推定モードの実行指示に対応して、観察領域推定モードを実行する。
観察領域推定モードの実行に対応して、撮影機能部42が、映像を撮影し(ST11)、また、ユーザ端末間距離計測機能部43が、透過型情報表示部41(表示面)の表示領域からこの表示領域に対向するユーザまでの距離を計測し、ユーザ端末間距離を取得する(ST12)。
ユーザ観察映像幅推定部45は、ユーザ端末間距離計測機能部43で取得されたユーザ端末間距離、及びユーザ端末間距離とユーザ観察映像幅との関係を示す情報に基づいて、透過型情報表示部41の表示領域上のユーザが観察するユーザ観察領域(ユーザ観察映像)のサイズ(高さ及び幅)を推定する(ST13)。
ユーザ観察映像取得部44は、ユーザ観察映像幅推定部45で推定されたユーザ観察領域(ユーザ観察映像)のサイズ(幅)と、透過型情報表示部41の表示性能に関する情報とに基づいて、表示領域の中心画素に相当するピクセルを中心として、推定されたユーザ観察領域(ユーザ観察映像)に対応する映像を検出する(ST14)。
以上により、情報提示システム30において、ユーザ端末間距離とユーザ観察映像の幅との対応関係を基にキャリブレーションを行うことでユーザ端末間距離に基づいてユーザ観察映像の幅を導出可能な近似式を導出し、その近似式とシースルーディスプレイの高さと幅の比率を用いることで、ユーザがシースルーディスプレイを通して観察する映像を、カメラで取得する映像の中から切り出し取得することができる。
さらに、情報提示システム30(プロセッサー等)は、無線通信等により外部サーバへアクセスし、切り出された映像に関係する関係情報を検索し、ディスプレイ32に表示することもできる。上記説明したように、ディスプレイ32は、シースルーディスプレイであり、ディスプレイ22の一方の側のユーザは、ディスプレイ22を透過して、ディスプレイ22の他方の側(ディスプレイ32の背面)の被写体25、26を含む景色を目視することができる。例えば、ディスプレイ32に被写体25、26の関係情報が表示されることにより、ユーザは、被写体25、26を目視しながら、被写体25、26の関係情報を見ることができる。さらに、情報提示システム30(プロセッサー等)は、被写体25、26(=切り出した映像)に対応付けて関係情報を表示することもできる。例えば、切り出された映像がある商品であれば、その商品の販売及び購入に関係する関係情報(その商品を取り扱うショップ情報及びその商品の価格情報等)を表示する。
なお、上記処理の手順は全てソフトウェアによって実行することが可能である。このため、上記処理の手順を実行するプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのプログラムを情報提示システム30にインストールして実行するだけで、上記処理を容易に実現することができる。
例えば、情報提示システム30が制御部、記憶部、及び通信部を有し、通信部を介して、コンピュータ読み取り可能な記憶媒体から上記プログラムを読み取り、記憶部等に読み取ったプログラムを記憶し、プログラムのインストールを完了することができる。或いは、通信部を介して、上記プログラムをダウンロードし、記憶部等にダウンロードしたプログラムを記憶し、プログラムのインストールを完了することができる。これにより、情報提示システム30は、インストールされた上記プログラムに基づき、上記処理を容易に実現することができる。
以上により、本実施形態によれば、ハンドヘルド型のシースルーディスプレイにおいて、ユーザとディスプレイとの距離が変動しても、その都度、距離が測定され、測定された距離に基づき、ユーザ観察領域が推定され、ユーザ観察映像が検出される。よって、ユーザがシースルーディスプレイを通して観察する映像を検出することができ、システムがこの検出される映像を取得することができる。これにより例えば物体の視覚的な特徴量をトリガにした検索システムをシースルーディスプレイにより利用することが可能となる。また、ユーザが観察する映像を取得可能であるため、検索結果を対象の物体上に重畳表示することが可能となる。また、ユーザが観察する映像を取得するために、ユーザや環境中にマーカやディスプレイ、カメラといった装置を設置する必要がない。
その他にも、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
10…情報提示システム、11…カメラ、12…ディスプレイ12、15、16…被写体、20…情報提示システム、21…カメラ、22…ディスプレイ、23…固定具、25、26…被写体、30…情報提示システム、31…カメラ、32…ディスプレイ、35、36…被写体、41…透過型情報表示部、42…撮影機能部、43…ユーザ端末間距離計測機能部、44…ユーザ観察映像取得部、45…ユーザ観察映像幅推定部、46…パラメータ算出機能部

Claims (8)

  1. 観察領域推定装置により観察領域推定モードで実行される観察領域推定方法であって、
    表示部から前記表示部に対向するユーザまでの距離を計測し、
    前記距離、及びキャリブレーションモードで記録された前記表示部から前記表示部に対向するユーザまでのテスト距離と前記表示部におけるユーザによる観察領域との関係に基づき、前記距離に応じた前記観察領域を推定する観察領域推定方法。
  2. 前記表示部の表示性能に関する情報に基づき、前記表示部の表示領域の中心を基準として前記観察領域のサイズを推定する請求項1の観察領域推定方法。
  3. 前記距離の増減に対応して前記観察領域の幅を増減するパラメータに基づき前記観察領域の幅を推定する請求項1又は2の観察領域推定方法。
  4. 前記観察領域に対応する映像を検出する請求項1乃至3の何れか1つの観察領域推定方法。
  5. 前記キャリブレーションモードを実行して、前記表示部からーザまでの前記テスト距離を計測し、前記テスト距離に対応する前記観察領域の入力を受け付けて前記テスト距離と前記観察領域の関係を検出し、
    前記観察領域推定モードを実行して、前記表示部からーザまでの前記距離を計測し、前記距離及び前記検出された関係に基づき、前記観察領域を推定する請求項1乃至4の何れか1つの観察領域推定方法。
  6. 観察領域推定モードを実行し観察領域を推定する観察領域推定装置であって、
    表示部と、
    前記表示部から前記表示部に対向するユーザまでの距離を計測する計測部と、
    距離、及びキャリブレーションモードで記録された前記表示部から前記表示部に対向するユーザまでのテスト距離と前記表示部におけるユーザによる観察領域との関係に基づき、前記距離に応じた前記観察領域を推定する推定部と、
    を備える観察領域推定装置。
  7. 前記表示部は透過型表示器である請求項6の観察領域推定装置。
  8. 請求項1乃至5の何れか1つの方法をコンピュータに実行させるための手順を備えるプログラム。
JP2015235927A 2015-12-02 2015-12-02 観察領域推定方法、観察領域推定装置、及びプログラム Active JP6515022B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015235927A JP6515022B2 (ja) 2015-12-02 2015-12-02 観察領域推定方法、観察領域推定装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235927A JP6515022B2 (ja) 2015-12-02 2015-12-02 観察領域推定方法、観察領域推定装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017103638A JP2017103638A (ja) 2017-06-08
JP6515022B2 true JP6515022B2 (ja) 2019-05-15

Family

ID=59015689

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235927A Active JP6515022B2 (ja) 2015-12-02 2015-12-02 観察領域推定方法、観察領域推定装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6515022B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020262738A1 (ko) * 2019-06-28 2020-12-30 전자부품연구원 투명 oled 디스플레이를 이용한 ar 쇼케이스
US12073035B2 (en) 2020-05-18 2024-08-27 Nippon Telegraph And Telephone Corporation Displayed information control apparatus, displayed information control method, and program
TW202316179A (zh) * 2021-10-08 2023-04-16 日商半導體能源研究所股份有限公司 電子裝置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5151207B2 (ja) * 2007-03-28 2013-02-27 株式会社ニコン 表示装置
JP2010232772A (ja) * 2009-03-26 2010-10-14 Nomura Research Institute Ltd コンテンツ視聴者分析装置及びコンテンツ視聴者分析方法、並びにプログラム
US9715862B2 (en) * 2014-03-28 2017-07-25 Canon Kabushiki Kaisha Image processing apparatus and control method thereof

Also Published As

Publication number Publication date
JP2017103638A (ja) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6690041B2 (ja) 三次元物体上の注視点決定方法及び装置
CN106705837B (zh) 一种基于手势的物体测量方法及装置
TWI544447B (zh) 擴增實境的方法及系統
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
US10460466B2 (en) Line-of-sight measurement system, line-of-sight measurement method and program thereof
US8388146B2 (en) Anamorphic projection device
NZ744300A (en) Systems and methods for augmented reality
US20160018897A1 (en) Three-dimensional user interface device and three-dimensional operation processing method
JP2011227875A5 (ja) 情報処理システム、情報処理方法及びプログラム
JP2013235373A5 (ja)
JP2015079444A5 (ja)
US20160078685A1 (en) Display control device, display control method, and recording medium
JP7005224B2 (ja) 情報処理装置、システム、画像処理方法、コンピュータプログラム、及び記憶媒体
JP6515022B2 (ja) 観察領域推定方法、観察領域推定装置、及びプログラム
US20190332244A1 (en) Controlling content displayed in a display
JP2020008502A (ja) 偏光ステレオカメラによる深度取得装置及びその方法
JP2015079433A5 (ja)
KR20140079059A (ko) 이용자의 시선 방향 또는 중력 방향 중 적어도 하나를 이용하여 3차원 영상을 표시하는 3차원 디스플레이 장치
CN111854661A (zh) 可视化设备和存储介质
US20170223321A1 (en) Projection of image onto object
TWI736214B (zh) 顯示控制裝置、顯示控制方法、程式及非暫時性電腦可讀取資訊記錄媒體
US20170337707A1 (en) Method and system for transforming between physical images and virtual images
JP2013258583A (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
US9552059B2 (en) Information processing method and electronic device
JP2019066196A (ja) 傾き測定装置及び傾き測定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6515022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150