JP2016195323A - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP2016195323A
JP2016195323A JP2015074087A JP2015074087A JP2016195323A JP 2016195323 A JP2016195323 A JP 2016195323A JP 2015074087 A JP2015074087 A JP 2015074087A JP 2015074087 A JP2015074087 A JP 2015074087A JP 2016195323 A JP2016195323 A JP 2016195323A
Authority
JP
Japan
Prior art keywords
information
image
user
imaging
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015074087A
Other languages
English (en)
Inventor
浩一 川崎
Koichi Kawasaki
浩一 川崎
広幸 安賀
Hiroyuki Yasuga
広幸 安賀
満 西部
Mitsuru Nishibe
満 西部
裕司 草野
Yuji Kusano
裕司 草野
敦 石原
Atsushi Ishihara
敦 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015074087A priority Critical patent/JP2016195323A/ja
Publication of JP2016195323A publication Critical patent/JP2016195323A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】情報処理装置を提供する。【解決手段】第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得する取得部と、前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かを判定する判定部と、を備える、情報処理装置。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、プログラムに関する。
近年、人間の知覚する現実環境を拡張するAR(Augmented Reality)技術が広く用いられるようになり、AR技術を応用した情報提示が行われている。また、従来、特許文献1のようなユーザの行動予測を行う技術が研究されている。
特開2000−293506号公報
AR技術を応用した情報提示においては、例えば、現実世界を撮影して得られた画像から被写体(物体)を認識することで、当該被写体に関する適切な情報が提示される。しかし、情報提示機器の処理性能や、被写体の認識に用いられる特徴量辞書(画像特徴量情報)のサイズによっては、被写体の認識に多大な時間を要する場合があった。
そこで、本開示では、被写体の認識にかかる時間を短縮することが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラムを提案する。
本開示によれば、第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得する取得部と、前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かを判定する判定部と、を備える、情報処理装置が提供される。
また、本開示によれば、第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得することと、前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かをプロセッサが判定することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得する処理と、前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かを判定する処理と、を行わせるための、プログラムが提供される。
以上説明したように本開示によれば、被写体の認識にかかる時間を短縮することが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態にかかる情報提示システム1の構成例を示す説明図である。 同実施形態にかかるウェアラブル装置100の外観を示す説明図である。 同実施形態にかかる情報提示システム1を利用したアプリケーションの表示例を示す説明図である。 同実施形態の比較例の動作を示す説明図である。 同実施形態にかかるウェアラブル装置100の構成例を示す説明図である。 同実施形態にかかるサーバ200の構成例を示す説明図である。 同実施形態にかかる物体情報取得処理を説明するための説明図である。 同実施形態にかかる情報提示処理を説明するための説明図である。 同実施形態にかかるユーザの視界予測処理を説明するための説明図である。 同実施形態にかかる情報提示システム1の動作例を説明するための説明図である。 同実施形態にかかる情報提示システム1の動作例を説明するための説明図である。 同実施形態にかかる変形例1を説明するための説明図である。 同実施形態にかかる変形例2を説明するための説明図である。 同実施形態にかかる変形例2を説明するための説明図である。 同実施形態にかかる変形例2を説明するための説明図である。 同実施形態にかかる変形例2を説明するための説明図である。 同実施形態にかかる変形例3を説明するための説明図である。 同実施形態にかかるウェアラブル装置100のハードウェア構成例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<<1.本開示の一実施形態による情報提示システムの概要>>
<<2.背景>>
<<3.構成>>
<3−1.ウェアラブル装置の構成>
<3−2.サーバの構成>
<<4.動作>>
<4−1.物体情報取得処理>
<4−2.情報提示処理>
<4−3.ユーザの視界予測処理>
<<5.変形例>>
<5−1.変形例1>
<5−2.変形例2>
<5−3.変形例3>
<<6.ハードウェア構成例>>
<<7.むすび>>
<<1.本開示の一実施形態にかかる情報提示システムの概要>>
まず、図面を参照しながら本開示の一実施形態にかかる情報提示システムの概要を説明する。図1は、本開示の一実施形態にかかる情報提示システムの構成例を示す説明図である。
図1に示したように、本開示の一実施形態にかかる情報提示システム1は、ウェアラブル装置100、サーバ200、通信網3を有する情報処理システムである。図1に示したように、ウェアラブル装置100、サーバ200は、通信網3を介して相互に接続される。本実施形態にかかる情報提示システム1は、ウェアラブル装置100のユーザに対する情報提示を行う。例えば、情報提示システム1は、当該ユーザの視界に存在する物体に関する情報を当該ユーザに提示する。
ウェアラブル装置100は、通信網3を介してユーザに対して提示すべき情報をサーバ200から受信する。例えば、ウェアラブル装置100は通信網3を介して画像をサーバ200に送信し、通信網3を介して当該画像に含まれる物体(被写体)に関する物体情報をサーバ200から受信してもよい。上記の物体情報には、当該物体についての画像特徴量情報と、ユーザに提示すべき当該物体に関する情報(当該物体の付加情報)が含まれてもよい。また、ウェアラブル装置100は、画像に基づいて、当該画像に含まれる物体についての検索(物体認識)を行ってもよい。
図2は、ウェアラブル装置100の外観を示す説明図である。図2に示すように、ウェアラブル装置100は、ズームカメラ110、ステレオカメラ160、表示部190を有する眼鏡型の情報処理装置である。ウェアラブル装置100は、ズームカメラ110またはステレオカメラ160により撮影された撮影画像に基づき、表示部190に情報を表示することで、ユーザに対する情報提示を行う。ズームカメラ110や、ステレオカメラ160は、ウェアラブル装置100のユーザの視界方向を向いているため、ユーザの視界を撮影することが可能である。表示部190は、例えばシースルーディスプレイであってもよい。
サーバ200は、物体情報を記憶する第一の記憶部を有する情報処理装置である。サーバ200は、通信網3を介してユーザに対して提示すべき情報をウェアラブル装置100に送信する。例えば、サーバ200は、通信網3を介してウェアラブル装置100から撮影画像を受信し、当該撮影画像に含まれる物体の検索(物体認識)を行い、通信網3を介してウェアラブル装置100に当該撮影画像に含まれる物体に関する物体情報を送信してもよい。
通信網3は、通信網3に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網3は、インターネット、電話回線網、衛星通信網等の公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)等を含んでもよい。また、通信網3は、IP−VPN(Internet Protocol−Virtual Private Network)等の専用回線網を含んでもよい。
図3は、上記で概要を説明した、本実施形態にかかる情報提示システム1を利用したアプリケーションの表示例を示す説明図であり、ウェアラブル装置100を装着したユーザの視界を示している。ユーザの視界に存在する物体B1(雑誌)に対応した適切な位置に重畳するように、当該物体B1に関する情報U1(雑誌名、価格)がウェアラブル装置100の表示部190に表示されている。情報U1が物体B1と正確に対応付けられて表示されることで、ユーザは情報U1が物体B1に関する情報を提示していることを直感的に理解することが可能になる。
<<2.背景>>
以上、本開示の一実施形態による情報提示システム1の概要を説明した。続いて、本実施形態による情報提示システム1の創作に至った背景を説明する。
情報提示システム1のように、ユーザの視界に存在する物体に対応するように情報を提示する際、情報提示までに多大な処理時間を要する場合があった。情報提示までに必要な処理時間は、処理装置の処理性能や物体を認識するための特徴量辞書(画像特徴量情報)のサイズ等によって異なり、例えば処理性能が低い場合や、特徴量辞書が大きい場合には、多大の処理時間が必要である。
上述した情報提示システム1では、例えばウェアラブル装置100よりも処理性能の高いサーバ200で物体認識処理を行うことで、ウェアラブル装置100が物体認識を行う場合と比較して物体認識(被写体の認識)にかかる処理時間を短縮することが可能である。しかし、上記の場合、ウェアラブル装置100とサーバ200との間の通信にかかる処理時間が必要であるため、十分に情報提示までに必要な処理時間を短縮することは困難であった。
情報提示までに必要な処理時間が大きい場合、タイミングよく情報を提示することができず、例えばユーザにとって不要な情報が提示されてしまう場合があった。例えば、ユーザが移動中の場合には、ユーザの視界は刻一刻と変化するため、情報提示までに必要な処理時間が大きい場合には、既にユーザの視界に含まれていない物体に関する情報(ユーザにとって不要な情報)がユーザに提示されてしまう場合があった。
ユーザの視界に含まれていない物体に関する情報をユーザに提示しないためには、例えば、物体認識処理の後に、ウェアラブル装置がユーザの視界に当該物体が含まれているか否かを判定し、情報提示の可否判断を行う方法が有用であると考えられる。
図4は、本実施形態の比較例であって、物体認識処理の後に、ウェアラブル装置がユーザの視界に当該物体が含まれているか否かを判定し、情報提示の可否判断を行う例の動作を示す説明図である。以下では、図4を参照して、本比較例の動作を説明する。
まず、本比較例によるウェアラブル装置は、第一の時点でユーザの視界を撮影し、第一の撮影画像を取得する(S602)。取得された第一の撮影画像は、ウェアラブル装置から本比較例によるサーバに送信される(S604)。撮影画像を受信したサーバは、当該第一の撮影画像に含まれる物体についてサーバが有する第一の記憶部に含まれる物体情報から検索(物体認識)を行う(S606)。
続いて、当該撮影画像に含まれる物体に関する物体情報がサーバからウェアラブル装置に送信される(S608)。ここで、当該物体情報には、当該物体についての画像特徴量情報と、ユーザに提示すべき当該物体に関する情報(当該物体の付加情報)が含まれてもよい。物体情報を受信したウェアラブル装置は、ウェアラブル装置が有する第二の記憶部に当該物体情報を記憶させる(S610)。
続いて、ウェアラブル装置は、第二の時点で再度ユーザの視界を撮影し、第二の撮影画像を取得する(S612)。さらに、ウェアラブル装置は、ステップS612で取得された第二の撮影画像に、第二の記憶部に記憶された物体が含まれるか否かを判定する(S614)。上記の判定は、例えばウェアラブル装置がサーバから受信し、第二の記憶部に記憶されたについての画像特徴量情報を用いて、第二の撮影画像から抽出された画像特徴量情報に対してマッチング処理を行い、マッチングされた物体は撮影画像に含まれると判定することで行われてもよい。上記のウェアラブル装置が有する第二の記憶部に記憶された画像特徴量情報は、サーバが有する第一の記憶部に記憶された画像特徴量情報と比較すると十分に小さいため、ステップS614で行われるウェアラブル装置によるマッチング処理は短時間で行われる。
第二の撮影画像に第二の記憶部に記憶された物体が含まれると判定された場合(S614においてYES)、ウェアラブル装置は当該物体の情報を当該物体に重畳するように表示する(S616)。一方、第二の撮影画像に第二の記憶部に記憶された物体が含まれないと判定された場合(S614においてNO)、ウェアラブル装置は物体に関する情報の表示を行わず、処理はステップS602に戻る。
以上のように、図4に示した本実施形態の比較例によれば、ユーザの視界に含まれていない物体に関する情報をユーザに提示することを防ぐことが可能である。しかし、ユーザの移動速度が速く、ユーザの視界の変化が大きい場合には、ステップS614においてウェアラブル装置が有する記憶部に記憶済の物体が含まれないと判定されて情報表示が行われないことが多くなる場合がある。その結果、ウェアラブル装置がユーザに多くの情報を提示することができず、情報提示頻度が低下する恐れがある。
そこで、上記事情を一着眼点にして本実施形態を創作するに至った。本実施形態によれば、情報提示頻度を向上させることが可能である。以下、このような効果を有する本実施形態の構成について詳細に説明する。
<<3.構成>>
以上、本実施形態による情報提示システム1の創作に至った背景を説明した。続いて、本実施形態による情報提示システム1が有するウェアラブル装置100とサーバ200の構成について順次説明する。
<3−1.ウェアラブル装置の構成>
図5は、本実施形態にかかるウェアラブル装置100の構成例を示す説明図である。図5に示すように、ウェアラブル装置100は、ズームカメラ110、センサ部120、予測部130、通信部140、記憶部150、ステレオカメラ160、判定部170、表示制御部180、表示部190を備える。
(ズームカメラ)
ズームカメラ110は画像を取得するカメラモジュールである。ズームカメラ110は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を用いて実空間を撮像することにより、物体識別のための画像を生成(撮影)する。また、ズームカメラ110は、ズーム倍率を変化させて(すなわち焦点距離を変化させて)撮影することが可能であり、例えば広角画像や望遠画像を撮影することが可能である。例えば、本実施形態におけるズームカメラ110は、ズーム倍率を調整することで、現在のユーザの位置よりも前方の位置にユーザが存在すると仮定した場合のユーザの視界と同程度の画角で画像を撮影することが可能である。
また、ズームカメラ110は、後述する予測部130による第一の時点での予測処理の予測結果に基づく撮像を実行し、予測結果画像を取得する。例えば、ズームカメラ110は、予測部130から、ズームに関するパラメータを含む撮像パラメータを受け取り、当該撮像パラメータを用いて(当該撮像パラメータに応じたズーム倍率による)撮像を実行し、予測視界画像(予測結果画像)を取得する。
(センサ部)
センサ部120は、ウェアラブル装置100の位置及び方向(ユーザの姿勢)の認識を支援するセンサ群である。例えば、センサ部120は、センサ部120は、ウェアラブル装置100の傾き角を測定するジャイロセンサ、3軸加速度を測定する加速度センサを含んでもよい、または方位を測定する地磁気センサを含んでもよい。また、センサ部120は、GPS(Global Positioning System)信号を受信してウェアラブル装置100の緯度、経度及び高度を測定するGPSセンサを含んでもよい。また、センサ部120は、無線アクセスポイントから受信される無線信号の強度に基づいてウェアラブル装置100の位置を測定する測位センサを含んでもよい。なお、ウェアラブル装置100が画像認識に基づく位置推定機能及び姿勢推定機能を有する場合には、センサ部120はウェアラブル装置100の構成から省略されてもよい。
(予測部)
予測部130は、第一の時点でユーザの視界状態を予測する、予測処理を行い、当該予測処理の予測結果に基づいて、当該ユーザの視界状態に対応する画像である予測結果画像の取得を制御する。ユーザの視界状態は、例えば、ユーザの視界(ユーザが目で見ることが可能な現実世界の範囲)、ユーザの注視点、ユーザの注視領域、ユーザの目の焦点、ユーザの眼の輻輳度合い、などであってもよい。本実施形態における予測部130は、ユーザの視界を予測し、ズームカメラ110を制御してユーザの視界に対応する予測視界画像(予測結果画像)をズームカメラ110に取得させる。取得された予測視界画像は、後述する通信部140からサーバ200に送信され、サーバ200は予測視界画像を解析して、予測視界画像に含まれる物体(被写体)の認識を行う。ここで、予測部130がユーザに関する予測に基づいて予測視界画像を取得させることで、例えば、ユーザが将来視界に捉える物体や、ユーザが将来興味を持つ物体等を、ユーザが視界に捉えるよりも先に解析することが可能になる。
本実施形態にかかる予測部130は、第一の時点から所定時間後のユーザの視界を予測する、予測処理を行い、予測された視界に対応する予測視界画像が取得されるように制御する。予測された視界に対応する予測視界画像が取得されることにより、ユーザが将来視界に捉える物体を、ユーザが視界に捉えるよりも先に解析することが可能になる。
なお、上記の所定時間は、例えば、予測処理が行われてから通信部140が画像特徴量情報(第一の画像情報)を含む物体情報を取得するまでに必要な時間以上であるように設定されてもよい。予測処理が行われてから通信部140が画像特徴量情報(第一の画像情報)を含む物体情報を取得するまでに必要な時間は、例えば前回の当該処理でかかった時間や、過去の当該処理でかかった時間の平均時間が用いられてもよい。上記のように設定することで、ユーザが将来視界に捉える物体に関する物体情報を、ユーザが視界に捉えるよりも先に取得し、記憶部150に記憶することが可能となる。その結果、ユーザが実際に当該物体を視界に捉えた際に、タイミングよく情報を提示することが可能になるという効果が得られる。
また、予測部130は、ユーザの移動に関する移動情報に基づいて、ユーザの視界状態を予測する予測処理を行ってもよい。例えば、予測部130は、センサ部120から受け取った方向情報、加速度情報、または位置情報等の移動情報に基づいて、所定時間後のユーザの位置を予測し、当該位置におけるユーザの視界を予測してもよい。
また、予測部130は、予測処理の予測結果に基づいて、第一の時点での撮影におけるズームカメラ110の撮像パラメータを決定してもよい。例えば、撮像パラメータはズームに関するパラメータを含み、予測部130は、予測された将来のユーザの視界に対応する画角になるように、撮像パラメータを決定してもよい。
上記のように撮像パラメータを決定することで、予測部130は、ズームカメラ110に将来のユーザの視界を撮影させて予測視界画像を取得させることが可能となる。
例えば、予測部130は、予測された所定時間後のユーザの位置と現在のユーザの位置との差の進行方向(前方)成分と、撮像パラメータと、を予め対応付けたマップを参照して、撮像パラメータを決定してもよい。また、予測部130は、ステレオカメラ160の撮影により取得されるユーザと被写体の距離に基づき、予測された所定時間後のユーザの位置でユーザの視界に含まれる被写体の範囲をズームカメラ110が撮影するように、撮像パラメータを決定してもよい。
(通信部)
通信部140は、ウェアラブル装置100によるサーバ200との間の通信を仲介する通信インタフェースである。通信部140は、任意の無線通信プロトコルまたは有線通信プロトコルをサポートし、例えば図1を参照して説明した通信網3を介してサーバ200との間の通信接続を確立する。それにより、ウェアラブル装置100がサーバ200に予測視界画像を送信し及びサーバ200から、画像特徴量情報(第一の画像情報)と付加情報を含む物体情報を受信することが可能となる。すなわち、通信部140は、第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得する取得部としての機能を有する。
(記憶部)
記憶部150は、半導体メモリまたはハードディスク等の記憶媒体により構成され、ウェアラブル装置100による処理のためのプログラム及びデータを記憶する。例えば記憶部150は、第一の時点での撮影により得られた予測視界画像に含まれる物体についてサーバ200が有する第一の記憶部から検索された物体情報を記憶する第二の記憶部としての機能を有する。
(ステレオカメラ)
ステレオカメラ160(撮像部)は、2つの画像を同時に取得するカメラモジュールである。ステレオカメラ160は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を2つ用いて実空間を撮像することにより、2つの画像を同時に生成(撮影)することが可能である。2つの撮像素子は水平に並べられており、取得された2つの画像を解析することで、実空間の深度情報を取得可能である。ステレオカメラ160はウェアラブル装置100を装着したユーザの視界と同等の画角を有してもよく、ステレオカメラ160により撮影される範囲はユーザの視界とみなされてもよい。
本実施形態にかかるステレオカメラ160は、第一の時点よりも後の第二の時点での撮像を実行し、第二の画像情報として現在のユーザの視界に対応する現視界画像を取得する。ここで、現視界画像は、予測視界画像とは異なる方法で取得される。具体的には、予測視界画像は、ズームカメラ110が予測部130から受け取った撮像パラメータに応じたズーム倍率により第一の時点で撮像を実行して得られた画像であり、現視界画像は上記のようにステレオカメラ160による撮影により得られた画像である。なお、本開示において、現視界画像を予測視界画像とは異なる方法で取得する例はこれに限定されず、その他の例については変形例として後述する。
(判定部)
判定部170は、現視界画像に記憶済の物体が含まれるか否かを判定する。本実施形態にかかる判定部170は、記憶部150に記憶された物体情報に含まれる画像特徴量情報(第一の画像情報)に対応する物体(被写体)の情報が、現視界画像(第二の画像情報)に含まれるか否かを判定することで、上記の判定を行う。判定部170は、上記の判定の結果を表示制御部180に提供する。
例えば、判定部170は、現視界画像(第二の画像情報)から抽出された画像特徴量情報と、記憶部150に記憶された物体情報が含む当該物体(被写体)についての画像特徴量情報(第一の画像情報)とをマッチングすることで、上記の判定を行ってもよい。
(表示制御部)
表示制御部180は、判定部170の判定結果に基づいて、表示部190の表示を制御する。例えば、表示制御部180は、判定部170により現視界画像に記憶済の物体が含まれると判定された場合に、上記物体情報に含まれる当該物体の付加情報を物体に重畳して表示部190に表示させる。
上記のように、第二の時点で実行される撮像により得られた現視界画像に、記憶部150に記憶済みの物体が含まれるか否かを判定し、当該判定に基づいて表示制御を行うことで、ユーザの視界に含まれていない物体に関する情報の提示を防ぐことが可能となる。
(表示部)
表示部190は、表示制御部180による制御を受けて表示を行う。表示部190は例えばシースルーディスプレイ等であってもよい。表示部190は、表示制御部180による制御を受けて、例えば、物体の付加情報を当該物体に重畳して表示する。
<3−2.サーバの構成>
図6は、本実施形態にかかるサーバ200の構成例を示す説明図である。図6に示すように、サーバ200は、通信部210、認識部220、記憶部230を備える。
(通信部)
通信部210は、サーバ200によるウェアラブル装置100との間の通信を仲介する通信インタフェースである。通信部210は、任意の無線通信プロトコルまたは有線通信プロトコルをサポートし、例えば図1を参照して説明した通信網3を介してウェアラブル装置100との間の通信接続を確立する。それにより、サーバ200がウェアラブル装置100から予測視界画像を受信し及びウェアラブル装置100に物体情報を送信することが可能となる。
(認識部)
認識部220は、第一の時点での予測処理の予測結果に基づいて得られた予測視界画像に含まれる物体(被写体)について、後述する記憶部230から検索を行う。例えば、認識部220は、通信部210を介してウェアラブル装置100から受信した予測視界画像から画像特徴量情報を抽出し、当該画像特徴量情報と、記憶部230が有する画像特徴量情報とのマッチング処理を行うことで、上記の検索を行ってもよい。
また、認識部220は上記の検索により検索された、予測視界画像に含まれる物体に関する物体情報を記憶部230から抽出し、通信部210を介してウェアラブル装置100に提供する。
本実施形態において、サーバ200はウェアラブル装置100と比較して処理性能が高いことが期待されるため、サーバ200の認識部220が上記の検索(物体認識)処理を行うことで、検索にかかる処理時間を短縮する効果が得られる。
(記憶部)
記憶部230は、半導体メモリまたはハードディスク等の記憶媒体により構成され、サーバ200による処理のためのプログラム及びデータを記憶する。例えば記憶部230は、物体に関する物体情報を記憶する第二の記憶部としての機能を有する。物体情報には、複数の物体を認識(識別)するための画像特徴量情報と、ユーザに提示すべき当該物体に関する情報(当該物体の付加情報)が含まれてもよい。サーバ200が有する記憶部230は、ウェアラブル装置100が有する記憶部150よりも大容量であり、より多くの物体に関する物体情報を記憶可能であることが期待される。そのため、記憶部230に記憶された物体情報を用いてが上記の検索処理を行うことで、より多数の物体についての検索を行うことが可能となり、ウェアラブル装置100による情報提示頻度が向上する効果が得られる。
<<4.動作>>
以上、本開示の一実施形態にかかる情報提示システム1の構成例について説明した。続いて、図7〜11を参照して、本開示の一実施形態にかかる情報提示システム1の動作例について説明する。本実施形態にかかる情報提示システム1は、図7に示す物体情報取得処理と、図8に示す情報提示処理を並列的に(同時に)処理する。以下では、物体情報取得処理と、情報提示処理及び、物体情報取得処理に含まれるユーザの視界予測処理について説明した後、上記の処理による情報提示システム1の具体的な動作例について順次説明する。
<4−1.物体情報取得処理>
図7は、本実施形態にかかる物体情報取得処理を説明するための説明図である。
まず、ウェアラブル装置100の予測部130が、所定時間後のユーザの視界を予測し、当該予測に基づいてズームカメラ110が予測視界画像を取得する(S110)。このユーザの視界予測処理については図11を参照して後述する。取得された予測視界画像は、ウェアラブル装置からサーバに送信される(S120)。予測視界画像を受信したサーバ200は、当該予測視界画像に含まれる物体について、サーバ200の記憶部230から検索(物体認識処理)を行う(S130)。
続いて、当該予測視界画像に含まれる物体に関する物体情報がサーバ200からウェアラブル装置100に送信される(S140)。通信部140が取得部としての機能を発揮することで、画像特徴量情報(第一の画像情報)を含む物体情報を受信(取得)したウェアラブル装置100は、ウェアラブル装置100の記憶部150に物体情報を記憶する(S150)。
なお、以上のステップS110〜150の処理は繰り返し行われてもよい。
<4−2.情報提示処理>
図8は、本実施形態にかかる情報提示処理を説明するための説明図である。図8に示したステップS210〜230の情報提示処理は、ウェアラブル装置100によって行われる。
まず、ウェアラブル装置100のステレオカメラ160が、ユーザの視界を撮影して、現視界画像を取得する(S210)。続いて、判定部170は、現視界画像に、記憶部150に記憶済の物体が含まれるか否かを判定する(S220)。上記の判定は、例えば記憶部150に記憶された物体情報に含まれる画像特徴量情報(第一の画像情報)を用いて、現視界画像から抽出された画像特徴量情報に対してマッチング処理を行い、マッチングされた物体の情報は現視界画像(第二の画像情報)に含まれると判定することで行われてもよい。なお、ウェアラブル装置100が有する記憶部150に記憶される画像特徴量情報は、サーバが有する記憶部230に記憶された画像特徴量情報と比較すると十分に小さいため、ステップS220で行われる判定部170によるマッチング処理は短時間で行われる。
ここで、現視界画像に、記憶部150に記憶済みの物体が含まれると判定された場合、表示制御部180は、当該物体の物体情報に含まれる付加情報を当該物体に重畳して表示部190に表示させる。一方、現視界画像に記憶部150に記憶済みの物体が含まれないと判定された場合、表示制御部180は表示部190に付加情報を表示させず、処理はステップS210に戻る。
なお、以上のステップS210〜230の処理は繰り返し行われてもよい。
<4−3.ユーザの視界予測処理>
図9は、図7を参照して説明したウェアラブル装置100によるユーザの視界予測処理(S110)をさらに詳細に説明するための説明図である。
まず、予測部130は、センサ部120から受け取った方向情報、加速度情報、または位置情報等の移動情報等に基づいて、ユーザが移動中であるか否かを判定する(S112)。ユーザが移動中ではないと判定された場合(S112においてNO)、処理はS112に戻る。
一方、ユーザが移動中であると判定された場合(S112においてYES)、予測部130は、センサ部120から受け取った方向情報、加速度情報、または位置情報等の移動情報等に基づいて、ユーザの所定時間後の位置を予測する(S114)。なお、上記の所定時間は、例えば、予測処理が行われてから通信部140が画像特徴量情報(第一の画像情報)を含む物体情報を取得するまでに必要な時間以上であるように設定されてもよい。
続いて、予測部130は、ステップS114で予測された位置におけるユーザの視界を予測し、予測されたユーザの視界と同等の画角になるように、ズームに関するパラメータを含む撮像パラメータを設定する(S116)。続いて、予測部130が、ズームカメラ110に上記撮像パラメータを提供し、ズームカメラ110は、当該撮像パラメータに基づいて予測されたユーザの視界を撮影することで予測視界画像を取得する(S118)。
<4−4.動作例>
以上、本実施形態にかかる情報提示システム1の各処理を説明した。続いて、上記の処理による具体的な動作例について図10、11を参照して説明する。図10、11は、本実施形態にかかる情報提示システム1の動作例を説明するための説明図である。
図10、11において、時刻t1は第一の時点であり、図7、9を参照して説明したユーザの視界予測処理(S110)が行われた時刻である。時刻t2は第二の時点であり、図8を参照して説明した情報提示処理(S210〜S230)が行われた時刻である。また、時刻t2は、時刻t1に行われたユーザの視界予測処理において予測される時刻t1から所定時間後の時刻でもある。なお、ここで情報提示処理(S210〜S230)は十分に短時間で行われたものとする。
時刻t1において、時刻t2におけるユーザの視界予測が行われ、ズームカメラ110の画角は図10左のようになる。ここで、予測部130は、時刻t2におけるユーザ(すなわちウェアラブル装置100)の位置を予測し、当該位置におけるユーザの視界(すなわちステレオカメラ160の画角)とズームカメラ110の画角が同等となるように撮像パラメータを決定する。時刻t1でズームカメラ110の撮影により、図11に示したような撮影画像(予測視界画像)が得られる。
その後、時刻t2において、ユーザの視界がステレオカメラ160によって現視界画像が撮影される。さらに、現視界画像に物体情報取得処理において記憶された物体(時刻t1のズームカメラ110の撮影画像に含まれていた物体)が含まれていた場合、情報が物体に重畳表示される。
ここで、図10に示すように、時刻t1でのズームカメラ110が実行する撮像の範囲と、時刻t2でのステレオカメラ160が実行する撮像の範囲は同等である。したがって、図11に示すように時刻t2のステレオカメラ160の撮影画像(現視界画像)は時刻t1のズームカメラ110の撮影画像(予測視界画像)と同様である。その結果、現視界画像には予測視界画像に含まれていた物体が含まれるため、図11に示すように当該物体の情報が重畳表示される。
<<5.変形例>>
以上、本開示の一実施形態を説明した。以下では、本実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本実施形態に適用されてもよいし、組み合わせで本実施形態に適用されてもよい。また、各変形例は、本実施形態で説明した構成に代えて適用されてもよいし、本実施形態で説明した構成に対して追加的に適用されてもよい。
<5−1.変形例1>
上記では、判定部170によるユーザの視界(現視界画像)に記憶済の物体が含まれるか否かの判定が、画像特徴量情報に対応する被写体の情報が現視界画像に含まれるか否か判定することで行われる例を説明したが、本技術は上記の例に限定されない。
例えば、判定部170は、第一の時点での前記予測処理の予測結果に基づいてズームカメラ110により実行される撮像の範囲(第一の撮像範囲)と、第二の時点でステレオカメラ160により実行される撮像の範囲(第二の撮像範囲)の比較に基づいて、現視界画像に当該物体が含まれるか否かを判定してもよい。例えば、判定部170は、第一の撮像範囲が第二の撮像範囲に含まれていれば、現視界画像に当該物体が含まれると判定してもよい。また、第一の撮像範囲における当該物体の位置を取得し、当該物体の位置が、第二の撮像範囲に含まれていれば、現視界画像に当該物体が含まれると判定してもよい。
また、判定部170は、ズームカメラ110とステレオカメラ160の焦点距離から得られる画角と、センサ部120から得られる方向情報、及び加速度情報に基づいて、上記の第一の撮像範囲と、第二の撮像範囲の比較を行ってもよい。例えば、判定部170は、ステレオカメラ160の撮影により取得されるユーザと被写体の距離と、上記画角、方向情報、及び加速度情報を用いることで、各時点で各カメラにより実行される撮像の範囲(撮像範囲)を算出してもよい。
上記のように、撮像範囲の比較により、ユーザの視界(現視界画像)に記憶済の物体が含まれるか否かの判定を行うことで、例えばユーザの視界に含まれるが、ユーザが当該物体をまだ認識していない時点で、情報を提示することも可能になる。図12は、ユーザが当該物体をまだ認識していない時点で、当該物体の情報を提示するアプリケーションの例を示す説明図である。
図12に示すように、かかる構成によれば、ユーザが物体B2をまだ認識していない(当該物体から距離が離れた)状態において、物体B2の情報U2を提示することが可能である。また、ユーザのWeb閲覧履歴や行動履歴等の情報に基づいてユーザが求める情報を取得できる場合には、ユーザが求める情報と、記憶済みの物体の情報に基づいて、図12に示すようにユーザが求める物体B2への誘導を行うことも可能である。
なお、判定部170が、第二の時点でズームカメラ110の撮影により得られた画像と第二の記憶部に記憶された画像特徴量情報を用いたマッチング処理に基づいて、上記の判定を行うことで、上記と同様の効果を得ることも可能である。
<5−2.変形例2>
上記では、物体情報取得処理において、予測部130によるユーザの視界の予測、及び予測視界画像(予測結果)の取得が、ユーザの位置の予測と、撮像パラメータの決定に基づいて行われる例を説明したが、本技術は上記の例に限定されない。
例えば、センサ部120がユーザの視線情報(視線方向、注視領域等)を取得可能な視線センサを含み、予測部130は、視線情報に基づいて、ユーザの視界を予測する予測処理を行ってもよい。視線情報に基づいてユーザの視界を予測することで、ユーザが将来向かうであろう当該ユーザが興味を持っている領域(興味領域)に含まれる物体を事前に解析することが可能である。
また、予測部130は上記予測による予測結果に基づいて、第一の時点での撮影により得られた画像から一部領域を抽出し、予測視界画像として抽出された一部領域の画像を取得してもよい。上記の視線情報に基づく視界予測の例に即せば、ユーザの視線情報に含まれる注視領域を上記の一部領域として抽出して、予測視界画像を取得することが可能である。かかる構成によれば、ユーザの注視領域がズーム倍率の変化のみでは対応できない領域(例えば画像の隅付近の領域)であった場合にも、予測視界画像を取得することが可能である。また、ウェアラブル装置が、ズーム倍率を変化させて(すなわち焦点距離を変化させて)撮影する機能を有するカメラを備えない場合であっても予測視界画像を取得することが可能である。すなわち、上記実施形態では、第一の時点での撮影と、第二の時点での撮影が、異なるカメラによって行われる例を説明したが、第一の時点での撮影と、第二の時点での撮影は同一のカメラ(例えばステレオカメラ160)によって行われてもよい。
図13、14は、ユーザの視線情報に含まれる注視領域を上記の一部領域として抽出して、予測視界画像を取得する例を説明するための説明図である。図13に示すように、ユーザの注視領域は領域G1である。この時、図14に示すように、ステレオカメラ160による撮影画像から、領域G1が抽出され、予測視界画像が取得される。
また、予測部130は、周囲と異なる移動ベクトルを有する領域をユーザの興味領域として予測し、予測結果画像として予測された興味領域に対応する画像が取得されるように制御してもよい。例えば、予測部130は、ステレオカメラ160により撮影された画像の移動ベクトルを解析し、移動ベクトルの平均と閾値以上に異なる移動ベクトルを有する領域をユーザの興味領域としてもよい。また、予測部130は、上記画像に対して、事前に人物や車両等の物体検出を行い、検出された物体領域において移動ベクトルの解析を行ってもよい。
かかる構成によれば、また、人間は周囲と異なる移動ベクトルを有する領域に注意を向けやすいため、上記のような視線センサを用いずにユーザの興味領域を取得することが可能である。また、周囲とは異なる領域は、異常が発生している領域である可能性が高いため、周囲と異なる領域を事前に解析することで、危険回避のための情報提示を行うことが可能である。
図15、16は、周囲と異なる移動ベクトルを有する領域をユーザの興味領域として予測する例を説明するための説明図である。
図15は、スキー場において、人物H1〜4が類似する移動ベクトルで前方に移動しており、人物H5が転倒している状況でのアプリケーションの表示例である。予測部130は、画像に対して、事前に人物の物体検出を行い、検出された物体領域(H1〜5に対応する領域)において移動ベクトルの解析を行った結果、人物H5の領域が他と異なる移動ベクトルを有していた。そこで、予測部130は人物H5の領域を抽出して予測結果画像として取得した。サーバ200による物体認識の結果、人物H5は転倒者として認識され、図15に示すように、ユーザの前方に転倒者が存在することを注意喚起する情報が提示されている。
図16は、道路において、車両C1〜C3が類似する移動ベクトルで前方に移動しており、車両C4が事故により停止している状況でのアプリケーションの表示例である。予測部130は、画像に対して、事前に車両の物体検出を行い、検出された物体領域(C1〜4に対応する領域)において移動ベクトルの解析を行った結果、車両C4の領域が他と異なる移動ベクトルを有していた。そこで、予測部130は車両C4の領域を抽出して予測結果画像として取得した。サーバ200による物体認識の結果、車両C4は転倒者として認識され、図16に示すようにユーザの前方に事故車が存在することを注意喚起する情報が提示されている。
<5−3.変形例3>
上記では、ウェアラブル装置100(情報提示機器)が有するカメラによって予測視界画像が取得される例を説明したが、本技術は上記の例に限定されない。情報提示機器の外部にあるカメラを用いて予測視界画像が取得されてもよい。
図17は、情報提示機器の外部にあるカメラを用いて予測視界画像が取得される例を示す説明図である。図17に示す例では、ユーザ、及び情報提示機器は車両400内に搭載される。また、図17に示す例では、本実施形態で説明したウェアラブル装置に相当する情報提示機器として、ヘッドアップディスプレイを備える車載端末が用いられてもよい。
情報提示機器は図17に示す車両400内に搭載され、通信網3を介してサーバ200、及びライブカメラ5と接続される。情報提示機器は車両400のナビゲーション機能を有し、例えばユーザにより入力された目的地までのルート情報を取得する。ここで、情報提示機器はルート情報に基づき、車両400はルートR1のように移動することを予測し、所定時間後のユーザの視界に対応する予測視界画像として、移動先の付近に設置されたライブカメラ5の撮影画像を取得してもよい。
かかる構成によれば、所定時間後のユーザの視界に対応する予測視界画像が、現時点のユーザの位置からでは取得できない場合であっても、外部カメラを用いて予測視界画像を取得することが可能である。
<<6.ハードウェア構成例>>
以上、本開示の一実施形態と各変形例を説明した。上述した物体情報取得処理、情報提示処理、ユーザの視界予測処理等の情報処理は、ソフトウェアと、以下に説明するウェアラブル装置100のハードウェアとの協働により実現される。
図18は、ウェアラブル装置100のハードウェア構成を示す説明図である。図18に示したように、ウェアラブル装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、入力装置104と、出力装置105と、ストレージ装置106と、撮像装置107と、通信装置108とを備える。
CPU101は、演算処理装置及び制御装置として機能し、各種プログラムに従ってウェアラブル装置100内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。ROM102は、CPU101が使用するプログラムや演算パラメータ等を記憶する。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバス等から構成されるホストバスにより相互に接続されている。主に、CPU101、ROM102及びRAM103とソフトウェアとの協働により、予測部130、判定部170、表示制御部180、の機能が実現される。
入力装置104は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等ユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路等から構成されている。ウェアラブル装置100のユーザは、該入力装置104を操作することにより、ウェアラブル装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置105は、例えば、液晶ディスプレイ(LCD)装置、OLED装置及びランプ等の表示装置を含む。さらに、出力装置105は、スピーカ及びヘッドホン等の音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像等を表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。出力装置105は、図5を参照して説明した表示部190に対応する。
ストレージ装置106は、データ格納用の装置である。ストレージ装置106は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。ストレージ装置106は、CPU101が実行するプログラムや各種データを格納する。ストレージ装置106は、図5を参照して説明した記憶部150に対応する。
撮像装置107は、光を集光する撮影レンズ及びズームレンズ等の撮像光学系、及びCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等の信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。撮像装置107は、図5を参照して説明したズームカメラ110、ステレオカメラ1600に対応する。
通信装置108は、例えば、通信網に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置108は、無線LAN(Local Area Network)対応通信装置、LTE(Long Term Evolution)対応通信装置、有線による通信を行うワイヤー通信装置、またはブルートゥース通信装置を含んでもよい。通信装置108は、図5を参照して説明した通信部140に対応する。
なお、上記ではウェアラブル装置100のハードウェア構成を説明したが、サーバ200も、ウェアラブル装置100と同様に、CP101、ROM102及びRAM103等に相当するハードウェアを有する。そして、サーバ200のハードウェアとソフトウェアとの協働により、例えば認識部220の機能が実現される。
<<7.むすび>>
以上説明したように、本開示の実施形態によれば、被写体の認識にかかる時間を短縮することで、撮影から情報提示までの時間が短縮され、タイミングよく情報を提示することが可能である。また、将来のユーザの視界に含まれる物体や、ユーザが興味を持つ物体を事前に解析して記憶することで、情報提示頻度を向上させることが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、情報提示端末として眼鏡型のウェアラブル装置が用いられる例を説明したが、本技術はかかる例に限定されない。例えば、情報提示端末は、スマートフォン、タブレットPC、車載端末などであってもよい。
また、上記実施形態では、物体情報取得処理における物体情報の検索がサーバによって行われる例を説明したが、本技術はかかる例に限定されない。例えばウェアラブル装置が第一の記憶部と第二の記憶部を有し、第一の記憶部は物体情報を十分に記憶し、ウェアラブル装置は第一の記憶部から上記の検索を行い、第二の記憶部に検索された物体情報を記憶してもよい。かかる構成によれば、サーバとウェアラブル装置との間の通信が不要となるため、例えばウェアラブル装置が十分な処理性能を有していた場合には、全体的な処理時間の短縮効果が得られる。
また、上記実施形態では、ズームカメラが、ズーム倍率を変化させて撮影する機能を有し、予測部がズームカメラのズームに関するパラメータを含む撮像パラメータを決定する例を説明したが、本技術はかかる例に限定されない。例えば、ズームカメラは、ズーム倍率の変化に加えてパン、チルトのような撮影方向を変更する機能を有し、予測部はパン、チルトに関するパラメータを含む撮像パラメータを決定してもよい。かかる構成によれば、予測部によって予測されるユーザの視界が、現在のズームカメラの撮影方向では撮影困難な場合であっても、撮影方向の変更により、予測されたユーザの視界を撮影することが可能である。
また、上記実施形態では、ウェアラブル装置にズームカメラやステレオカメラが備えられて用いられた例を説明したが、本技術はかかる例に限定されない。例えば、より広角な範囲を撮影可能な、全天球カメラなどが用いられてもよい。
また、上記実施形態では、移動情報として、方向情報、加速度情報、位置情報が用いられた例を説明したが、本技術はかかる例に限定されない。予測部がユーザの視界の予測に利用する移動情報は、ユーザのルート情報、行動履歴情報、スケジュール情報等を含んでもよい。かかる構成によれば、将来のユーザの位置や視界について、より高精度に予測することが可能である。
また、上記実施形態では、通信部140(取得部)が取得する第一の画像情報が、予測結果画像(予測視界画像)に含まれる被写体についての画像特徴量情報である例を説明したが、本技術はかかる例に限定されない。第一の画像情報は、例えば、予測結果画像であってもよいし、予測結果画像から抽出される一部領域の画像であってもよい。
また、上記実施形態では、第二の画像情報が、ステレオカメラ160(撮像部)の撮像により得られる現視界画像である例を説明したが、本技術はかかる例に限定されない。第二の画像情報は、例えば、現視界画像から抽出される画像特徴量情報であってもよい。判定部170は、上記のような第一の画像情報と第二の画像情報の種類に応じて、画像同士の比較や、画像から抽出される画像特徴量情報のマッチング等を行うことで、判定処理を行ってもよい。
また、上記実施形態における各ステップは、必ずしもシーケンス図やフローチャート図として記載された順序に沿って時系列に処理する必要はない。例えば、上記実施形態の処理における各ステップは、シーケンス図やフローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、ウェアラブル装置100、及びサーバ200に内蔵されるCPU、ROM及びRAM等のハードウェアに、上述したウェアラブル装置100、及びサーバ200の機能を発揮させるためのコンピュータプログラムも作成可能である。特に、ウェアラブル装置100がコンピュータプログラムをダウンロード及びインストールすることにより、ウェアラブル装置100に認識部220の機能が実装されてもよい。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得する取得部と、
前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かを判定する判定部と、
を備える、情報処理装置。
(2)
前記第一の画像情報は、前記第一の時点での前記予測処理の予測結果に基づく撮像により得られる予測結果画像、前記予測結果画像から抽出される一部領域の画像、前記予測結果画像に含まれる被写体についての画像特徴量情報、のうち少なくともいずれか一つを含む、前記(1)に記載の情報処理装置。
(3)
前記予測結果画像は、前記ユーザの視界状態に対応する画像である、前記(2)に記載の情報処理装置。
(4)
前記第一の時点での前記予測処理の予測結果に基づく撮像は、前記予測結果に基づいて決定される撮像パラメータを用いて実行される、前記(2)または(3)に記載の情報処理装置。
(5)
前記撮像パラメータは、パン、チルト、ズーム、のうち、少なくともいずれか一つに関するパラメータを含む、前記(4)に記載の情報処理装置。
(6)
前記予測処理は、前記ユーザの移動に関する移動情報に基づいて前記ユーザの視界状態を予測する処理である、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記移動情報は、方向情報、加速度情報、位置情報、ルート情報、行動履歴情報、スケジュール情報のうち、少なくともいずれか一つを含む、前記(6)に記載の情報処理装置。
(8)
前記予測処理は、前記ユーザの視線情報に基づいて、前記ユーザの視界状態を予測する処理である、前記(1)〜(5)のいずれか一項に記載の情報処理装置。
(9)
前記予測処理は、前記第一の時点から所定時間後の前記ユーザの視界状態を予測する処理であり、前記所定時間は、前記予測処理が行われてから前記取得部が前記第二の画像情報を取得するまでに必要な時間以上であるように設定される、前記(1)〜(8)のいずれか一項に記載の情報処理装置。
(10)
前記判定部は、さらに、前記第一の時点での前記予測処理の予測結果に基づく撮像の範囲と、前記第二の時点で実行される撮像の範囲の比較に基づいて、前記被写体の情報が前記第二の画像情報に含まれるか否かを判定する、前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記判定部は、画角、方向情報、及び加速度情報のうち少なくともいずれか一つに基づいて、前記比較を行う、前記(10)に記載の情報処理装置。
(12)
前記予測処理を行う予測部をさらに備える、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記判定部の判定結果に基づいて、表示部の表示を制御する表示制御部をさらに備える前記(1)〜(12)のいずれか一項に記載の情報処理装置。
(14)
第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得することと、
前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かをプロセッサが判定することと、
を含む、情報処理方法。
(15)
コンピュータに、
第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得する処理と、
前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かを判定する処理と、
を行わせるための、プログラム。
1 情報提示システム
3 通信網
100 ウェアラブル装置
110 ズームカメラ
120 センサ部
130 予測部
140 通信部
150 記憶部
160 ステレオカメラ
170 判定部
180 表示制御部
190 表示部
200 サーバ
210 通信部
220 認識部
230 記憶部

Claims (15)

  1. 第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得する取得部と、
    前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かを判定する判定部と、
    を備える、情報処理装置。
  2. 前記第一の画像情報は、前記第一の時点での前記予測処理の予測結果に基づく撮像により得られる予測結果画像、前記予測結果画像から抽出される一部領域の画像、前記予測結果画像に含まれる被写体についての画像特徴量情報、のうち少なくともいずれか一つを含む、請求項1に記載の情報処理装置。
  3. 前記予測結果画像は、前記ユーザの視界状態に対応する画像である、請求項2に記載の情報処理装置。
  4. 前記第一の時点での前記予測処理の予測結果に基づく撮像は、前記予測結果に基づいて決定される撮像パラメータを用いて実行される、請求項2に記載の情報処理装置。
  5. 前記撮像パラメータは、パン、チルト、ズーム、のうち、少なくともいずれか一つに関するパラメータを含む、請求項4に記載の情報処理装置。
  6. 前記予測処理は、前記ユーザの移動に関する移動情報に基づいて前記ユーザの視界状態を予測する処理である、請求項1に記載の情報処理装置。
  7. 前記移動情報は、方向情報、加速度情報、位置情報、ルート情報、行動履歴情報、スケジュール情報のうち、少なくともいずれか一つを含む、請求項6に記載の情報処理装置。
  8. 前記予測処理は、前記ユーザの視線情報に基づいて、前記ユーザの視界状態を予測する処理である、請求項1に記載の情報処理装置。
  9. 前記予測処理は、前記第一の時点から所定時間後の前記ユーザの視界状態を予測する処理であり、前記所定時間は、前記予測処理が行われてから前記取得部が前記第二の画像情報を取得するまでに必要な時間以上であるように設定される、請求項1に記載の情報処理装置。
  10. 前記判定部は、さらに、前記第一の時点での前記予測処理の予測結果に基づく撮像の範囲と、前記第二の時点で実行される撮像の範囲の比較に基づいて、前記被写体の情報が前記第二の画像情報に含まれるか否かを判定する、請求項1に記載の情報処理装置。
  11. 前記判定部は、画角、方向情報、及び加速度情報のうち少なくともいずれか一つに基づいて、前記比較を行う、請求項10に記載の情報処理装置。
  12. 前記予測処理を行う予測部をさらに備える、請求項1に記載の情報処理装置。
  13. 前記判定部の判定結果に基づいて、表示部の表示を制御する表示制御部をさらに備える請求項1に記載の情報処理装置。
  14. 第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得することと、
    前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かをプロセッサが判定することと、
    を含む、情報処理方法。
  15. コンピュータに、
    第一の時点でユーザの視界状態を予測する、予測処理に基づいて得られる、第一の画像情報を取得する処理と、
    前記第一の画像情報に対応する被写体の情報が、前記第一の時点よりも後の第二の時点で実行される撮像部の撮像により得られる第二の画像情報に含まれるか否かを判定する処理と、
    を行わせるための、プログラム。
JP2015074087A 2015-03-31 2015-03-31 情報処理装置、情報処理方法、プログラム Pending JP2016195323A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015074087A JP2016195323A (ja) 2015-03-31 2015-03-31 情報処理装置、情報処理方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015074087A JP2016195323A (ja) 2015-03-31 2015-03-31 情報処理装置、情報処理方法、プログラム

Publications (1)

Publication Number Publication Date
JP2016195323A true JP2016195323A (ja) 2016-11-17

Family

ID=57323044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015074087A Pending JP2016195323A (ja) 2015-03-31 2015-03-31 情報処理装置、情報処理方法、プログラム

Country Status (1)

Country Link
JP (1) JP2016195323A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633009A (zh) * 2018-06-22 2019-12-31 索尼互动娱乐股份有限公司 用于显示虚拟对象的方法和系统
US10616549B2 (en) 2017-06-23 2020-04-07 Samsung Electronics Co, Ltd. Application processor for disparity compensation between images of two cameras in digital photographing apparatus
JP7040827B1 (ja) 2021-01-14 2022-03-23 株式会社ロックガレッジ 捜索支援システムおよび救助支援プログラム
WO2023112587A1 (ja) * 2021-12-14 2023-06-22 株式会社Nttドコモ 情報処理装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10616549B2 (en) 2017-06-23 2020-04-07 Samsung Electronics Co, Ltd. Application processor for disparity compensation between images of two cameras in digital photographing apparatus
US11228748B2 (en) 2017-06-23 2022-01-18 Samsung Electronics Co., Ltd. Application processor for disparity compensation between images of two cameras in digital photographing apparatus
CN110633009A (zh) * 2018-06-22 2019-12-31 索尼互动娱乐股份有限公司 用于显示虚拟对象的方法和系统
JP2020004407A (ja) * 2018-06-22 2020-01-09 株式会社ソニー・インタラクティブエンタテインメント 仮想オブジェクトを表示するための方法およびシステム
JP7465067B2 (ja) 2018-06-22 2024-04-10 株式会社ソニー・インタラクティブエンタテインメント 仮想オブジェクトを表示するための方法およびシステム
CN110633009B (zh) * 2018-06-22 2024-05-21 索尼互动娱乐股份有限公司 用于显示虚拟对象的方法和系统
JP7040827B1 (ja) 2021-01-14 2022-03-23 株式会社ロックガレッジ 捜索支援システムおよび救助支援プログラム
JP2022108823A (ja) * 2021-01-14 2022-07-27 株式会社ロックガレッジ 捜索支援システムおよび救助支援プログラム
WO2023112587A1 (ja) * 2021-12-14 2023-06-22 株式会社Nttドコモ 情報処理装置

Similar Documents

Publication Publication Date Title
US11961297B2 (en) Terminal device, information processing device, object identifying method, program, and object identifying system
CN111602140B (zh) 分析由头戴式设备的相机记录的图像中的对象的方法
US9451062B2 (en) Mobile device edge view display insert
EP3140716B1 (en) Portable electronic equipment and method of controlling a portable electronic equipment
US20160180599A1 (en) Client terminal, server, and medium for providing a view from an indicated position
US20130208004A1 (en) Display control device, display control method, and program
KR20110032765A (ko) 휴대용 단말기에서 영상인식 및 센서를 이용한 서비스 제공 방법 및 장치
US20150186426A1 (en) Searching information using smart glasses
WO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
CN109844600B (zh) 信息处理设备、信息处理方法和程序
WO2018087462A1 (fr) Dispositif individuel d'immersion visuelle pour personne en mouvement avec gestion des obstacles
JP2016195323A (ja) 情報処理装置、情報処理方法、プログラム
US20130229535A1 (en) Client terminal, server, and program
CN109791432A (zh) 推迟影响图形用户界面的信息的状态改变直至不专注的情况期间
CN108881846B (zh) 信息融合方法、装置及计算机可读存储介质
EP2831702B1 (en) Information processing device, information processing method and program
JP6208977B2 (ja) 情報処理装置、通信端末およびデータ取得方法
JP2021184115A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP5977697B2 (ja) 電子機器、および電子機器を制御するための方法
JP5849762B2 (ja) 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム
JP2019012152A (ja) 表示制御システム、表示システム、表示制御方法、プログラム、及び移動体
JP4926301B1 (ja) 画像描画装置、画像描画方法及び画像描画プログラム
CN116164746A (zh) 基于vo的位姿解算方法、装置、设备及产品