JP2014044476A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2014044476A
JP2014044476A JP2012184949A JP2012184949A JP2014044476A JP 2014044476 A JP2014044476 A JP 2014044476A JP 2012184949 A JP2012184949 A JP 2012184949A JP 2012184949 A JP2012184949 A JP 2012184949A JP 2014044476 A JP2014044476 A JP 2014044476A
Authority
JP
Japan
Prior art keywords
motion vector
user
unit
target object
recognition target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012184949A
Other languages
English (en)
Other versions
JP6011154B2 (ja
Inventor
Nobuyuki Hara
伸之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012184949A priority Critical patent/JP6011154B2/ja
Publication of JP2014044476A publication Critical patent/JP2014044476A/ja
Application granted granted Critical
Publication of JP6011154B2 publication Critical patent/JP6011154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】
ユーザの動作の分散が大きい場合においても、ロバスト性の低下を抑制させることが可能となる画像処理装置を提供する。
【解決手段】
画像処理装置は、ユーザに拘持され、ユーザの視野方向の画像データを取得する取得部と、画像データに含まれる認識対象物体を認識する認識部を備える。更に画像処理装置は、認識部が認識した認識対象物体に対応する特徴点の位置変動量を、取得時間が異なる複数の画像データから算出し、位置変動量から認識部が認識した認識対象物体の動きベクトルを算出する第1算出部を備える。更に画像処理装置は、動きベクトルに基づいてユーザの動作方向を判定する判定部と、判定部が判定したユーザの動作方向毎の動きベクトルの分散を算出する第2算出部を備える。更に画像処理装置は、ユーザの動作方向により選択される複数の選択情報を、分散に基づいて所定の位置に表示する表示部を備える。
【選択図】図1

Description

本発明は、例えば、ユーザの動作の判定に用いる画像処理装置、画像処理方法に関する。
近年、情報通信技術の発展に伴い、現実環境(外界)を撮像した画像にコンピュータを用いて視覚情報を付加して表示する、拡張現実に関する技術の開発が行われている。視覚情報の表示には、主に、外界の画像を取得するカメラを装着したHMD(Head Mounted Display)等のウェアラブル装置が利用されており、ユーザの視野方向に存在する物体に関する詳細な情報(以下、付帯情報と称する)を、外界の画像に重畳して表示することが行われている。付帯情報には、物体の外観から得られる情報の他に、物体の外観からは現れない情報、例えば物体の製造された環境、物体に対する他のユーザの評判などの情報が含まれる。
ここで、複数の付帯情報の中からユーザが任意の一つの付帯情報を選択的に取得する場合においては、ユーザからの入力手段への操作が必要となる。入力手段の一例としては、マウスやキーボード等の従来型の入力手段を使用することが可能であるが、簡便かつ効率的な入力方法としてユーザの動作(ジェスチャ)を入力手段とする方法が注目されている。ユーザの動作を入力手段とする例としては、加速度センサを用いて手指の動作を判定するものや、ウェアラブル装置に搭載された視線検出装置により視線の動きを判定するものが存在する。
また、ハンズフリーやアイズフリーによるユーザの動作の認識が可能となる、頸部(頭部を含む)の動作を用いる方法も注目されている。頸部の動作による認識方法においては、頷きや拒否といった、実際の人間の日常動作における意思を反映させたユーザの動作を用いることが可能である。
頸部の動作を用いる方法においては、外部に設置されたセンサから頸部の位置を発見し、頸部の動作を判定する方法が開示されている。また、ユーザの頸部に加速度センサを取り付けて、加速度センサから得られる値を解析することによって頸部の動作を判定する方法も開示されている。
上述のユーザの動作を検知する技術においては、外界の画像を取得するカメラの他に、外部センサや加速度センサ等の更にもう一つのセンサが必要となり、利便性の低下やコストが高くなる為、外界の画像を取得するカメラの画像のみで、ユーザの動作を認識する方法も開示されている。
特開平10−214346号公報 特開2011−14082号公報 特開2006−243784号公報
呉海元ら、「色彩動画像からの頭部ジェスチャ認識システム」、情報処理学会論文誌、Vol.40、No.2、pp.577−584、1999 Moteki, A. et al, "Poster: Head Gesture 3D Interface Using a Head Mounted Camera" In proceedings of the 7th IEEE Symposium on 3D User Interfaces (3DUI), pp.151−152, March 2012.
上述のユーザの外界の画像を取得するカメラの画像のみで、ユーザの動作を認識する方法は、取得した画像から得られる動きベクトルの時間変化パターン(実測パターン)と、予め規定されるユーザの動きに対する動きベクトルの時間変化パターン(モデルパターン)を比較してユーザの動作を判定している。
本発明者らの検証によって、実測パターンとモデルパターンの比較において、実測パターンとモデルパターンの差異が拡大し誤判定が発生し、ロバスト性が低下する場合が存在することが新たに判明した。
その一つは実測パターンを生成する時のユーザの動作の分散(ばらつき)が大きい場合である。分散が大きくなる場合の例示の一つとして、疲労等により身体状態が正常でない場合が挙げられる。他には、カメラがユーザの頭部に装着されて画像を取得する時に、認識対象物体がユーザの頭上や足下に存在し、頭部の向きが身体の向きと異なる状態の場合である。この場合は、ジェスチャを意識した動作であっても、ジャスチャと判定されない誤判定(判定漏れ)が生じることになりユーザの利便性が低下する。この様な、誤判定を抑止する方法としては、実測パターンとモデルパターンの比較に用いる類似度判定の閾値を広げることも対応策として考えられるが、意識しない動作まで首振りジェスチャと誤判定(過剰判定)する場合が増加する為、必ずしも適切な対応策とはならない。その他の対応策として、モデルパターンの自動更新や追加も考えられるが、分散が大きい場合は、適切なモデルパターンの生成自体が困難である。
本発明は、ユーザの動作の分散が大きい場合においても、ロバスト性の低下を抑制させることが可能となる画像処理装置を提供することを目的とする。
本発明が開示する画像処理装置は、ユーザに拘持され、ユーザの視野方向の画像データを取得する取得部と、画像データに含まれる認識対象物体を認識する認識部を備える。更に当該画像処理装置は、認識部が認識した認識対象物体に対応する特徴点の位置変動量を、取得時間が異なる複数の画像データから算出し、位置変動量から認識部が認識した認識対象物体の動きベクトルを算出する第1算出部を備える。更に当該画像処理装置は、動きベクトルに基づいてユーザの動作方向を判定する判定部と、判定部が判定したユーザの動作方向毎の動きベクトルの分散を算出する第2算出部を備える。更に当該画像処理装置は、ユーザの動作方向により選択される複数の選択情報を、分散に基づいて所定の位置に表示する表示部を備える。
なお、本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成されるものである。また、上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を制限するものではないことを理解されたい。
本明細書に開示される画像処理装置では、ユーザの動作の分散が大きい場合においても、ロバスト性の低下を抑制させることが可能となる。
一つの実施形態による画像処理装置の機能ブロック図である。 認識部の物体認識処理のフローチャートである。 認識部が対応付けた特徴点のデータ構造の一例を示す図である。 (a)は、取得部が取得した画像データと認識部が対応付けた特徴点群と、認識部が対応付けた記憶部に記憶されている認識対象物体の特徴点群の概念図である。(b)は、ロバスト性を向上させた特徴点のデータ構造の一例を示す図である。 第1算出部の認識対象物体の特徴点の位置変動量と動きベクトル算出処理のフローチャートである。 (a)は、判定部の認識対象物体の動きベクトルに基づく、ユーザの動作判定のフローチャートである。(b)は、認識対象物体の動きベクトルとユーザの動作を対応付けたユーザ動作対応テーブルである。 認識対象物体とユーザ動作と選択情報を対応付けたテーブルである。 認識部の注視物体の選定処理のフローチャートである。 (a)は、認識部が認識した認識対象物体の特徴点と、ホモグラフィ行列による射影変換後の認識対象物体を内包する四端点と、記憶部に予め記憶されている認識対象物体の四端点の対応関係を示す図である。(b)は、ホモグラフィ行列による射影変換後の認識対象物体を内包する四端点の位置と、記憶部に予め記憶されている認識対象物体四端点の位置のデータ構造の一例を示す図である。 判定部による動きベクトルの時間変化パターン生成処理のフローチャートを示した図である。 (a)は、判定部が生成した動きベクトルの時間変化パターンの一例である。(b)は、判定部が予め有している動きベクトルの時間変化パターンの一例を示す図である。 (a)は、第2の動きベクトルの時間変化パターンのフレーム番号と動きベクトルのデータ構造の一例を示す図である。(b)は、第1の動きベクトルの時間変化パターンのフレーム番号と動きベクトルのデータ構造の一例である。 ユーザが携帯端末を注視しながら、頸部を横に振る動作を行った場合のユーザの一連の動作と、取得部が取得する画像データを示す図である。 (a)は、図13のユーザ動作の往路と復路を加味して判定部が生成した第2の動きベクトルの時間変化パターンの例である。(b)は、ユーザ動作の往路と復路を加味した第1の動きベクトルの時間変化パターンである。 (a)は、認識対象物体とユーザ動作と選択情報、選択情報が選択された選択回数・割合、分散、判定成功・失敗回数、総合判定成功率を対応付けたテーブルである。(b)は、(a)に示すテーブルを選択回数と分散に基づいて、選択情報の並び変えを実施したテーブルを示す。 (a)は、表示部に表示する選択情報の初期位置を示す。(b)は、選択回数と分散に基づいて表示位置を変更した選択情報の表示位置を示す。 選択情報の表示位置変更処理のフローチャートである。 一つの実施形態による画像処理装置の第1のハードウェア構成図である。 一つの実施形態による画像処理装置の第2のハードウェア構成図である。
以下に、一つの実施形態による画像処理装置、画像処理装置及び画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例は開示の技術を限定するものではない。
図1は、一つの実施形態による画像処理処置装置1の機能ブロックを示す図である。画像処理装置1は、記憶部2、取得部3、認識部4、第1算出部5、判定部6、第2算出部7、表示部8ならびに制御部9を有する。
記憶部2は、例えば、フラッシュメモリ(flash memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。なお、記憶部2は、上記の種類の記憶装置に限定されるものではなく、RAM(Random Access Memory)、ROM(Read Only Memory)であってもよい。記憶部2には、外界に存在し、認識処理の対象となる複数の認識対象物体(看板、商品、樹木等)の特徴点が、予め認識対象物体を撮像した画像から抽出されて記憶されている。更に、認識対象物体に関する付帯情報と、該付帯情報に対応付けられる選択情報、該選択情報に対応するユーザの動作方向も予め記憶されている。なお、特徴点には後述する特徴点位置、方向、特徴量ベクトル等の情報が含まれる。
なお、記憶部2は、説明の便宜上、画像処理装置1の内部に配置しているが、ネットワークを介してアクセス可能となる様に、画像処理装置1の外部に配置することも可能である。また、記憶部2には、後述する制御部9で実行される各種プログラム、例えばOS(Operating System)などの基本ソフトや画像処理の動作が規定されたプログラムが記憶される。さらに、記憶部2は、先に述べたプログラムの実行に必要なデータなども記憶される。
取得部3は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像デバイスである。取得部3は、例えば、ユーザの頸部に拘持または、装着されてユーザの視野方向の画像データを取得する。
認識部4は、例えば、ワイヤードロジックによるハードウェア回路である。また、認識部4は、制御部9で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。認識部4は、取得部3が取得する複数の画像データから特徴点を抽出して、抽出した特徴点と記憶部2に記憶されている認識対象物体の特徴点を対応付けることにより、取得部3が取得する複数の画像データに含まれている少なくとも一つの認識対象物体を認識する。なお、認識部4が実行する認識対象物体の認識処理の詳細フローについては後述する。
第1算出部5は、例えば、ワイヤードロジックによるハードウェア回路である。また、第1算出部5は、制御部9で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。第1算出部5は、認識部4が認識した認識対象物体における特徴点の位置変動量を、取得部3が取得する取得時間が異なる複数の画像データから算出する。そして、第1算出部5は、該位置変化量から、認識部4が認識した認識対象物体の動きベクトルを算出する。
ここで、特徴点の位置変動量の定義について説明する。先ず、複数の画像データのそれぞれ(個々の画像データ)を、フレームとして定義する。特徴点の位置変動量は、ある時刻フレームtに存在する少なくとも一つの任意の特徴点の位置を基点とし、前時刻フレームt−1または、後時刻フレームt+1における当該任意の特徴点の位置を終点とした場合における基点から終点までの変動量を位置変動量と定義する。なお、第1算出部5が実行する特徴点の位置変動量と認識対象物体の動きベクトル算出処理の詳細フローについては後述する。
判定部6は、例えば、ワイヤードロジックによるハードウェア回路である。判定部6は、制御部9で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。判定部6は、第1算出部5が算出した認識対象物体の動きベクトルに基づいてユーザの動作方向を判定する。具体的には、判定部6は、図示しない判定部のキャッシュまたはメモリ等に、認識対象物体の動きベクトルとユーザの動作方向を対応付けたユーザ動作対応テーブルを保持しており、該テーブルに基づいてユーザの動作方向を判定する。例えば、認識対象物体の動きベクトルが右方向に所定の画像データ数の区間で移動している場合は、ユーザは左方向に頸部を振ったと判定する。なお、判定部6の認識対象物体の動きベクトルに基づく、ユーザの動作判定の詳細フローについては後述する。
なお、一般的に、人間の頷き等の頸部の動作は、個人差はあるものの概ね1秒程度であることから、判定部6によるユーザの動作の判定処理は例えば1秒に一回行えば良い。また、ユーザの動作の時間を予め観測して、観測された時間を判定処理に用いることも可能である。
表示部8は、例えば、ディスプレイなどの表示デバイスである。表示部8は、判定部6が判定したユーザの動作方向に対応した複数の選択情報と、当該複数の選択情報に対応付けられた認識対象物体の付帯情報を記憶部2から受信し、認識部4が認識した認識対象物体に重畳して表示する。
第2算出部7は、例えば、ワイヤードロジックによるハードウェア回路である。また、第2算出部7は、制御部9で実行されるコンピュータプログラムにより実現される機能モジュールであっても良い。第2算出部7は、判定部6が判定したユーザの動作方向の分散を、第1算出部が算出する認識対象物体の動きベクトルに基づいて算出する。なお、分散の算出方法の詳細は後述する。また、第1算出部5と第2算出部7は、図1に示す通り、各々独立した機能として構成させても良いし、機能を統合させて一つの算出部として構成させても良い。
制御部9は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路、または、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路である。制御部9は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。制御部9は、図1に示すように、認識部4と、第1算出部5と、判定部6と、第2算出部7とを有する。
図2は、認識部4の物体認識処理のフローチャートである。先ず、認識部4は、取得部3から取得時間が異なる複数の画像データを受信し、複数の画像データのそれぞれ(フレーム毎)から特徴点を抽出する(ステップS101)。なお、抽出される特徴点は通常複数である為、複数の特徴点の集合を特徴点群と定義する。
ステップS101において抽出する特徴点は、記述子(descriptor)と呼ばれる特徴点ごとの特徴量ベクトルが計算される特徴点であれば良い。例えば、SIFT(Scale Invariant Feature Transform)特徴点や、SURF(Speeded Up Robust Features)特徴点を使用することが可能である。なお、SIFT特徴点の抽出方法については、例えば、米国特許第6、711、293号に開示されている。SURFの抽出方法については、例えば、H.Bay、et.al.「SURF:Speeded Up Robust Features」、Computer Vision and Image Understanding、 Vol.110、 No.3、 pp.346−359、2008に開示されている。
次に認識部4は、ステップS101で認識部4が抽出した特徴点群と、記憶部2に記憶されている全て認識対象物体の特徴点群との照合が完了しているか否かを判断する(ステップS102)。なお、記憶部2に記憶されている認識対象物体の特徴点群は、予め上述のSIFT特徴点やSURF特徴点が記憶されているものとする。認識部4は、ステップS102において、照合が完了していない場合は、記憶部2に予め記憶されている任意の一つの認識対象物体を選択する(ステップS103)。次に、認識部4は、ステップS103おいて選択した認識対象物体の特徴点群を記憶部2から読み出す(ステップS104)。認識部4は、ステップS104で抽出した特徴点群から、任意の一つの特徴点を選択する(ステップS105)。
認識部4は、ステップS105で選択した一つの特徴点と、ステップS104で読み出して選択した認識対象物体の特徴点の対応付けを探索する。探索方法としては、一般的な対応点探索によるマッチング処理を用いれば良い。具体的には、認識部4は、ステップS105で選択した一つの特徴点と、ステップS104で読み出した選択した認識対象物体の特徴点群それぞれの距離dを計算する(ステップS106)。
次に、認識部4は、特徴点の対応付けの妥当性の判定を行う為に閾値判定を行う。具体的には、ステップS106において、算出した距離dの最小値d1と、2番目に最小となる値d2を算出する。そして、認識部4は、閾値判定となるd1とd2の距離が所定の距離以上(例えばd1がd2に0.6を乗算した値よりも小さい値)かつd1が所定の値以下(例えば0.3以下)の条件を満たしているか否かを判定する(ステップS107)。認識部4は、ステップS107で閾値判定の条件を満たしている場合は、特徴点の対応付けを行う(ステップS108)。条件を満たしていない場合は、特徴点の対応付けを行わず、ステップS109に処理を進める。
認識部4は、ステップS104で読み出した特徴点群と、ステップS101で抽出した特徴点群を全て照合したかを判定する(ステップS109)。照合処理が完了した場合(ステップS109−YES)、認識部4は、ステップS102において、全ての照合が終了した場合は、ステップS110に処理を進める。照合処理が完了していない場合(ステップS109−NO)、認識部4は、ステップS105に処理を進める。そして、認識部4は、ステップS108で対応付けた特徴点の個数に基づいて取得部3が取得した画像に含まれる少なくとも一つの認識対象物体を認識する(ステップS110)。
この様にして、認識部4は取得部3が取得した画像データから、該画像データに含まれる少なくとも一つの認識対象物体を認識する。
更に、認識部4は、取得部が取得する複数の画像データのすべてにおいて上述の認識処理を行わずに、所定時間毎に認識処理を行うキーフレームを定めることで処理コストを削減させることが可能となる。
図3は、認識部4が対応付けた特徴点のデータ構造の一例を示す図である。図3において、特徴点位置は画像のある基準位置(例えば画像の左上)を原点とした場合における基準位置からの距離(x、y)で定義される。方向は、基準位置に対する特徴点の方向で定義される。特徴量ベクトルは、色や形状などの複数の特徴量(例えば128次元)の集合で定義される。認識部4は、図2のステップS108において、図3に示す様に、取得部3が取得した画像から抽出した特徴点群と、記憶部2から選択した一つの認識対象物体の特徴点群とを対応IDを用いて対応付けを行う。
図4(a)は、取得部3が取得した画像データと認識部4が対応付けた特徴点群(左)と、認識部4が対応付けた記憶部2に記憶されている認識対象物体の特徴点群(右)の概念図である。図4(a)において、対応付けた特徴点を●(黒丸)または○(白丸)で示している。●は、記憶部2に記憶されている正規の特徴点と正しく一致できた特徴点、○は誤った対応付け(誤一致)した特徴点を表している。この様に、物体認識においては、稀に背景の特徴点と認識対象物体の特徴点を対応付ける誤一致が発生することが想定され得る。
そこで、認識部4は、ロバスト性を更に向上させる為、すべての特徴点集合(U0)のうち、特徴点位置(x、y)の両方の座標値が、集合U0の平均値±Nσ内に収まっている特徴点集合U1を認識処理に用いても良い。具体的には、特徴点集合(U0)から、座標平均(xave、 yave)および偏差σx、σyを算出する。その後、物体領域として採用する特徴点範囲をxave±Nσx、yave±Nσyに限定することで、極端に平均座標から遠い(誤一致と推定される)特徴点を除外することが可能となる。ここで、Nは例えば2.5とする。図4(b)は、ロバスト性を向上させた特徴点のデータ構造の一例を示す図である。ID5のデータは、図4(a)の○(白丸)の特徴点に対応する。ID5のデータが削除されることにより、認識部4の認識処理のロバスト性が更に向上する。
図5は、第1算出部5の認識対象物体の特徴点の位置変動量と、動きベクトル算出処理のフローチャートである。先ず、第1算出部5は、認識部4が認識した認識対象物体の特徴点群の中から、認識対象物体の特徴点の位置変動量を算出する特徴点を選出する(ステップS201)。認識部4が認識した認識対象物体の特徴点のすべてを用いることも可能であるし、処理コストを考慮した任意の数の特徴点を選定することも可能である。
次に第1算出部5は、ステップS201で選定した各特徴点の位置変動量(x’、y’)を、例えばオプティカルフローを用いて算出する(ステップS202)。オプティカルフローとは、異なる時間に撮像された連続した画像データのフレーム間で同じ特徴点の対応付けを行い、その移動量をベクトルデータとして示したものを指す。オプティカルフローには、ブロックマッチング法や勾配法等の公知の技術を用いることが可能である。なお、第1算出部5は、ステップS202における、認識対象物体の特徴点の位置変動量の算出のロバスト性を向上させる為に、必要に応じて移動量の上限を設定して、移動量の妥当性を判断しても良い。
次に第1算出部5は、ステップS202で算出した各特徴点の位置変動量を平均化して、その値から認識対象物体の動きベクトル(x’’、y’’)を算出する(ステップS203)。動きベクトルのデータ構造は、例えば、現時刻のフレームtの動きベクトルは(9.3、−3.9)、過去時刻のフレームt−1の動きベクトルは(9.9、−2.8)、過去時刻のフレームt−2の動きベクトル(8.1、−1.3)の様なデータ構造となる。この場合、3フレーム連続して動きベクトルは、x方向は斜め下方向、y方向は斜め上方向となっている。第1算出部5は、x方向とy方向の動きベクトルを合成したものを認識対象物体の動きベクトルとしても良いし、ある方向のみに着目した動きベクトルを認識対象物体の動きベクトルとしても良い。この様にして、第1算出部5は、認識対象物体における特徴点の位置変動量を複数の画像データから算出し、該位置変化量から動きベクトルを算出する。
図6(a)は、判定部6の認識対象物体の動きベクトルに基づく、ユーザの動作方向判定のフローチャートである。判定部6は、第1算出部5が算出した認識対象物体の動きベクトル(x’’ 、y’’)を、図示しない判定部のキャッシュまたはメモリに格納する(ステップS301)。次に、判定部6は、所定のフレーム数の動きベクトルを格納したか否かを判定する(ステップS302)。所定のフレーム数は、例えば30フレームである。判定部6は、ステップS302において、所定のフレーム数の動きベクトルを格納していると判定した場合、格納した動きベクトルを平均化する(ステップS303)。判定部6は、後述するユーザ動作対応テーブルを参照し、ユーザの動作方向を判定し(ステップS304)、後述する第2算出部7が分散を算出した後に、格納した動きベクトルを削除する(ステップS305)。
図6(b)は、認識対象物体の動きベクトルとユーザの動作を対応付けたユーザ動作対応テーブルである。例えば、ステップS304において、平均化して算出した動きベクトル(x’’ 、y’’)が(9.1、−2.6)だった場合について説明する。判定部6は、基準ベクトル(10、0)に最もベクトル量が近く、更に予め許容量として定めた公差範囲内(±3、±3)以内である為、ユーザは頸部を左に振ったと判定する。
図7は、認識対象物体とユーザ動作と選択情報を対応付けたテーブルである。ユーザの動作方向に対応した複数の選択情報と、当該複数の選択情報に対応付けられた認識対象物体の付帯情報は、例えば、記憶部2に記憶されているが、ネットワークを介して定期的に選択情報や付帯情報を更新しても良い。なお、付帯情報は、図示しないが、例えば、キャンペーン情報の付帯情報の場合は、実施場所、時間等の情報等を含む。また、カロリー表示の場合は、製品のカロリー量の情報等を含む。
なお、選択情報は、認識部4が認識対象物体を認識した時点で、表示部8に表示される。表示される形態は、対応付けられたユーザの動作方向に応じて表示される。例えば、図7において、認識対象物体が缶コーヒーの場合は、キャンペーン情報は、表示部8の中心から左側に表示される。また、カロリー表示は、表示部8の中心から右側に表示される。また、価格は、表示部8の中心から上側に表示され、キャンセルは表示部8の中心から下側に表示される。
付帯情報は、判定部6がユーザの動作方向を判定し、複数の選択情報から一つの選択情報が選択されたときに、当該選択された選択情報に対応付けられた認識対象物体の付帯情報を記憶部2から受信し、例えば、認識部4が認識した認識対象物体に重畳して表示される。
なお、図1の認識部4は、ユーザビリティ、処理コストならびにロバスト性向上の観点からユーザが注視していると想定される物体を一つに特定した上で、該物体の動きベクトルを算出しても良い。これにより、ユーザは、ユーザが注視する物体のみの選択情報ならびに付帯情報を、表示部8を介して確認することが可能となる為、ユーザビリティが向上する。また、画像処理の対象となる物体が一つに限定される為、認識部4の処理コストを大幅に削減することが可能となる。また、背景の物体の特徴点の位置変動量を動きベクトルとして算出することも無くなる為、ロバスト性が向上する。
図8は、認識部4の注視物体の選定処理のフローチャートである。先ず、認識部4は、認識した複数の認識対象物体の中から任意の一つの認識対象物体を選定する(ステップS401)。次に、認識部4は、取得部3が過去に取得した過去の画像データ(過去フレーム)に選択した認識対象物体が含まれているかを判定する(ステップS402)。判定方法としては、例えば、上述のSIFT特徴点やSURF特徴点を用いて、現フレームと過去フレームを用いて認識対象物体の特徴点の対応付けを行い、一定フレーム以上にわたり選択した認識対象物体の特徴点が存在しているか否かを判定すれば良い。ステップS402の処理により、例えば、ユーザが電車に乗っているとき、電車中の広告の商品を実際に注視している場合に、取得部3が取得した画像データに該商品と窓越しに背景となる樹木が含まれていた場合において、背景の樹木は注視物体候補から除外させること(ステップS406)が可能となる。
認識部4は、過去の画像データに選択した認識対象物体が含まれていると判定した場合、ステップS405に処理を進めることも可能であるが、本実施例においては、ロバスト性を更に堅牢にする為に、ステップS403とステップS404の判定処理を行う。認識部4は、ステップS401で選択した認識対象物体の位置の変動量が一定範囲内か否かを判定する(ステップS403)。また、ステップS403においては、処理コストの観点から画像データの任意の基準位置に対する認識対象物体の中心位置の変動量が一定範囲内か否かを判定しても良い。認識対象物体の中心位置は、例えば、予め記憶部2に記憶しておくことも可能であるし、画像データから得られた認識対象物体の特徴点群を矩形の外枠で囲い、その中心位置を認識対象物体の中心位置とすることも可能である。認識対象物体の位置の変動量が一定範囲内であるということは、認識対象物体が静止しており、ユーザがその認識対象物体を注視していることと等価である。
次に、認識部4は、ステップS403において、認識対象物体の位置の変動量が一定範囲外であった場合、選択した認識対象物体の面積の変動量が一定範囲内か否かを判定する(ステップS404)。認識対象物体の面積は、例えば、予め記憶部2に記憶しておくことも可能であるし、画像データから得られた認識対象物体の特徴点群を矩形の外枠で囲い、その概枠で囲われた面積を認識対象物体の面積とすることも可能である。認識対象物体の位置の変動量が一定範囲外であり、かつ、認識対象物体面積変動量が一定範囲内であるということは、ユーザまたは認識対象物体のいずれか、または双方が相対的に移動しているが、ユーザがその認識対象物体を注視していることと等価である。
認識部4は、ステップS402〜ステップS404の条件を満たす認識対象物体を注視物体候補として選定する(ステップS405)。次に、認識部4は、認識した複数の認識対象物体の全ての照合を完了したか否かを判定する(ステップS407)。認識部4は、ステップS408において、注視物体候補として選定した物体が一つだった場合は、その物体を注視物体として選定する。注視物体候補として選定した物体が複数だった場合は、例えば、画像データの中心位置に最も近い物体をその物体を注視物体として選定する。上述に開示する方法によって、ユーザビリティ、処理コストならびにロバスト性を更に向上させることが可能となる。
図1の第1算出部5は、ホモグラフィを用いた認識対象物体を内包する四端点を用いて位置変動量を算出することが可能である。なお、ホモグラフィとは3次元空間中のある平面からある平面への射影変換を表す行列である。本実施例に開示されるホモグラフィを用いる方法により、取得部3が取得する画像データに含まれる物体の大きさの影響や、斜め方向から物体を撮像した場合に生じる射影歪みの影響を低減させることが可能となる為、ロバスト性が向上する。
図9(a)には、認識部4が認識した認識対象物体の特徴点(○)と、ホモグラフィ行列による射影変換後の認識対象物体を内包する四端点(△)(左)と、記憶部2に予め記憶されている認識対象物体の四端点(△)(右)の対応関係を示す。
先ず、図3または、図4(b)に開示されている、取得部3が取得した画像から抽出した特徴点群と、記憶部2から選択した一つの認識対象物体の特徴点群を用いて、選択した一つの認識対象物体の特徴点群に対する取得した画像から抽出した特徴点群のホモグラフィを算出する。ホモグラフィの推定には、対応付けされた特徴点が最低4点必要であるが、特徴点が4点以上得られた場合には、RANSAC(RANdom SAmple Consensus)やLMedS(Least Median of Squares)による外れ値除去アルゴリズムを用いて最適な値を推定しても良い。次に、予め記憶部2には、その認識対象物体を内包する矩形の四端点の座標を与えておく。そして、その四端点に対し、上記で算出したホモグラフィを用いて射影変換を施す。すると、取得部3が取得した画像データに含まれる認識対象物体において、認識対象物体を内包する四端点の変換後の座標が推定できる。
図9(b)には、ホモグラフィ行列による射影変換後の認識対象物体を内包する四端点の位置と、記憶部2に予め記憶されている認識対象物体の四端点の位置のデータ形式の一例を示す。この四端点を用いて位置変動量を算出することで、取得部3が取得する画像データに含まれる物体の大きさの影響や、斜め方法から物体を撮像した場合に生じる射影歪みの影響を低減させることが可能となる為、ロバスト性が向上する。
図1の判定部6は、動きベクトルの時間変化パターンを用いてユーザの動作の判定することも可能である。動きベクトルの時間変化パターンを用いることで、ユーザの動作の判定に対するロバスト性を更に堅牢にすることが可能となる。図10は、第1算出部5による動きベクトルの時間変化パターン生成処理のフローチャートを示した図である。なお、判定部6は、図示しないメモリまたはキャッシュを有しており、第1算出部5が生成した動きベクトルの時間変化パターン(第2の動きベクトルの時間変化パターン)や後述するモデル時間変化パターン(第1の動きベクトルの時間変化パターン)を格納するものとする。なお、該メモリまたはキャッシュの機能を記憶部2に実行させても良い。
先ず、第1算出部5は、動きベクトルの時間変化パターンに、すでに動きベクトルが格納されているかを判定する(ステップS501)。ここで、格納されている動きベクトルは、x方向とy方向の動きベクトルを合成したスカラー量をピクセル単位として格納しても良いし、ある方向のみに着目した動きベクトルのスカラー量をピクセル単位として格納しても良い。第1算出部5は、動きベクトルが一つでも動きベクトルの時間変化パターンに格納されている場合、動きベクトルの時間変化パターンに格納されている動きベクトルの数が、規定する画像データの数(フレーム数)の最大数を満たしているかを判定する(ステップS502)。フレーム数の最大数は例えば50とする。
第1算出部5は、ステップS502で最大数を満たしていると判定した場合は、動きベクトルの時間変化パターンのフレーム数の最大数に格納されている動きベクトルを削除する(ステップS503)。次に、第1算出部5は、動きベクトルの時間変化パターンのフレーム数を一つインクリメントする。このとき、各フレームに格納している動きベクトル量もシフトさせる(ステップS504)。換言すると、動きベクトルの時間変化パターンはFIFO型のデータ構造体であり、要素数は、フレーム数の最大数となる50である。
第1算出部5は、取得部3が画像データを取得し続ける間、ステップS501〜ステップS505の処理を繰り返し実行することで、動きベクトルの時間変化パターンを作成することが可能なる。ここで、本実施例においては、第1算出部5は、ロバスト性を更に向上させる為に、ステップS504以降に以下の処理を実行する。
第1算出部は、動きベクトルが正しく算出出来たか否かを判定する(ステップS505)。詳細は後述するが、取得部が取得する画像データは、ボケなどのノイズを含む場合があり、動きベクトルを、全てのフレームにおいて算出出来ない場合も想定される。第1算出部5は、ステップS505において、第1算出部5が動きベクトルを算出できた場合は、動きベクトルの時間変化パターンの最小のフレーム番号に、第1算出部5が算出した動きベクトルを格納する(ステップS506)。また、第1算出部5は、ステップS505において、第1算出部5が動きベクトルを算出できなかった場合は、動きベクトルの時間変化パターンの最小のフレーム番号に、動きベクトル量として0を格納する(ステップS507)。
図11(a)は、判定部が生成した動きベクトルの時間変化パターンの一例であり、図11(b)は、判定部が予め有している動きベクトルの時間変化パターンの一例を示す図である。図11(a)は、具体的には、ユーザが頸部を横方向に向けた場合の動きベクトルの時間変化パターンを示している。ユーザは静止している状態から加速度をつけて頸部を横方向に捻ることで、次第に動きベクトル量が大きくなり、頸部を横方向に捻り終わる付近で、動きベクトル量が小さくなっている。
図11(b)のモデル時間変化パターンは、上記の様なユーザの頸部の動きと動きベクトルを対応付けた時間変化パターンである。モデル時間変化パターンには、予め動きベクトルを規格化して作成した時間変化パターンを用いても良いし、ユーザによる事前学習により得られた時間変化パターンを用いても良い。ユーザによる事前学習とは、例えば、予めユーザに頸部を横に振る動作を、任意の認識対象物体を注視しながら実施して貰い、その時に得られた動きベクトルの時間変化パターンをモデル時間変化パターンとすることを指す。なお、時間変化パターンの横軸の長さ(フレーム数)は、あらかじめユーザによる事前学習の段階で最適な数値を算出しておくことも可能である。なお、ユーザによる事前学習は、表示部8を用いたGUI等で実施しても良い。なお、以降の説明においては、モデル時間変化パターンを、第1の動きベクトルの時間変化パターンと称し、第1算出部5が算出する動きベクトルの時間変化パターンを、第2の動きベクトルの時間変化パターンと称することとする。
ここで、判定部6は、第1の動きベクトルの時間変化パターンと、第2の動きベクトルの時間変化パターンを比較することでユーザの動作を判定する。第1と第2の動きベクトルの時間変化パターンとの比較には、双方の動きベクトルの時間変化パターンの類似度計算を用いる。判定部6は、ユーザの様々な動作方向に対応付けた複数のモデル時間変化パターン(第1の動きベクトルの時間変化パターン)を記憶しているが、複数の第1の動きベクトルの時間変化パターンのそれぞれと、第1算出部5が算出する第2の動きベクトルの時間変化パターンとの類似度を算出して、最も類似度が大きいモデル時間変化パターンを用いてユーザの動作方向を判定することが出来る。
類似度計算には様々な方法を用いることが可能であるが、例えば、Bhattacharyya距離を用いることが出来る。Bhattacharyya距離を用いた類似度計算については、例えば、Kailath T. "The Divergence and Bhattacharyya Distance Measures in Signal Selection". IEEE Transactions on Communication Technology 15 (1) pp.52-60, 1967に開示されている。
図12(a)は、第2の動きベクトルの時間変化パターンのフレーム番号と動きベクトルのデータ構造の一例を示す図である。図12(b)は、第1の動きベクトルの時間変化パターンのフレーム番号と動きベクトルのデータ構造の一例である。図12(b)は、第1の動きベクトルの時間変化パターンのフレーム番号と動きベクトルのデータ構造の一例である。上述のBhattacharyya距離を用いた場合、類似度Dは、図12(a)(b)にそれぞれ示されるフレーム番号ならびに動きベクトルを用いて次式で表現することが出来る。
(数1)

但し、HM(f)は、第1の動きベクトルの時間変化パターンのfフレームにおける動きベクトル量、HT(f)は、第2の動きベクトルの時間変化パターンのfフレームにおける動きベクトル量、ΣfH(f)は、所定のフレーム数での動きベクトル量の総和を示す。
ここで、第1と第2の動きベクトルの時間変化パターンが完全に一致すれば、D=0となり、一致しない場合は、D>0(但し、最大値は1.0)となる。通常、第1と第2の動きベクトルの時間変化パターンが完全に一致する場合は稀である為、判定部6は、予備実験等に基づいて設定した所定の閾値(例えばD=0.2)を用いて類似度を判定しても良い。
図13は、ユーザが携帯端末を注視しながら、頸部を横に振る動作を行った場合のユーザの一連の動作と、取得部3が取得する画像データを示す図である。なお、図13はある特定のユーザのものではなく、複数のユーザの統計的な傾向を示したものである。
図13の初期位置(1)において、ユーザは携帯端末について注視しているものとする。ユーザは携帯端末を注視しながら頸部を横に振る(2)〜(6)。(2)〜(6)の区間中(3)、(4)では加速度が大き過ぎて取得部3が取得する画像データにボケが生じている。この様な画像データを用いた場合、動きベクトルを算出することは困難である。ユーザは頸部を横に振ったあとは、通常頸部を正面方向となる初期位置(1)に戻す。区間(7)〜(10)においては、比較的ボケが生じていない。この為、区間(7)〜(10)の動きベクトルを用いた方が、ユーザの動作を認識するロバスト性が向上させることが可能となる。
判定部6は、ユーザ動作の往路と復路を加味したモデルを第1の動きベクトルの時間変化パターンとして予め学習し、当該第1の動きベクトルの時間変化パターンと、ユーザ動作の往路と復路を加味した第1算出部5が算出する第2の動きベクトルの時間変化パターンを比較してユーザの動作を判定することも可能である。
図14(a)は、図13のユーザ動作の往路と復路を加味して判定部が生成した第2の動きベクトルの時間変化パターンの例である。フレーム番号5〜15の付近の区間においてボケが発生いることに起因して動きベクトルを時間変化パターンに0として格納されていることが確認できる。なお、動きベクトルを時間変化パターンに0として格納する処理は、図10のステップS507に対応する。図14(b)は、ユーザ動作の往路と復路を加味した第1の動きベクトルの時間変化パターンである。判定部6は、時間変化パターン全体の類似度を判定しても良い。また、ユーザの動作を往路と復路に切り分けて個別に類似度を判定しても良い。往路と復路の切り分けは、動きベクトルがプラスの方向からマイナスの方向に切り変わる地点を基点として切り分けることが可能である。
なお、第1の動きベクトルの時間変化パターンと第2の動きベクトルの時間変化パターンの照合処理は、往路と復路を踏まえたユーザの動作時間は60フレーム程度であることから、判定部6は2秒に1回照合処理を行えば良い。
ここで、上述の通り、本発明者らの検証によって、第1の動きベクトルの時間変化パターンと、第2の動きベクトルの時間変化パターンの比較において、第1と第2の時間変化パターンの差異が拡大することで誤判定が発生し、ロバスト性が低下する場合が存在することが新たに判明した。
その一つは、上述の通り、第2の動きベクトルの時間変化パターンを生成する時のユーザの動作の分散(ばらつき)が大きい場合である。分散が大きくなる場合の例示の一つとして、疲労等により身体状態が正常でない場合が挙げられる。他には、カメラがユーザの頭部に装着されて画像を取得する時に、認識対象物体がユーザの頭上や足下に存在し、頭部が身体の向きと異なる状態の場合である。この様な、誤判定を抑止する比較例としては、第1の動きベクトルの時間変化パターンと、第2の動きベクトルの時間変化パターンの比較に用いる閾値を広げることも比較例として考えられるが、意識しない動作まで首振りジェスチャと誤判定(過剰判定)する場合が増加する為、必ずしも適切な対応策とはならない。その他の比較例として、第1の動きベクトルの時間変化パターンの自動更新や追加処理も考えられるが、分散が大きい場合は、適切なモデルパターンとなる第1の動きベクトルの時間変化パターンの生成自体が困難である。
図15(a)は、認識対象物体とユーザ動作と選択情報、選択情報が選択された選択回数・割合、分散、判定成功・失敗回数、総合判定成功率を対応付けたテーブルである。図15(a)において、認識対象物体、ユーザ動作、選択情報は図7と同様である為、詳細な説明は省略する。選択回数は、判定部6がユーザ動作方向を判定することにより選択情報が選択された回数である。選択割合は、すべての選択情報の選択回数と、各選択情報の選択回数の割合である。分散はユーザが同一方向への動作を複数回行ったときの動作のばらつき度合いを示す。なお、当該分散は、図1の第2算出部7によって算出される。第2算出部7は、例えば、第2の動きベクトルの時間変化パターンの復路の始点と終点により規定される第2の動作時間との比率に基づいて分散を算出する。この場合は、分散σは、次式によって表現される。
(数2)

但し、Tiは、ユーザ動作i(i=1〜n)回目の第2の動きベクトルの時間変化パターンの始点と終点により規定される動作時間を示し、Taveは、ユーザ動作をn回実施した時の第2の動きベクトルの時間変化パターンの始点と終点により規定される動作時間の平均時間を示す。なお、上述の(数2)で算出される分散σを評価値2とする。
更に、第2算出部7は、図14に示される様な動きベクトルの往復動を利用して分散を算出することも出来る。具体的には、第2算出部7は、第2の動きベクトルの時間変化パターンの往路の始点と終点により規定される第1の動作時間と、第2の動きベクトルの時間変化パターンの復路の始点と終点により規定される第2の動作時間との比率に基づいて分散を算出しても良い。なお、フレーム数が60フレームと仮定した場合、往路の始点は、1フレーム目となり、終点は動きベクトルの符号が反転したフレームの一つ前のフレームが終点となる。また復路の始点は、往路において動きベクトルの符号が反転したフレームとなり、終点は60フレーム目または動きベクトルが所定フレーム(例えば5フレーム)にわたって0(または閾値以下の動きベクトル量)になったフレームを終点とする。
この場合は、分散σは、次式によって表現される。
(数3)

但し、Tfiは、ユーザ動作の往路におけるi(i=1〜n)回目の第2の動きベクトルの時間変化パターンの往路の始点と終点により規定される第1の動作時間を示す。Triは、ユーザ動作の復路におけるi回目の第2の動きベクトルの時間変化パターンの始点と終点により規定される動作時間を示す。Tfi-aveは、ユーザ動作をn回実施した時のTfiの平均時間を示し、Tri-aveは、Triの平均時間を示す。なお、上述の(数2)で算出される分散σを評価値3とする。
第2算出部7は、上述の評価値2、または評価値3の他、(数1)から算出される類似度Dから分散を算出することも可能である。但し、類似度Dの分散の計算は(数1)から明らかな通り、比較的計算の処理の負荷が大きいが、上述の評価値2または評価値3は、動作時間から分散を算出している為、小さい負荷で処理することが可能となる。また、評価値3を適用する場合、図14の往路と復路の動作時間に着目すると、動作が安定したばらつきの少ない方向(復路)での動作は、動作時間がほぼ一定の値をとるため、動作時間を動作のばらつきの評価に用いることができる。ここで、動作時間として往路と復路、合計(往復路)の3つが選択できるが、本発明者が測定評価したところ、それぞれの動作時間を所定の実行回数の平均で正規化すると、3つの動作時間の中で復路の分散が最も小さく、往路の分散が最も大きい傾向が見られるため、復路に対する往路の動作時間の比率を用いることで、ユーザ動作のばらつきを精度良く捉えることができる。
図15(a)に示された通り、本発明者らの検証により、ユーザの動作方向の分散は、ユーザ動作方向毎に異なっていることが新たに明らかとなった。この事象を利用して、分散が小さいユーザの動作方向を選択回数が多い選択情報に対応付け、分散が大きいユーザの動作方向を選択回数が少ない選択情報に対応付けることでロバスト性を向上させることが出来る。なお、図15(a)の判定成功回数と判定失敗回数は、実際のユーザの動作方向に応じて、正しい選択情報が選択されたか否かを第3者が観測して判定するという客観的評価に基づく結果である。更に、判定成功率は、全ての選択情報の選択回数の総和と、判定成功回数の総和の割合から算出される百分率である。
図15(b)は、(a)に示すテーブルを選択回数と分散に基づいて、選択情報の並び変えを実施したテーブルを示す。図15(b)において、分散が小さいユーザの動作方向を選択回数が多い選択情報に対応付け、分散が大きいユーザの動作方向を選択回数が少ない選択情報に対応付けることで、総合判定成功率が大幅に向上していることが確認された。なお、分散は、判定部6がユーザ動作方向を判定する度に第2算出部7が算出して、随時更新すれば良い。また、表示部8は分散が所定の閾値以上(例えば0.5)以上になった場合に、複数の選択項目の表示位置を変更すれば良い。なお、図15(a)、(b)に示されるテーブルは、例えば表示部8の図示しないキャッシュまたはメモリに格納されるが、第2算出部7の図示しないキャッシュまたはメモリに格納させることも可能である。
なお、表示部8は、認識部4が所定の時間以内に認識対象物体を認識しない場合に、複数の選択情報を表示させる位置を変更することで、ユーザの物体注視状況や、作業状態を反映した上で選択情報の表示位置が変更されることになりユーザビリティが向上する。また、表示部8は、認識部4が認識した第1の認識対象物体と異なる第2の認識対象物体を認識した場合に複数の選択情報を表示させる位置を変更することでも、ユーザの物体注視状況や、作業状態を反映した上で選択情報の表示位置が変更されることになりユーザビリティが向上する。
図16(a)は、表示部8に表示する選択情報の初期位置を示す。図16(a)に示される通り、複数の選択情報は、ユーザの動作方向に対応付けられる形式で表示部8に表示される。また、複数の選択情報は認識部4が認識対象物体を認識した時点で、表示部8に表示される。図16(b)は、選択回数と分散に基づいて表示位置を変更した選択情報の表示位置を示す。分散が小さいユーザの動作方向を選択回数が多い選択情報に対応付け、分散が大きいユーザの動作方向を選択回数が少ない選択情報に対応付けることで、総合判定成功率が大幅に向上させることが可能となる。
図17は、選択情報の表示位置変更処理のフローチャートである。判定部6は、第1の動きベクトルの時間変化パターンと、複数の第2の動きベクトルの時間変化パターンを比較することにより、類似度を算出する(ステップS601)。類似度の算出は、上述の(数1)を用いることで算出出来る。判定部6は、類似度が所定の閾値(例えば0.2)以内の場合(ステップS602−Yes)、ユーザの動作方向を判定する(ステップS603)。なお、類似度が閾値以上の場合(ステップS602−No)、判定部6は、図示しない判定部6のキャッシュまたはメモリに格納した動きベクトルを削除した上で処理を一旦終了する。
表示部8は、ユーザ動作方向に基づいて複数の選択情報の中から一つの選択情報を選択し、当該選択情報が選択された回数を蓄積する(ステップS604)。第2算出部7は、分散を算出し、過去に算出した分散を更新する(ステップS605)。表示部8は、分散が所定の閾値(例えば0.5)以上の場合は(ステップS606−Yes)は、表示部8の選択情報の表示位置を更新する。具体的には、分散が小さいユーザの動作方向を選択回数が多い選択情報に対応付け、分散が大きいユーザの動作方向を選択回数が少ない選択情報に対応付ければ良い。なお、表示部8の選択情報の表示位置を更新のタイミングは、認識部4が所定の時間以内に認識対象物体を認識しない場合に選択情報の表示位置を変更しても良い。また、認識部4が認識した第1の認識対象物体と異なる第2の認識対象物体を認識した場合に記複数の選択情報を表示させる位置を変更しても良い。
図18は、一つの実施形態による画像処理装置の第1のハードウェア構成図である。ユーザが外界において注視している認識対象物体を特定し易い様に、眼鏡型の筐体を用いて取得部3を両目の中心に位置する様に配設しても良い。また、図示はしないが、取得部3を2つ以上配設してステレオ画像を用いても良い。表示部8は、外界を認識できる様に、シースルー型ディスプレイを用いても良い。
図19は、一つの実施形態による画像処理装置の第2のハードウェア構成図である。図19に示すように、画像処理装置1は、制御部9、記憶部2、補助記憶部10、ドライブ装置11、ネットワークI/F部13、入力部14、表示部8を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
制御部9は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部9は、記憶部2や補助記憶部10に記憶されたプログラムを実行する演算装置であり、入力部14や記憶装置からデータを受け取り、演算、加工した上で、表示部8や記憶装置などに出力する。
記憶部2は、ROM(Read Only Memory)やRAM(Random Access Memory)などであり、制御部1201が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶または一時保存する記憶装置である。
補助記憶部10は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
ドライブ装置11は、記録媒体12、例えばフレキシブルディスクからプログラムを読み出し、補助記憶部10にインストールする。
また、記録媒体12に、所定のプログラムを格納し、この記録媒体12に格納されたプログラムはドライブ装置11を介して画像処理装置1にインストールされる。インストールされた所定のプログラムは、画像処理装置1により実行可能となる。
ネットワークI/F部13は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器とオーディオ復号装置2とのインターフェースである。
入力部14は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部8の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部14は、ユーザが制御部9に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。
表示部8は、CRT(CathodeRay Tube)やLCD(Liquid Crystal Display)等により構成され、制御部9から入力される表示データに応じた表示が行われる。
なお、上述した画像処理は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、上述した画像処理を実現することができる。
また、このプログラムを記録媒体12に記録し、このプログラムが記録された記録媒体12をコンピュータや携帯端末に読み取らせて、前述した画像処理を実現させることも可能である。なお、記録媒体12は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。また、上記の実施例で説明した各種の処理は、予め用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。
以上、説明した実施形態に関し、更に以下の付記を開示する。
(付記1)
ユーザに拘持され、前記ユーザの視野方向の画像データを取得する取得部と、
前記画像データに含まれる認識対象物体を認識する認識部と、
前記認識部が認識した前記認識対象物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出し、前記位置変動量から前記認識部が認識した前記認識対象物体の動きベクトルを算出する第1算出部と、
前記動きベクトルに基づいて前記ユーザの動作方向を判定する判定部と、
前記判定部が判定した前記ユーザの動作方向毎の前記動きベクトルの分散を算出する第2算出部と、
前記ユーザの動作方向により選択される複数の選択情報を、前記分散に基づいて所定の位置に表示する表示部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記画像処理装置は、認識対象物体の特徴点を記憶する記憶部にアクセス可能であり、
前記認識部は、前記画像データから特徴点を抽出し、抽出した特徴点と前記認識対象物体の特徴点を対応付けることによって、前記画像データに含まれる前記認識対象物体を認識することを特徴とする付記1記載の画像処理装置。
(付記3)
前記記憶部は、前記複数の選択情報にそれぞれ対応付けられた前記認識対象物体に関する付帯情報を更に記憶しており、
前記表示部は、前記選択部が選択した前記一つの選択情報に基づいて、前記付帯情報を表示することを特徴とする付記1記載の画像処理装置。
(付記4)
前記判定部は、前記ユーザの動作と前記動きベクトルを予め対応付けた第1の動きベクトルの時間変化パターンと、
前記第1算出部が算出する動きベクトルを所定時間に渡って算出することで生成される第2の動きベクトルの時間変化パターンとの類似度を比較することにより、前記ユーザの動作方向を判定することを特徴とする付記1記載の画像処理装置。
(付記5)
前記第2の動きベクトルの時間変化パターンは、前記動きベクトルの往復動によって規定され、
前記第2算出部は、前記第2の動きベクトルの時間変化パターンの往路の始点と終点により規定される第1の動作時間と、
前記第2の動きベクトルの時間変化パターンの復路の始点と終点により規定される第2の動作時間との比率に基づいて前記分散を算出し、
前記表示部は、前記選択部によって選択された回数と前記分散に基づいて、前記複数の選択情報を表示させる位置を変更することを特徴とする付記3記載の画像処理装置。
(付記6)
前記第2算出部は、前記第2の動きベクトルの時間変化パターンの始点と終点により規定される第3の動作時間に基づいて前記分散を算出し、
前記表示部は、前記選択部によって選択された回数と前記分散に基づいて、前記複数の選択情報を表示させる位置を変更することを特徴とする付記4記載の画像処理装置。
(付記7)
前記第2算出部は、前記類似度に基づいて前記分散を算出し、
前記表示部は、前記選択部によって選択された回数と前記分散に基づいて、前記複数の選択情報を表示させる位置を変更することを特徴とする付記4記載の画像処理装置。
(付記8)
前記表示部は、前記認識部が所定の時間以内に前記認識対象物体を認識しない場合に、前記複数の選択情報を表示させる位置を変更することを特徴とする付記5ないし付記7にいずれか一つに記載の画像処理装置。
(付記9)
前記表示部は、前記認識部が認識した第1の認識対象物体と異なる第2の認識対象物体を認識した場合に、前記複数の選択情報を表示させる位置を変更することを特徴とする付記5ないし付記7にいずれか一つに記載の画像処理装置。
(付記10)
前記認識部は、前記認識対象物体の位置変動量または、前記認識対象物体の面積変動量を前記複数の画像データからそれぞれ算出し、前記位置変動量または前記面積変動量に基づいて前記ユーザが注視する物体を認識することを特徴とする付記1記載の画像処理装置。
(付記11)
前記算出部は、前記画像データに含まれる前記認識対象物体の位置を、前記認識対象物体の特徴点から特定し、位置を特定した前記認識対象物体を包含する少なくとも4つの端点の位置変動量を、前記特徴点の位置変動量として算出することを特徴とする付記1に記載の画像処理装置。
(付記12)
ユーザに拘持される取得部から、前記ユーザの視野方向の画像データを取得し、
前記画像データに含まれる認識対象物体を認識し、
前記認識対象物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出し、
前記位置変動量から前記認識対象物体の動きベクトルを算出し、
前記動きベクトルに基づいて前記ユーザの動作方向を判定し、
判定した前記ユーザの動作方向毎の前記動きベクトルの分散を算出し、
前記ユーザの動作方向により選択される複数の選択情報を、前記分散に基づいて所定の位置に表示する
ことを含むことを特徴とする画像処理方法。
(付記13)
コンピュータに、
ユーザに拘持される取得部から、前記ユーザの視野方向の画像データを取得し、
前記画像データに含まれる認識対象物体を認識し、
前記認識対象物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出し、
前記位置変動量から前記認識対象物体の動きベクトルを算出し、
前記動きベクトルに基づいて前記ユーザの動作方向を判定し、
判定した前記ユーザの動作方向毎の前記動きベクトルの分散を算出し、
前記ユーザの動作方向により選択される複数の選択情報を、前記分散に基づいて所定の位置に表示する
ことを実行させることを特徴とする画像処理プログラム。
1 画像処理装置
2 記憶部
3 取得部
4 認識部
5 第1算出部
6 判定部
7 第2算出部
8 表示部
9 制御部

Claims (6)

  1. ユーザに拘持され、前記ユーザの視野方向の画像データを取得する取得部と、
    前記画像データに含まれる認識対象物体を認識する認識部と、
    前記認識部が認識した前記認識対象物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出し、前記位置変動量から前記認識部が認識した前記認識対象物体の動きベクトルを算出する第1算出部と、
    前記動きベクトルに基づいて前記ユーザの動作方向を判定する判定部と、
    前記判定部が判定した前記ユーザの動作方向毎の前記動きベクトルの分散を算出する第2算出部と、
    前記ユーザの動作方向により選択される複数の選択情報を、前記分散に基づいて所定の位置に表示する表示部と、
    を備えることを特徴とする画像処理装置。
  2. 前記判定部は、前記ユーザの動作と前記動きベクトルを予め対応付けた第1の動きベクトルの時間変化パターンと、
    前記第1算出部が算出する動きベクトルを所定時間に渡って算出することで生成される第2の動きベクトルの時間変化パターンとの類似度を比較することにより、前記ユーザの動作方向を判定することを特徴とする請求項1記載の画像処理装置。
  3. 前記第2の動きベクトルの時間変化パターンは、前記動きベクトルの往復動によって規定され、
    前記第2算出部は、前記第2の動きベクトルの時間変化パターンの往路の始点と終点により規定される第1の動作時間と、
    前記第2の動きベクトルの時間変化パターンの復路の始点と終点により規定される第2の動作時間との比率に基づいて前記分散を算出し、
    前記表示部は、前記選択部によって選択された回数と前記分散に基づいて、前記複数の選択情報を表示させる位置を変更することを特徴とする請求項2記載の画像処理装置。
  4. 前記表示部は、前記認識部が所定の時間以内に前記認識対象物体を認識しない場合に、前記複数の選択情報を表示させる位置を変更することを特徴とする請求項3に記載の画像処理装置。
  5. 前記表示部は、前記認識部が認識した第1の認識対象物体と異なる第2の認識対象物体を認識した場合に、前記複数の選択情報を表示させる位置を変更することを特徴とする請求項3に記載の画像処理装置。
  6. ユーザに拘持される取得部から、前記ユーザの視野方向の画像データを取得し、
    前記画像データに含まれる認識対象物体を認識し、
    前記認識対象物体に対応する特徴点の位置変動量を、取得時間が異なる複数の前記画像データから算出し、
    前記位置変動量から前記認識対象物体の動きベクトルを算出し、
    前記動きベクトルに基づいて前記ユーザの動作方向を判定し、
    判定した前記ユーザの動作方向毎の前記動きベクトルの分散を算出し、
    前記ユーザの動作方向により選択される複数の選択情報を、前記分散に基づいて所定の位置に表示する
    ことを含むことを特徴とする画像処理方法。
JP2012184949A 2012-08-24 2012-08-24 画像処理装置、画像処理方法 Active JP6011154B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012184949A JP6011154B2 (ja) 2012-08-24 2012-08-24 画像処理装置、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012184949A JP6011154B2 (ja) 2012-08-24 2012-08-24 画像処理装置、画像処理方法

Publications (2)

Publication Number Publication Date
JP2014044476A true JP2014044476A (ja) 2014-03-13
JP6011154B2 JP6011154B2 (ja) 2016-10-19

Family

ID=50395719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012184949A Active JP6011154B2 (ja) 2012-08-24 2012-08-24 画像処理装置、画像処理方法

Country Status (1)

Country Link
JP (1) JP6011154B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017096689A (ja) * 2015-11-19 2017-06-01 株式会社大林組 長尺材測位支援装置
CN109863535A (zh) * 2016-10-11 2019-06-07 富士通株式会社 运动识别装置、运动识别程序以及运动识别方法
WO2019186622A1 (ja) * 2018-03-26 2019-10-03 楽天株式会社 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP2021114343A (ja) * 2017-07-11 2021-08-05 株式会社日立エルジーデータストレージ 表示システム、及び表示システムの表示制御方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
JP2002281200A (ja) * 2001-03-21 2002-09-27 Kyocera Mita Corp 画像形成装置
JP2005348350A (ja) * 2004-06-07 2005-12-15 Nippon Telegr & Teleph Corp <Ntt> 映像データへの情報書き込み支援方法、装置、およびプログラム
JP2007316882A (ja) * 2006-05-25 2007-12-06 Mitsubishi Electric Corp 遠隔操作装置及び方法
JP2011145744A (ja) * 2010-01-12 2011-07-28 Nintendo Co Ltd 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
JP2011177579A (ja) * 2011-06-20 2011-09-15 Nintendo Co Ltd 情報処理システムおよびプログラム
JP2011209965A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1185442A (ja) * 1997-09-03 1999-03-30 Sanyo Electric Co Ltd 情報出力装置
JP2002281200A (ja) * 2001-03-21 2002-09-27 Kyocera Mita Corp 画像形成装置
JP2005348350A (ja) * 2004-06-07 2005-12-15 Nippon Telegr & Teleph Corp <Ntt> 映像データへの情報書き込み支援方法、装置、およびプログラム
JP2007316882A (ja) * 2006-05-25 2007-12-06 Mitsubishi Electric Corp 遠隔操作装置及び方法
JP2011145744A (ja) * 2010-01-12 2011-07-28 Nintendo Co Ltd 情報処理装置、情報処理プログラム、情報処理システム、および、選択対象の選択方法
JP2011209965A (ja) * 2010-03-29 2011-10-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2011177579A (ja) * 2011-06-20 2011-09-15 Nintendo Co Ltd 情報処理システムおよびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017096689A (ja) * 2015-11-19 2017-06-01 株式会社大林組 長尺材測位支援装置
CN109863535A (zh) * 2016-10-11 2019-06-07 富士通株式会社 运动识别装置、运动识别程序以及运动识别方法
CN109863535B (zh) * 2016-10-11 2022-11-25 富士通株式会社 运动识别装置、存储介质以及运动识别方法
JP2021114343A (ja) * 2017-07-11 2021-08-05 株式会社日立エルジーデータストレージ 表示システム、及び表示システムの表示制御方法
JP7064040B2 (ja) 2017-07-11 2022-05-09 株式会社日立エルジーデータストレージ 表示システム、及び表示システムの表示制御方法
WO2019186622A1 (ja) * 2018-03-26 2019-10-03 楽天株式会社 表示装置、表示方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Also Published As

Publication number Publication date
JP6011154B2 (ja) 2016-10-19

Similar Documents

Publication Publication Date Title
JP5780142B2 (ja) 画像処理装置、画像処理方法
US11106920B2 (en) People flow estimation device, display control device, people flow estimation method, and recording medium
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
KR100947990B1 (ko) 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법
US8644551B2 (en) Systems and methods for tracking natural planar shapes for augmented reality applications
JP6015250B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6075110B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10331209B2 (en) Gaze direction mapping
CN111353336B (zh) 图像处理方法、装置及设备
JP6011154B2 (ja) 画像処理装置、画像処理方法
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
JP2021531589A (ja) 目標対象の動作認識方法、装置及び電子機器
US20150304549A1 (en) Image photographing device and method for same
WO2023168957A1 (zh) 姿态确定方法、装置、电子设备、存储介质及程序
CN110111241A (zh) 用于生成动态图像的方法和装置
JP6290020B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20150116473A1 (en) Information processing apparatus, information processing method, and program
JP2016021097A (ja) 画像処理装置、画像処理方法、およびプログラム
US20180150999A1 (en) Image display apparatus, image display method, and system
JP2019087136A (ja) 画面表示制御方法および画面表示制御システム
US11269405B2 (en) Gaze direction mapping
WO2023007730A1 (ja) 情報処理システム、情報処理装置、情報処理方法、及び記録媒体
KR20150087666A (ko) 휴대 단말의 입력 인터페이스 제공 방법 및 그 장치
JP2014222471A (ja) 表示装置、及びそのプログラム
CN115168628A (zh) 信息推荐方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150512

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160905

R150 Certificate of patent or registration of utility model

Ref document number: 6011154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150