JP2014186720A - 注視点変換装置および方法 - Google Patents

注視点変換装置および方法 Download PDF

Info

Publication number
JP2014186720A
JP2014186720A JP2014024919A JP2014024919A JP2014186720A JP 2014186720 A JP2014186720 A JP 2014186720A JP 2014024919 A JP2014024919 A JP 2014024919A JP 2014024919 A JP2014024919 A JP 2014024919A JP 2014186720 A JP2014186720 A JP 2014186720A
Authority
JP
Japan
Prior art keywords
reference image
image
point
gazing point
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014024919A
Other languages
English (en)
Other versions
JP6327441B2 (ja
Inventor
Hayato Oki
隼 沖
Takashi Ogawa
隆 小川
Tomoko Kobori
智子 小堀
Yasuhisa Matsuba
靖寿 松葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2014024919A priority Critical patent/JP6327441B2/ja
Publication of JP2014186720A publication Critical patent/JP2014186720A/ja
Application granted granted Critical
Publication of JP6327441B2 publication Critical patent/JP6327441B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】アイトラッキング装置が撮影する対象物が立体的な場合であっても,アイトラッキング装置が出力した注視点座標を対象物の基準画像上の座標に正確に変換できる装置を提供する。
【解決手段】注視点変換装置1は,左右方向の撮影位置を変えて対象物を撮影することで得られた複数の参照画像を記憶した参照画像DB12と,アイトラッキング装置2から入力されたシーン画像の特徴点を抽出した後,参照画像DB12に記憶している参照画像毎に,シーン画像と参照画像の特徴点を利用して,シーン画像の特徴点と参照画像の特徴点を対応付けすることで,シーン画像と参照画像間における対応点を探索する処理を行い,対応点の探索結果に基づいて参照画像を選択する対応点探索手段10と,対応点探索手段10が選択した参照画像にかかる対応点を用いて,注視点を対象物の基準画像上の座標に変換する処理を行う注視点変換手段11を備えている。
【選択図】図3

Description

本発明は,アイトラッキング装置から出力される注視点を,対象物の基準画像上の座標に変換するための技術に関する。
2画像間における対応点を探索する処理は様々な分野で利用されている。例えば,特許文献1では,マーカを用いることなく拡張現実(AR: Augmented Reality)を行うマーカーレスARの分野において,データベースに予め記憶された現実世界の画像である複数の参照画像の中から,カメラで撮影した現実世界の画像であるシーン画像(特許文献1では入力画像)に対応する参照画像を検索するために,シーン画像とデータベースに予め記憶された参照画像間における対応点を探索することが記載されている。
また,特許文献2では,ユーザビリティテストの分野において,被験者の注視点を計測する際,特許文献3などで開示されているようなアイトラッキング装置から得られた注視点を,対象物全体を撮影した画像である基準画像上の座標に変換する座標変換行列を演算するために,アイトラッキング装置が撮影した画像であるシーン画像と対象物の基準画像間における対応点を探索することが記載されている。
特開2012−160047号公報 特開2011−194105号公報 WO2009/142008号公報
アイトラッキング装置から得られた注視点を,正面から対象物全体を撮影した対象物の基準画像上の座標に変換する座標変換行列を演算するために,アイトラッキング装置が撮影した画像であるシーン画像と対象物の基準画像間における対応点を探索する際,ユーザビリティテストの対象となる対象物の形状が平面(チラシやウェブページ)ならば,特許文献2で開示しているように,シーン画像と対象物の基準画像の特徴点を利用して,シーン画像と対象物の基準画像間における対応点を探索することができるが,ユーザビリティテストの対象となる対象物が立体の場合,対象物の基準画像を撮影したときのカメラの方向と,シーン画像を撮影したときのカメラの方向が異なると,シーン画像と対象物の基準画像間における対応点を座標変換行列の演算に必要な数だけ探索できず,結果として,アイトラッキング装置が出力した注視点を対象物の基準画像上の座標に正確に変換できないケースがあった。
図10は,カメラの方向の変化に伴う特徴点の変化を説明する図で,ここでは,対象物を屋根型の紙パックとしている。屋根型の紙パックを真正面から見た場合,紙パックの側面は見えないため,紙パックを真正面から撮影した対象物は長方形で,紙パックを真正面から撮影した画像から得られる特徴点は,例えば,図10(a)のようになる。
また,屋根型の紙パックを斜めから見た場合,紙パックの側面の一部が見えるため,この紙パックを斜めから撮影した画像には,紙パックの側面の一部が含まれ,紙パックを斜めから撮影した画像から得られる特徴点は,例えば,図10(b)のようになる。
図10(a)と(b)を比較すればわかるように,図10(b)には,図10(a)には存在しない特徴点が存在し,また,特徴点の配列も異なるため,図10(a)と(b)の画像間における対応点を正確に探索することができない。
そこで,本発明は,注視点が付加したシーン画像を出力するアイトラッキング装置が撮影する対象物が立体的な場合であっても,アイトラッキング装置が出力した注視点を対象物の参照画像上の座標に正確に変換できる装置および方法を提供することを目的とする。
上述した課題を解決する第1の発明は,左右方向または上下方向の撮影位置を変えて対象物を撮影することで得られた複数の参照画像を記憶した参照画像データベースと,注視点が付加されたシーン画像が入力されると,前記シーン画像の特徴点を抽出した後,前記参照画像データベースに記憶している前記参照画像毎に,前記シーン画像の特徴点と前記参照画像の特徴点を利用して,前記シーン画像と前記参照画像間における対応点を探索する処理を行い,対応点の探索結果に基づいて前記参照画像を選択する対応点探索手段と,前記対応点探索手段が選択した前記参照画像にかかる対応点を用いて,前記シーン画像上の座標を前記参照画像上の座標に変換する参照画像用座標変換行列を演算した後,前記参照画像用座標変換行列を用いて前記シーン画像に付加された注視点を前記対応点探索手段が選択した前記参照画像上の座標に変換する注視点変換手段を備えたことを特徴とする注視点変換装置である。
第1の発明にかかる注視点変換装置が,左右方向の撮影位置を変えて対象物を撮影することで得られた複数の前記参照画像を複数記憶するのは,前記シーン画像が様々な方向で撮影される可能性があるからである。前記シーン画像と前記参照画像間における対応点を探索する処理を,前記参照画像毎に行えば,前記シーン画像と撮影方向が最も近い前記参照画像において,多くの対応点を得ることができ,対応点の数が多ければ,参照画像用座標変換行列を正確に演算することが可能になる。
更に,第2の発明は,第1の発明に記載した注視点変換装置において,前記注視点変換手段は,選択した前記参照画像上の座標に変換した注視点を,正面から対象物全体を撮影した対象物の基準画像上の座標に変換する処理を行うことを特徴とする。第2の発明によれば,アイトラッキング装置が出力した注視点を対象物の基準画像上の座標に精度よく変換できる。
更に,第3の発明は,第2の発明に記載した注視点変換装置において,前記参照画像データベースに記憶した前記参照画像を,左右方向の撮影位置を変え対象物の全体を撮影して得られた画像を所定の手順で分割した画像とすることを特徴とする。
対象物全体を撮影した画像を前記参照画像とすると,前記シーン画像の領域が対象物全体に対して小さいと,探索できる対応点の数が必要数よりも少なくなってしまうケースがあるが,第3の発明のように,対象物全体を撮影して得られた画像を所定の手順で分割した画像を前記参照画像とすることで,このようなことはなくなる。
更に,第4の発明は,第1の発明に記載した注視点変換装置において,前記参照画像は,対象物上の撮影個所を重複させて撮影した画像で,対象物上の撮影個所が重複している前記参照画像間においては,重複している個所である重複部の注視点が統合される被統合参照画像と,前記重複部の注視点の統合先となる統合先参照画像を予め定めておき,前記注視点変換手段は,選択した前記参照画像が前記被統合参照画像の場合,前記被統合参照画像における前記重複部内の注視点を前記統合先参照画像上の座標に変換する重複部用座標変換行列を用いて,前記被統合参照画像における重複部内の注視点を前記統合先参照画像上の座標に変換した後,前記統合先参照画像上の座標に変換した注視点を前記統合先参照画像に関連付けて記憶し,前記被統合参照画像における前記重複部以外の注視点については,上述の座標変換を行うことなく,前記被統合参照画像に関連付けて記憶し,選択した前記参照画像が前記統合先参照画像の場合,前記重複部内の注視点であるか否かにかかわらず,前記統合先参照画像上の注視点を前記統合先参照画像に関連付けて記憶することを特徴とする。
第4の発明によれば,撮影範囲が重なり合うように撮影された前記参照画像の場合であっても,重複して撮影された対象物上の個所である前記重複部の注視点は前記統合先参照画像に統合できるため,注視点の可視化結果を前記参照画像上に表示しても,前記重複部に係る可視化結果が複数の前記参照画像に分散されることはなくなる。
更に,第5の発明は,第4の発明に記載した注視点変換装置において,前記被統合参照画像上の前記重複部の領域と前記統合先参照画像上の前記重複部の領域をユーザが設定する際に用いられる重複部設定手段と,前記重複部設定手段を用いて設定された前記被統合参照画像上の前記重複部における特徴点と,前記統合先参照画像上の前記重複部における特徴点を抽出し,前記被統合参照画像上の前記重複部と前記統合先参照画像上の前記重複部間における対応点を探索する処理を行い,この対応点を用いて前記重複部用座標変換行列を演算する重複部用座標変換行列算出手段を備えていることを特徴とする。第5の発明は,第4の発明に記載した前記注視点変換装置において,前記重複部用座標変換行列を演算できるようにした発明である。
更に,第6の発明は,第5の発明に記載した注視点変換装置において,前記重複部用座標変換行列算出手段は,対応点を探索する処理において,前記重複部用座標変換行列を演算するために必要な数の対応点を探索できなかった場合,前記被統合参照画像上の前記重複部における特徴点と前記統合先参照画像上の前記重複部における特徴点間の対応点を手動でユーザに設定させることを特徴とする。第6の発明は,第5の発明に記載した注視点変換装置において,前記重複部用座標変換行列を演算するために必要な数の対応点を探索できなかった場合,前記被統合参照画像上の前記重複部における特徴点と前記統合先参照画像上の前記重複部における特徴点間の対応点を手動でユーザに設定させるようにした発明である。
更に,第7の発明は,注視点が付加されたシーン画像が入力される注視点変換装置が,注視点が付加されたシーン画像が入力されると,前記シーン画像の特徴点を抽出した後,左右方向の撮影位置を変えて対象物を撮影することで得られた参照画像毎に,前記シーン画像と前記参照画像の特徴点を利用して,前記シーン画像と前記参照画像間における対応点を探索する処理を行い,対応点の探索結果に基づいて前記参照画像を選択する工程1と,前記注視点変換装置が,選択した前記参照画像にかかる対応点を用いて,前記シーン画像上の座標を前記参照画像上の座標に変換する参照画像用座標変換行列を演算した後,前記参照画像用座標変換行列を用いて前記シーン画像に付加された注視点を選択した前記参照画像上の座標に変換する処理を行う工程2を含むことを特徴とする注視点変換方法である。
更に,第8の発明は,第7の発明に記載した注視点変換方法において,前記工程2において,前記注視点変換装置は,前記参照画像用座標変換行列を用いて前記シーン画像に付加された注視点を選択した前記参照画像上の座標に変換した後,選択した前記参照画像上の座標に変換した注視点を対象物の基準画像上の座標に変換することを特徴する。
更に,第9の発明は,第8の発明に記載した注視点変換方法において,前記参照画像を,左右方向の撮影位置を変え対象物の全体を撮影して得られた画像を所定の手順で分割した画像とすることを特徴とする。
更に,第10の発明は,第7の発明に記載した注視点変換方法において,前記参照画像は,対象物上の撮影個所を重複させて撮影した画像で,対象物上の撮影個所が重複している前記参照画像間においては,重複している重複部の注視点が統合される被統合参照画像と,前記重複部の注視点の統合先となる統合先参照画像を予め定めておき,前記工程2において,前記注視点変換装置は,選択した前記参照画像が前記被統合参照画像の場合,前記被統合参照画像における前記重複部内の注視点を前記統合先参照画像上の座標に変換する重複部用座標変換行列を用いて,前記被統合参照画像における重複部内の注視点を前記統合先参照画像上の座標に変換した後,前記統合先参照画像上の座標に変換した注視点を前記統合先参照画像に関連付けて記憶し,前記被統合参照画像における前記重複部以外の注視点については,上述の座標変換を行うことなく,前記被統合参照画像に関連付けて記憶し,選択した前記参照画像が前記統合先参照画像の場合,前記重複部内の注視点であるか否かにかかわらず,前記統合先参照画像上の注視点を前記統合先参照画像に関連付けて記憶することを特徴とする。
このように,本発明によれば,注視点が付加したシーン画像を出力するアイトラッキング装置を用いたユーザビリティテストの対象となる対象物が立体的な場合であっても,アイトラッキング装置が出力した注視点を対象物の参照画像上の座標に正確に変換できる装置および方法を提供できる。また,対象物のサイズが商品棚のようにサイズは大きいが,対象物前の通路が狭く,カメラの視野角的に対象物全体を撮影できない環境では,対象物の画像は,左方向から対象物を撮影した画像と右方向から対象物を撮影した画像の2つに少なくとも分かれてしまうが,本発明によれば,このような環境であっても,アイトラッキング装置が出力した注視点を対象物の参照画像上の座標に正確に変換できる効果が得られる。
第1実施形態にかかる注視点変換装置を用いたシステム構成を説明する図。 アイトラッキング装置に備えられた機能を説明する図。 第1実施形態における注視点変換装置に備えられた機能を説明する図。 第1実施形態における参照画像DBの内容を説明する図。 第1実施形態における参照画像を説明する図。 第1実施形態において対応点探索手段が実行する処理を説明するフロー図。 対応点を説明する図である。 第1実施形態において注視点を変換する処理を説明する図。 第1実施形態において注視点変換手段が実行する処理を説明するフロー図。 カメラの方向の変化に伴う特徴点の変化を説明する図。 第2実施形態にかかる注視点変換装置に備えられた機能を説明する図。 第2実施形態における参照画像DBを説明する図。 第2実施形態における参照画像を説明する図。 重複部に含まれる注視点にかかる処理を説明する図。 第2実施形態において対応点探索手段が実行する処理を説明するフロー図。 対応点を説明する図である。 第2実施形態において注視点変換手段が実行する処理を説明するフロー図。 重複部用座標変換行列を求める処理を説明するフロー図。
ここから,本発明の好適な実施形態を記載する。なお,以下の記載は本発明の範囲を束縛するものでなく,理解を助けるために記述するものである。
[第1実施形態]
第1実施形態は,注視点が付加したシーン画像を出力するアイトラッキング装置を用いたユーザビリティテストの対象となる対象物が立体的な場合であっても,アイトラッキング装置が出力した注視点を,正面から対象物全体を撮影した対象物の基準画像上の座標に正確に変換できるようにする実施形態である。
図1は,第1実施形態にかかる注視点変換装置1を用いたシステム構成を説明する図である。図1では,被験者が実際にみている箇所である注視点を検出し,注視点を付加したシーン画像を出力するヘッドマウント型のアイトラッキング装置2と,アイトラッキング装置2が出力したシーン画像に付加された注視点を,ユーザビリティテストの対象となる対象物の基準画像上の座標に変換する注視点変換装置1を図示している。
特許文献2に記載があるように,アイトラッキング装置2が検出した注視点を対象物の基準画像上の座標に変換する処理を行う際,アイトラッキング装置2が出力したシーン画像の特徴点を抽出し,シーン画像と参照画像の特徴点を利用して,シーン画像と対象物の基準画像間における対応点を探索した後,シーン画像上の座標を対象物の基準画像上の座標に変換する参照画像用座標変換行列を演算するが,対象物が立体的の場合,アイトラッキング装置2のカメラの方向によっては,シーン画像に含まれる物体の形状が対象物の基準画像とは異なることで,シーン画像と対象物の基準画像間における対応点を必要な数だけ探索できないことがある。
そこで,第1実施形態では,対応点の探索に用いる画像として,それぞれ異なる方向から対象物を撮影して得られた参照画像を複数用意し,対応点の探索に参照画像を用いることで,対象物が立体的の場合であっても,対応点を探索できるようにしている。
まず,図1で図示したアイトラッキング装置2について説明する。図2は,アイトラッキング装置2に備えられた機能を説明する図である。
第1実施形態のアイトラッキング装置2は,被験者の頭部に装着するヘッドマウント型の装置で,アイトラッキング装置2を装着している被験者の視線先のシーン画像を撮影するカメラ21と,被験者がみている箇所である注視点を検出する注視点検出手段22と,注視点を付加したシーン画像を動画の形式で出力する撮影制御手段20を備える。
このような機能を備えたアイトラッキング装置2に係る発明として,上述した特許文献3が既に開示されている。アイトラッキング装置2が注視点検出手段22を備えるのは,カメラの方向と被験者が実際にみている方向が異なる場合があるからで,被験者の注視点を検出する手法としては,被験者の瞳孔を撮影して解析する手法もあるが,特許文献3では,眼電位を用いて被験者の注視点を検出している。
次に,第1実施形態にかかる注視点変換装置1について説明する。図3は,注視点変換装置1に備えられた機能を説明する図である。第1実施形態にかかる注視点変換装置1は,汎用的なコンピュータを利用して実現される装置で,DBを除く各機能は,注視点変換装置1として利用するコンピュータを動作させるコンピュータプログラムによって実現できる。
図3に図示したように,第1実施形態にかかる注視点変換装置1は,それぞれ異なる方向から対象物を撮影して得られた参照画像を複数記憶した参照画像DB12と,注視点が付加されたシーン画像がアイトラッキング装置2から入力されると,シーン画像の特徴点を抽出した後,参照画像DB12に記憶している参照画像毎に,シーン画像と参照画像の特徴点を利用して,シーン画像と参照画像間における対応点を探索する処理を行い,対応点の探索結果に基づいて参照画像を選択する対応点探索手段10と,対応点探索手段10が選択した参照画像にかかる対応点を用いて,シーン画像上の座標を参照画像上の座標に変換する参照画像用座標変換行列を演算した後,参照画像用座標変換行列を用いてシーン画像に付加された注視点を選択した参照画像上の座標に変換し,更に,選択した参照画像上の注視点を対象物の基準画像上の座標に変換する処理を行う注視点変換手段11を備えている。
まず,参照画像DB12に記憶する参照画像について説明する。図4は,第1実施形態における参照画像DB12の内容を説明する図である。
参照画像DB12には,それぞれ異なる方向から対象物を撮影して得られた参照画像を複数記憶され,図4に図示したように,第1実施形態では,対象物の撮影方向を,便宜的に,正面,右側および左側の3つとしている。
対象物全体を撮影した画像を参照画像として用いることもできるが,シーン画像の領域が対象物全体に対して小さいと,探索できる対応点の数が必要数よりも少なくなってしまうケースがあるため,第1実施形態では,対象物の左右中心線および上下中心線で,対象物全体を撮影したときの画像を区切ることで該画像を4つに分割し,分割して得られた画像それぞれを対応点の探索に用いる参照画像として参照画像DB12に記憶している。
なお,ここでは,対象物全体を撮影した画像を4つに分割しているが,対象物全体を撮影した画像を分割する内容は任意に決定できる。例えば,対象物全体を撮影した画像から,2つに分割した画像と4つに分割した画像を生成し,それぞれの画像を参照画像とすることもできる。
上述したように,第1実施形態では,対象物の撮影方向を,正面,右側および左側の3つとしているため,正面から対象物全体を撮影した画像を4分割して得られた4つの参照画像と,右方向から対象物全体を撮影した画像を4分割して得られた4つの参照画像と,左方向から対象物全体を撮影した画像を4分割して得られた4つの参照画像の合計12個を参照画像DB12に記憶している。
図5は,参照画像DB12に記憶されている参照画像を説明する図である。図5(a)は,正面から対象物全体を撮影した画像である。第1実施形態では立体的な対象物を2段2列の商品棚とし,左上段に屋根型の紙パック,右上段に立方体の紙パック,左下段に角形のペットボトル,そして,右下段に円柱の缶を商品棚に陳列している。図5(a)において,左右中心線および上下中心線で区切られた画像それぞれが,正面から対象物全体を撮影した画像を4分割した4つの参照画像となる。
図5(b)は,右側から対象物全体を撮影した画像である。この画像では,商品棚の右側に陳列されている商品(例えば,立方体の紙パック)が大きく,商品棚の左側に陳列されている商品(例えば,屋根型の紙パック)が小さく撮影されている。また,対象物を右側から撮影することで,陳列されている商品(例えば,屋根型の紙パック)の正面のみならず,該商品の側面の一部が撮影されている。図5(b)において,左右中心線および上下中心線で区切られた画像それぞれが,右方向から対象物全体を撮影した画像を4分割した参照画像となる。
図5(c)は,左側から対象物全体を撮影した画像である。この画像では,商品棚の左側に陳列されている商品(例えば,屋根型の紙パック)が大きく,商品棚の右側(例えば,立方体の紙パック)に陳列されている商品が小さく撮影されている。また,対象物を左側から撮影することで,陳列されている商品(例えば,屋根型の紙パック)の正面のみならず,該商品の側面の一部が撮影されている。図5(c)において,左右中心線および上下中心線で区切られた画像それぞれが,左方向から対象物全体を撮影した画像を4分割した参照画像となる。
図5に図示したように,対象物が立体的の場合,対象物を撮影する方向によって,撮影される対象物の形状が変わるため,対象物を撮影する方向によってシーン画像から抽出される特徴点も変わることになる。
次に,注視点変換装置1が備える対応点探索手段10について説明する。図6は,注視点変換装置1が備える対応点探索手段10が実行する処理を説明するフロー図である。アイトラッキング装置2はシーン画像を動画形式で出力するため,図6の手順は,アイトラッキング装置2が出力する動画のフレーム毎に実行されることになる。
注視点変換装置1の対応点探索手段10は,まず,アイトラッキング装置2が出力したシーン画像の特徴点を抽出する(S1)。
2画像間における対応点を探索するためには,画像の特徴点と共に,画像の回転やスケールの変化に対してロバスト性を有する特徴量を算出できることが望ましく,特徴点と共にこのような特徴量を算出する手法として,SIFT(Scale Invariant Feature Transform)やSURF(Speed-Up Robust Features)が知られている。例えば,SIFTでは,輝度勾配方向を利用して画像のSIFT特徴点(キーポイント)が抽出され,そのSIFT特徴点の特徴量として,輝度勾配方向から得られた128次元の特徴ベクトルが算出される。
次に,注視点変換装置1の対応点探索手段10は,参照画像DB12に記憶されている参照画像毎に,シーン画像と参照画像間における対応点を探索する処理を実施する(S2)。第1実施形態では,図4に図示したように,12個の参照画像を参照画像DB12に記憶しているため,12個の参照画像それぞれについて,対応点を探索する処理が実施されることになる。
対応点の探索には,シーン画像の特徴点とその特徴量および参照画像の特徴点とその特徴量が利用される。第1実施形態において,アイトラッキング装置2はシーン画像を動画形式で出力するため,シーン画像はフレーム毎に変わるが,参照画像はフレーム毎に変わらないため,参照画像の特徴点とその特徴量は予め演算しておくことができる。
画像の特徴点を算出する手法としてSIFTを用いる場合,2画像間の特徴点を対応付けする指標は,128次元の特徴ベクトルを用いて演算される特徴点間のユークリッド距離になる。例えば,参照画像から抽出できたSIFT特徴点をM個,シーン画像から抽出できたSIFT特徴点をN個とすると,参照画像の一つのSIFT特徴点iに対して,シーン画像から抽出できたN個すべてのSIFT特徴点とのユークリッド距離が演算される。そして,所定の基準(例えば,ユークリッド距離が規定値以下でかつ最も小さい)を満たすシーン画像のSIFT特徴点がSIFT特徴点kの場合,参照画像のSIFT特徴点iとシーン画像のSIFT特徴点kが一つの対応点として探索される。なお,対応点は,参照画像の特徴点と,参照画像の特徴点に対応するシーン画像の特徴点の組で表記される。
図7は,対応点を説明する図である。図7において,左側が参照画像で右側がシーン画像で,各画像の特徴点の一部を黒丸で図示している。また,図7において,黒丸を結ぶ線は対応点を意味し,図7で図示したように,対応点とは,参照画像とシーン画像間において,相互に対応する画素を示す情報になる。
次に,注視点変換装置1の対応点探索手段10は,対応点の探索結果に基づいて参照画像を選択して(S3),図6の手順は終了する。なお,対応点の探索結果に基づいて参照画像を選択する手法は任意であるが,探索できた対応点が最も多い参照画像を選択するとよい。
次に,注視点変換装置1の注視点変換手段11について説明する。図8は,注視点を変換する処理を説明する図である。第1実施形態では,対応点の探索に用いる画像はシーン画像と参照画像になるため,注視点変換装置1の注視点変換手段11は,注視点を変換する際,まず,アイトラッキング装置2が検出した注視点を参照画像上の座標に変換した後,参照画像上の注視点を対象物の基準画像上の座標に変換する。
シーン画像はアイトラッキング装置2が出力する動画のフレーム毎に変わるため,アイトラッキング装置2が検出した注視点を参照画像上の座標に変換するための参照画像用座標変換行列はフレーム毎に変わり,参照画像上の注視点を対象物の基準画像上の座標に変換する基準画像用座標変換行列は,フレーム毎に変わらないが,参照画像毎に変わることになる。
図9は,注視点変換装置1の注視点変換手段11が実行する処理を説明するフロー図である。対応点探索手段10が参照画像を選択すると,注視点変換装置1の注視点変換手段11が作動し,注視点変換装置1の注視点変換手段11は,まず,シーン画像上の座標を選択された参照画像上の座標に変換する参照画像用座標変換行列を演算する(S10)。
この参照画像用座標変換行列としては,3次元空間のある平面から他の平面へ投影するためのホモグラフィ行列を利用することができ,このホモグラフィ行列は,以下に述べる原理により,投影する平面間(ここでは,シーン画像と参照画像)の4つの対応点から演算することが知られている。
数式1で示したように,ホモグラフィ行列Hは3行3列の行列である。h33はホモグラフィ行列のスケールファクタになるため,h33の値が1になるようにホモグラフィ行列を正規化することを考えると,参照画像の特徴点(xi,yi)とこれに対応するシーン画像の特徴点(x'i,y'i)は,正規化後のホモグラフィ行列H'(h33が1)を用いて数式2のような関係になる。よって,最低限,4つの対応点がわかれば,ホモグラフィ行列において不明な8個の要素(h11からh32)を解くことのできる連立方程式を導出することができる。
Figure 2014186720
Figure 2014186720
なお,対応点の数が多ければ,参照画像用座標変換行列を演算する際,ランダムに4つの対応点を抽出してホモグラフィ行列を演算する処理を複数繰り返すことで,ホモグラフィ行列の演算精度を高めるRANSAC(RANdom SAmple Consensus)に代表されるロバスト推定手法を利用することができる。
注視点変換装置1が,それぞれ異なる方向から対象物を撮影して得られた参照画像を複数記憶し,対応点探索手段10が,シーン画像と参照画像間における対応点を探索する処理を参照画像毎に,対応点の数が多い参照画像を選択すれば,RANSACなどの手法を用いて,参照画像用座標変換行列を精度よく演算することできる。
次に,注視点変換装置1の注視点変換手段11は,参照画像用座標変換行列を用いて,シーン画像の注視点を選択した参照画像上の座標に変換する(S11)。
次に,注視点変換装置1の注視点変換手段11は,選択した参照画像上の座標に変換した注視点を対象物の基準画像上の座標に変換する基準画像用座標変換行列を用いて,参照画像上の注視点を対象物の基準画像上の座標に変換して(S12),図9の手順は終了する。
注視点変換装置1の参照画像DB12にはそれぞれ異なる複数の参照画像が記憶されるため,基準画像用座標変換行列は参照画像毎に用意され,選択した参照画像上の座標に変換した注視点を対象物の基準画像上の座標に変換する基準画像用座標変換行列として,対応点探索手段10が選択した参照画像の基準画像用座標変換行列が利用される。
なお,基準画像用座標変換行列としてはホモグラフィ行列を用いることができ,このホモグラフィ行列は,参照画像用座標変換行列と同様に,参照画像と対象物の基準画像間の4つの対応点から演算することもできる。
[第2実施形態]
第2実施形態は,左右方向の撮影位置を変えて対象物を撮影して得られた複数の参照画像を予め用意しておき,注視点の可視化結果(例えば,注視点の頻度を色で表示する注視点ヒートマップ)を参照画像上に表示できるようにした実施形態である。
第1実施形態のように,アイトラッキング装置が出力した注視点を,正面から対象物全体を撮影した対象物の基準画像上の座標に座標変換し,注視点の可視化結果を基準画像上に表示するようにすると,基準画像上における注視点の可視化結果しか得られないが,注視点の可視化結果を参照画像上に表示できるようにすると,参照画像毎に注視点の可視化結果が得られることになる。
対象物の撮影個所が参照画像間で重複しなければ問題ないが,対象物の参照画像は,撮影されない対象物の個所がないように,撮影個所を重複させて撮影されるため,重複して撮影された対象物上の個所である重複部の注視点は,撮影個所が重複する複数の参照画像に分散されてしまい,重複部に係る可視化結果は,複数の参照画像に分散されてしまう。よって,重複部に係る可視化結果は,複数の参照画像を見比べなければならず,不効率であると共に正確な判断が得られない。そこで,第2実施形態では,このことを防止するために,重複部に係る注視点については,撮影個所を重複させて撮影した参照画像のいずれか一つに統合できるようにしている。
図11は,第2実施形態における注視点変換装置3に備えられた機能を説明する図で,図12は,第2実施形態における参照画像DB32を説明する図で,図13は,第2実施形態における参照画像を説明する図である。なお,第2実施形態にかかる注視点変換装置3は,第1実施形態と同様にアイトラッキング装置2と組み合わされて利用される装置で,アイトラッキング装置2の内容は第1実施形態と同じであるため,ここでは説明を省く。
図11に図示したように,第2実施形態にかかる注視点変換装置3は,左右方向の撮影位置を変え対象物を撮影して得られた複数の参照画像を記憶した参照画像DB32と,注視点が付加されたシーン画像が入力されると,シーン画像の特徴点を抽出した後,参照画像DB32に記憶している参照画像毎に,シーン画像の特徴点と参照画像の特徴点を利用して,シーン画像と参照画像間における対応点を探索する処理を行い,対応点の探索結果に基づいて参照画像を選択する対応点探索手段30と,対応点探索手段30が選択した参照画像にかかる対応点を用いて,シーン画像上の座標を参照画像上の座標に変換する参照画像用座標変換行列を演算した後,参照画像用座標変換行列を用いてシーン画像に付加された注視点を選択した参照画像上の座標に変換する注視点変換手段31を備えている。
なお,第2実施形態にかかる注視点変換装置3は,汎用的なコンピュータを利用して実現される装置で,図11で図示したDBを除く各機能は,注視点変換装置3として利用するコンピュータを動作させるコンピュータプログラムによって実現でき,第2実施形態にかかる注視点変換装置3には,画像の表示に用いるディスプレイ3aと,マウスなどのポインティングデバイス3bが接続されている。
図12に図示したように,第2実施形態にかかる参照画像DB32に記憶されている参照画像は,左右方向の撮影位置を変え対象物を撮影して得られた画像である点において第1実施形態と同じであるが,第2実施形態では,対象物上の撮影個所を重複させて撮影した画像に限定している。
対象物上の撮影個所を重複させて撮影すると,撮影個所を重複させて撮影した参照画像間で,重複して撮影された対象物上の個所である重複部が発生するため,第2実施形態では,重複部の注視点が統合される参照画像である被統合参照画像と,重複部の注視点の統合先となる参照画像である統合先参照画像が予め定められる。なお,少なくとも,被統合参照画像となる参照画像には,被統合参照画像であることを示す情報(例えば,フラグや属性値)と,この参照画像と対になる統合先参照画像を示す情報(例えば,統合先参照画像のファイル名)が付加される。
第2実施形態における参照画像について詳細に説明する。図13は,参照画像DB32に記憶されている参照画像を説明する図である。図13(a)は,対象物を説明する図である。第2実施形態では,対象物を2列の商品棚とし,商品棚の左列は5段で,商品棚の右列は6段である。
図13(b)は,第2実施形態にかかる被統合参照画像を説明する図である。第2実施形態において,被統合参照画像は,対象物を正面にみて左方向から対象物の右側を撮影した参照画像で,この画像には,対象物の一部分として,商品棚の左列の一部と商品棚の右列の全てが含まれている。
また,図13(c)は,第2実施形態にかかる統合先参照画像を説明する図である。第2実施形態において,統合先参照画像は,対象物を正面にみて右方向から対象物の左側を撮影した参照画像で,この画像には,対象物の一部分として,商品棚の左列の全てが含まれている。
図13では,被統合参照画像には,商品棚の左列の一部が含まれ,この画像は統合先参照画像にも含まれるため,被統合参照画像に含まれる商品棚の左列の一部が,被統合参照画像と統合先参照画像の重複部になる。
重複部は被統合参照画像と統合先参照画像に含まれ,何ら特別な処理を実施しないと,重複部に含まれる注視点は被統合参照画像と統合先参照画像に分散されてしまうため,第2実施形態にかかる注視点変換装置3の注視点変換手段31は,第1実施形態にかかる注視点変換装置1の注視点変換手段11とは動作が異なり,対応点探索手段30が選択した参照画像が,被統合参照画像の場合,被統合参照画像における重複部内の注視点を被統合参照画像に対応する統合先参照画像上の座標に変換する重複部用座標変換行列を用いて,対応点探索手段30が選択した被統合参照画像における重複部内の注視点を,被統合参照画像に対応する統合先参照画像上の座標に変換した後,統合先参照画像上の座標に変換した注視点を統合先参照画像に関連付けて記憶し,被統合参照画像における重複部以外の注視点については,座標変換を行うことなく,被統合参照画像に関連付けて記憶し,対応点探索手段30が選択した参照画像が統合先参照画像の場合,重複部内の注視点であるか否かにかかわらず,統合先参照画像上の注視点を統合先参照画像に関連付けて記憶することで,被統合参照画像の重複部に含まれる注視点を統合先参照画像に統合できるようにしている。
また,被統合参照画像の重複部に含まれる注視点を統合先参照画像に統合するためには,上述の重複部用座標変換行列が必要になるため,第2実施形態にかかる注視点変換装置3は,図11に図示したように,重複部用座標変換行列を演算できるように,被統合参照画像上の重複部の領域と統合先参照画像上の重複部の領域をユーザが設定する際に用いられる重複部設定手段33と,重複部設定手段33を用いて設定された被統合参照画像上の重複部における特徴点と,統合先参照画像上の重複部における特徴点を抽出し,被統合参照画像上の重複部と統合先参照画像上の重複部間における対応点を探索する処理を行い,この対応点を用いて重複部用座標変換行列を演算する重複部用座標変換行列算出手段34を備えている。
図14は,重複部に含まれる注視点にかかる処理を説明する図である。アイトラッキング装置2がシーン画像と共に出力した注視点は,第1実施形態と同様に,まず,アイトラッキング装置2が出力したシーン画像上の座標(図14(a))からシーン画像に対応する参照画像上の座標に変換される(図14(b))。
ここでは,シーン画像に対応する参照画像を被統合参照画像とし,被統合参照画像の重複部内にある注視点は,上述の重複部用座標変換行列を用いて,統合先参照画像上の座標に変換される(図14(c))。
次に,注視点変換装置3が備える対応点探索手段30について説明する。図15は,注視点変換装置3が備える対応点探索手段30が実行する処理を説明するフロー図である。アイトラッキング装置2はシーン画像を動画形式で出力するため,図15の手順は,アイトラッキング装置2が出力する動画のフレーム毎に実行されることになる。
注視点変換装置3の対応点探索手段30は,まず,アイトラッキング装置2が出力したシーン画像と参照画像間の対応点を探索する際,まず,シーン画像の特徴点を抽出する(S0)。
2画像間における対応点を探索するためには,画像の特徴点と共に,画像の回転やスケールの変化に対してロバスト性を有する特徴量を算出できることが望ましく,特徴点と共にこのような特徴量を算出する手法として,SIFT(Scale Invariant Feature Transform)やSURF(Speed-Up Robust Features)が知られている。例えば,SIFTでは,輝度勾配方向を利用して画像のSIFT特徴点(キーポイント)が抽出され,そのSIFT特徴点の特徴量として,輝度勾配方向から得られた128次元の特徴ベクトルが算出される。
次に,注視点変換装置3の対応点探索手段30は,参照画像DB32に記憶されている参照画像毎に,シーン画像と参照画像間における対応点を探索する処理を実施する(S21)。第2実施形態では,被統合参照画像と統合先参照画像の2つを参照画像DB32に記憶しているため,シーン画像と被統合参照画像の対応点およびシーン画像と統合先参照画像間の対応点を探索する処理が実施されることになる。
対応点の探索には,シーン画像の特徴点とその特徴量および参照画像の特徴点とその特徴量が利用される。第2実施形態において,アイトラッキング装置2はシーン画像を動画形式で出力するため,シーン画像はフレーム毎に変わるが,参照画像はフレーム毎に変わらないため,参照画像の特徴点とその特徴量は予め演算しておくことができる。
画像の特徴点を算出する手法としてSIFTを用いる場合,2画像間の特徴点を対応付けする指標は,128次元の特徴ベクトルを用いて演算される特徴点間のユークリッド距離になる。例えば,参照画像から抽出できたSIFT特徴点をM個,シーン画像から抽出できたSIFT特徴点をN個とすると,参照画像の一つのSIFT特徴点iに対して,シーン画像から抽出できたN個すべてのSIFT特徴点とのユークリッド距離が演算される。そして,所定の基準(例えば,ユークリッド距離が規定値以下でかつ最も小さい)を満たすシーン画像のSIFT特徴点がSIFT特徴点kの場合,参照画像のSIFT特徴点iとシーン画像のSIFT特徴点kが一つの対応点として探索される。なお,対応点は,参照画像の特徴点と,参照画像の特徴点に対応するシーン画像の特徴点の組で表記される。
図16は,対応点を説明する図である。図16において,左側が参照画像で右側がシーン画像で,各画像の特徴点の一部を黒丸で図示している。また,図16において,黒丸を結ぶ線は対応点を意味し,図16で図示したように,対応点とは,参照画像とシーン画像間において,相互に対応する画素を示す情報になる。
次に,注視点変換装置3の対応点探索手段30は,対応点の探索結果に基づいて参照画像を選択して(S22),図14の手順は終了する。なお,対応点の探索結果に基づいて参照画像を選択する手法は任意であるが,探索できた対応点が最も多い参照画像(ここでは,被統合参照画像または統合先参照画像のいずれか)を選択する。
次に,第2実施形態における注視点変換装置3の注視点変換手段31について説明する。図17は,第2実施形態における注視点変換装置3の注視点変換手段31が実行する処理を説明する図である。
図17は,注視点変換装置3の注視点変換手段31が実行する処理を説明するフロー図である。対応点探索手段30が参照画像を選択すると,注視点変換装置3の注視点変換手段31が作動し,注視点変換装置3の注視点変換手段31は,まず,シーン画像上の座標を対応点探索手段30が選択した参照画像上の座標に変換する参照画像用座標変換行列を演算する(S30)。
この参照画像用座標変換行列としては,3次元空間のある平面から他の平面へ投影するためのホモグラフィ行列を利用することができ,このホモグラフィ行列は,以下に述べる原理により,投影する平面間(ここでは,シーン画像と参照画像)の4つの対応点から演算することが知られている。
数式3で示したように,ホモグラフィ行列Hは3行3列の行列である。h33はホモグラフィ行列のスケールファクタになるため,h33の値が1になるようにホモグラフィ行列を正規化することを考えると,参照画像の特徴点(xi,yi)とこれに対応するシーン画像の特徴点(x'i,y'i)は,正規化後のホモグラフィ行列H'(h33が1)を用いて数式4のような関係になる。よって,最低限,4つの対応点がわかれば,ホモグラフィ行列において不明な8個の要素(h11からh32)を解くことのできる連立方程式を導出することができる。
Figure 2014186720
Figure 2014186720
なお,対応点の数が多ければ,参照画像用座標変換行列を演算する際,ランダムに4つの対応点を抽出してホモグラフィ行列を演算する処理を複数繰り返すことで,ホモグラフィ行列の演算精度を高めるRANSAC(RANdom SAmple Consensus)に代表されるロバスト推定手法を利用することができる。
注視点変換装置3の対応点探索手段30が,シーン画像と参照画像間における対応点を探索する処理を参照画像毎に行い,対応点の数が多い参照画像を選択することで,RANSACなどの手法を用いて,参照画像用座標変換行列を精度よく演算することできる。
次に,注視点変換装置3の注視点変換手段31は,参照画像用座標変換行列を用いて,シーン画像の注視点を対応点探索手段30が選択した参照画像上の座標に変換する(S31)。
次に,注視点変換装置3の注視点変換手段31は,対応点探索手段30が選択した参照画像に付加されている情報を参照して,この参照画像が,重複部の注視点が統合される被統合参照画像であるか否かを判定する(S32)。
対応点探索手段30が選択した参照画像が,重複部の注視点が統合される被統合参照画像の場合,注視点変換装置3の注視点変換手段31は,参照画像用座標変換行列を用いて変換して得られた被統合参照画像上の注視点を,重複部に含まれる注視点と重複部に含まれない注視点に分離する(S33)。
被統合参照画像となる参照画像には,アイトラッキング装置2を用いたユーザビリティテストを行う前に,重複部となる領域を示す座標が設定され,被統合参照画像に関連付けた状態で参照画像DB32に記憶されている。そして,注視点変換装置3の注視点変換手段31は,重複部となる領域に含まれる被統合参照画像上の注視点と,重複部となる領域に含まれない被統合参照画像上の注視点とに分けることで,被統合参照画像上の注視点を,重複部に含まれる注視点と重複部に含まれない注視点に分離する。
次に,注視点変換装置3の注視点変換手段31は,被統合参照画像の重複部に含まれない注視点については,参照画像用座標変換行列を用いて変換して得られた被統合参照画像上の注視点を被統合参照画像に関連付けて参照画像DB32に記憶する(S34)。
また,注視点変換装置3の注視点変換手段31は,被統合参照画像の重複部に含まれる注視点については,上述した重複部用座標変換行列を用いて,被統合参照画像の重複部に含まれる注視点を統合先参照画像上の座標に変換した後(S35),重複部用座標変換行列を用いて変換した注視点を統合先参照画像に関連付けて参照画像DB32に記憶して(S36),この手順を終了する。
このように,被統合参照画像の重複部上の注視点を統合先参照画像上の座標に変換する際,被統合参照画像の重複部上の座標を統合先参照画像上の座標に変換する重複部用座標変換行列が必要になる。重複部用座標変換行列は,アイトラッキング装置2が出力した注視点を変換する処理を行うごとに演算して求めるようにすることもできるが,参照画像(ここでは,被統合参照画像と統合先参照画像)は予め参照画像DB32に記憶するため,第2実施形態では,重複部用座標変換行列を予め演算して求め,被統合参照画像に関連付けた状態で重複部用座標変換行列を参照画像DB32に予め記憶するようにしている。
なお,選択した参照画像が,重複部の注視点を統合する統合先参照画像の場合,注視点変換装置3の注視点変換手段31は,重複部内の注視点であるか否かにかかわらず,参照画像用座標変換行列を用いて変換して得られた統合先参照画像上の注視点を統合先参照画像に関連付けて記憶して(S37),この手順を終了する。
図18は,重複部用座標変換行列を求める処理を説明するフロー図である。なお,重複部用座標変換行列を求める処理は,被統合参照画像と統合先参照画像の対毎に行われる。
注視点変換装置3の重複部用座標変換行列演算手段34が重複部用座標変換行列を演算する際,まず,注視点変換装置3の重複部設定手段33を用いて,被統合参照画像と統合先参照画像それぞれにおいて重複部となる領域を示す座標がユーザによって設定される(S40)。
被統合参照画像と統合先参照画像それぞれにおいて重複部を示す座標をユーザに設定させる際,注視点変換装置3の重複部設定手段33は,ユーザが被統合参照画像を選択すると,被統合参照に付加された情報を参照して,ユーザが選択した被統合参照画像に対応する統合先参照画像を特定した後,被統合参照画像(例えば,図13(b))と被統合参照画像に対応する統合先参照画像(例えば,図13(c))の2つを並べてディスプレイ3aに表示する。次に,注視点変換装置3の重複部設定手段33は,ポインティングデバイス3bを用いて,被統合参照画像において重複部となる領域と,統合参照画像において重複部となる領域をディスプレイ3a上でユーザに設定させ,被統合参照画像と統合先参照画像それぞれにおいて重複部となる領域を示す座標を取得する。なお,重複部となる領域をユーザに設定させる方法は任意で,図13のように,重複部となる領域として矩形の領域をユーザに設定させるようにすることが一般的であるが,重複部となる領域として任意形状の領域をユーザに設定させるようにしてもよい。
次に,注視点変換装置3の重複部用座標変換行列演算手段34は,被統合参照画像と統合先参照画像それぞれにおいて重複部となる領域を示す座標を用いて,被統合参照画像と統合先参照画像それぞれから重複部内の画像を切り出す(S41)。
次に,注視点変換装置3の重複部用座標変換行列演算手段34は,被統合参照画像と統合先参照画像それぞれから切り出した重複部内の画像の特徴点を求める。ここでは,被統合参照画像から切り出した重複部内の画像の特徴点と,統合先参照画像から切り出した重複部内の画像の特徴点を求めることになる(S42)。なお,特徴点の求め方については上述している。
次に,注視点変換装置3の重複部用座標変換行列演算手段34は,特徴点を利用して,被統合参照画像と統合先参照画像間の対応点を探索する処理を行う(S43)。特徴点を利用した対応点の探索を自動的に行う手法については上述している。なお,被統合参照画像と統合先参照画像とでは,撮影方向が逆転するため,重複部用座標変換行列の演算に必要な数の対応点が探索できないことがある。このときに対応できるように,被統合参照画像の特徴点と統合先参照画像の特徴点をユーザが手動で対応付けられるようにしておくことが望ましい。
次に,注視点変換装置3の重複部用座標変換行列演算手段34は,被統合参照画像と統合先参照画像間の対応点を利用して,被統合参照画像における重複部上の座標を統合先参照画像上の座標に変換する重複部用座標変換行列を演算する(S44)。なお,重複部用座標変換行列は,注視点が統合される被統合参照画像の重複部上の座標を,注視点を統合する統合先参照画像の重複部上の座標に座標変換する座標変換行列と,統合先参照画像内における重複部の位置とから求めることができる。
次に,注視点変換装置3の重複部用座標変換行列演算手段34は,重複部用座標変換行列と重複部の座標を被統合参照画像に関連付けて参照画像DB32に記憶し,この手順は終了する。
なお,これまでの実施形態では,左右方向の撮影位置を変えて対象物を撮影することで得られた参照画像について述べた。上下方向の撮影位置を変えて対象物を撮影した画像を参照画像とする場合については,撮影方向を左右方向から上下方向に変えるだけで,上述した内容で対応を図れる。
1,3 注視点変換装置
10,30 対応点探索手段
11,31 注視点変換手段
12,32 参照画像DB
33 重複部設定手段
34 重複部用座標変換行列演算手段
2 アイトラッキング装置

Claims (10)

  1. 左右方向または上下方向の撮影位置を変えて対象物を撮影することで得られた複数の参照画像を記憶した参照画像データベースと,注視点が付加されたシーン画像が入力されると,前記シーン画像の特徴点を抽出した後,前記参照画像データベースに記憶している前記参照画像毎に,前記シーン画像の特徴点と前記参照画像の特徴点を利用して,前記シーン画像と前記参照画像間における対応点を探索する処理を行い,対応点の探索結果に基づいて前記参照画像を選択する対応点探索手段と,前記対応点探索手段が選択した前記参照画像にかかる対応点を用いて,前記シーン画像上の座標を前記参照画像上の座標に変換する参照画像用座標変換行列を演算した後,前記参照画像用座標変換行列を用いて前記シーン画像に付加された注視点を前記対応点探索手段が選択した前記参照画像上の座標に変換する注視点変換手段を備えたことを特徴とする注視点変換装置。
  2. 前記注視点変換手段は,選択した前記参照画像上の座標に変換した注視点を,正面から対象物全体を撮影した対象物の基準画像上の座標に変換する処理を行うことを特徴とする,請求項1に記載した注視点変換装置。
  3. 前記参照画像データベースに記憶した前記参照画像を,左右方向の撮影位置を変え対象物の全体を撮影して得られた画像を所定の手順で分割した画像とすることを特徴とする,請求項2に記載した注視点変換装置。
  4. 前記参照画像は,対象物上の撮影個所を重複させて撮影した画像で,対象物上の撮影個所が重複している前記参照画像間においては,重複している個所である重複部の注視点が統合される被統合参照画像と,前記重複部の注視点の統合先となる統合先参照画像を予め定めておき,
    前記注視点変換手段は,選択した前記参照画像が前記被統合参照画像の場合,前記被統合参照画像における前記重複部内の注視点を前記統合先参照画像上の座標に変換する重複部用座標変換行列を用いて,前記被統合参照画像における重複部内の注視点を前記統合先参照画像上の座標に変換した後,前記統合先参照画像上の座標に変換した注視点を前記統合先参照画像に関連付けて記憶し,前記被統合参照画像における前記重複部以外の注視点については,上述の座標変換を行うことなく,前記被統合参照画像に関連付けて記憶し,選択した前記参照画像が前記統合先参照画像の場合,前記重複部内の注視点であるか否かにかかわらず,前記統合先参照画像上の注視点を前記統合先参照画像に関連付けて記憶することを特徴とする,請求項1に記載した注視点変換装置。
  5. 前記被統合参照画像上の前記重複部の領域と前記統合先参照画像上の前記重複部の領域をユーザが設定する際に用いられる重複部設定手段と,
    前記重複部設定手段を用いて設定された前記被統合参照画像上の前記重複部における特徴点と,前記統合先参照画像上の前記重複部における特徴点を抽出し,前記被統合参照画像上の前記重複部と前記統合先参照画像上の前記重複部間における対応点を探索する処理を行い,この対応点を用いて前記重複部用座標変換行列を演算する前記重複部用座標変換行列を演算する重複部用座標変換行列算出手段を備えていることを特徴とする,請求項4に記載した注視点変換装置。
  6. 前記重複部用座標変換行列算出手段は,対応点を探索する処理において,前記重複部用座標変換行列を演算するために必要な数の対応点を探索できなかった場合,対応点を手動でユーザに設定させることを特徴とする,請求項5に記載した注視点変換装置。
  7. 注視点が付加されたシーン画像が入力される注視点変換装置が,注視点が付加されたシーン画像が入力されると,前記シーン画像の特徴点を抽出した後,左右方向の撮影位置を変えて対象物を撮影することで得られた参照画像毎に,前記シーン画像と前記参照画像の特徴点を利用して,前記シーン画像と前記参照画像間における対応点を探索する処理を行い,対応点の探索結果に基づいて前記参照画像を選択する工程1と,前記注視点変換装置が,選択した前記参照画像にかかる対応点を用いて,前記シーン画像上の座標を前記参照画像上の座標に変換する参照画像用座標変換行列を演算した後,前記参照画像用座標変換行列を用いて前記シーン画像に付加された注視点を選択した前記参照画像上の座標に変換する処理を行う工程2を含むことを特徴とする注視点変換方法。
  8. 前記工程2において,前記注視点変換装置は,前記参照画像用座標変換行列を用いて前記シーン画像に付加された注視点を選択した前記参照画像上の座標に変換した後,選択した前記参照画像上の座標に変換した注視点を対象物の基準画像上の座標に変換することを特徴する,請求項7に記載した注視点変換方法。
  9. 前記参照画像を,左右方向の撮影位置を変え対象物の全体を撮影して得られた画像を所定の手順で分割した画像とすることを特徴とする,請求項9に記載した注視点変換方法。
  10. 前記参照画像は,対象物上の撮影個所を重複させて撮影した画像で,対象物上の撮影個所が重複している前記参照画像間においては,重複している重複部の注視点が統合される被統合参照画像と,前記重複部の注視点の統合先となる統合先参照画像を予め定めておき,
    前記工程2において,前記注視点変換装置は,選択した前記参照画像が前記被統合参照画像の場合,前記被統合参照画像における前記重複部内の注視点を前記統合先参照画像上の座標に変換する重複部用座標変換行列を用いて,前記被統合参照画像における重複部内の注視点を前記統合先参照画像上の座標に変換した後,前記統合先参照画像上の座標に変換した注視点を前記統合先参照画像に関連付けて記憶し,前記被統合参照画像における前記重複部以外の注視点については,上述の座標変換を行うことなく,前記被統合参照画像に関連付けて記憶し,選択した前記参照画像が前記統合先参照画像の場合,前記重複部内の注視点であるか否かにかかわらず,前記統合先参照画像上の注視点を前記統合先参照画像に関連付けて記憶することを特徴とする,請求項7に記載した注視点変換方法。
JP2014024919A 2013-02-19 2014-02-12 注視点変換装置および方法 Expired - Fee Related JP6327441B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014024919A JP6327441B2 (ja) 2013-02-19 2014-02-12 注視点変換装置および方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013030235 2013-02-19
JP2013030235 2013-02-19
JP2014024919A JP6327441B2 (ja) 2013-02-19 2014-02-12 注視点変換装置および方法

Publications (2)

Publication Number Publication Date
JP2014186720A true JP2014186720A (ja) 2014-10-02
JP6327441B2 JP6327441B2 (ja) 2018-05-23

Family

ID=51834180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014024919A Expired - Fee Related JP6327441B2 (ja) 2013-02-19 2014-02-12 注視点変換装置および方法

Country Status (1)

Country Link
JP (1) JP6327441B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128755A (ja) * 2017-02-07 2018-08-16 大日本印刷株式会社 文章表示装置、文章表示方法、及びプログラム
CN113553920A (zh) * 2021-07-02 2021-10-26 黑芝麻智能科技(上海)有限公司 注视方向特征采集方法、装置、计算机设备和存储介质
WO2023233634A1 (ja) * 2022-06-02 2023-12-07 日本電気株式会社 モデル生成装置、モデル生成方法、プログラム
JP7431714B2 (ja) 2020-10-16 2024-02-15 株式会社日立製作所 視線分析装置と視線分析方法及び視線分析システム
CN113553920B (zh) * 2021-07-02 2024-06-04 黑芝麻智能科技(上海)有限公司 注视方向特征采集方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012126844A1 (en) * 2011-03-18 2012-09-27 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and apparatus for gaze point mapping
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012126844A1 (en) * 2011-03-18 2012-09-27 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method and apparatus for gaze point mapping
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128755A (ja) * 2017-02-07 2018-08-16 大日本印刷株式会社 文章表示装置、文章表示方法、及びプログラム
JP7431714B2 (ja) 2020-10-16 2024-02-15 株式会社日立製作所 視線分析装置と視線分析方法及び視線分析システム
CN113553920A (zh) * 2021-07-02 2021-10-26 黑芝麻智能科技(上海)有限公司 注视方向特征采集方法、装置、计算机设备和存储介质
CN113553920B (zh) * 2021-07-02 2024-06-04 黑芝麻智能科技(上海)有限公司 注视方向特征采集方法、装置、计算机设备和存储介质
WO2023233634A1 (ja) * 2022-06-02 2023-12-07 日本電気株式会社 モデル生成装置、モデル生成方法、プログラム

Also Published As

Publication number Publication date
JP6327441B2 (ja) 2018-05-23

Similar Documents

Publication Publication Date Title
JP5872923B2 (ja) Ar画像処理装置及び方法
CN106705837B (zh) 一种基于手势的物体测量方法及装置
EP2866201B1 (en) Information processing apparatus and method for controlling the same
US9696543B2 (en) Information processing apparatus and information processing method
JP6548967B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20150085797A (ko) 정보처리장치 및 정보처리방법
JP2013179397A5 (ja)
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP6680207B2 (ja) 視線計測システム、視線計測方法、及びプログラム
US20200184736A1 (en) Information processing apparatus, system, image processing method, and storage medium
JP6327441B2 (ja) 注視点変換装置および方法
JP6017343B2 (ja) データベース生成装置、カメラ姿勢推定装置、データベース生成方法、カメラ姿勢推定方法、およびプログラム
CN104915948B (zh) 用于使用范围传感器选择二维兴趣区域的系统和方法
JP7102173B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6171781B2 (ja) 視線分析システム
JP6719945B2 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
CN110288714B (zh) 一种虚拟仿真实验系统
KR102503976B1 (ko) 증강현실 영상 보정 장치 및 방법
JP6576177B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
CN106303501B (zh) 基于图像稀疏特征匹配的立体图像重构方法及装置
JP6515022B2 (ja) 観察領域推定方法、観察領域推定装置、及びプログラム
WO2019080257A1 (zh) 电子装置、车祸现场全景图像展示方法和存储介质
Bykowski et al. Feature matching and ArUco markers application in mobile eye tracking studies
CN111739081A (zh) 特征点匹配方法、拼接方法、装置、电子设备及存储介质
US10068375B2 (en) Information processing apparatus, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180404

R150 Certificate of patent or registration of utility model

Ref document number: 6327441

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees