JP2015228992A - 視線分析システムおよび視線分析装置 - Google Patents

視線分析システムおよび視線分析装置 Download PDF

Info

Publication number
JP2015228992A
JP2015228992A JP2014116404A JP2014116404A JP2015228992A JP 2015228992 A JP2015228992 A JP 2015228992A JP 2014116404 A JP2014116404 A JP 2014116404A JP 2014116404 A JP2014116404 A JP 2014116404A JP 2015228992 A JP2015228992 A JP 2015228992A
Authority
JP
Japan
Prior art keywords
image
scene
distance
feature point
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014116404A
Other languages
English (en)
Other versions
JP6311461B2 (ja
Inventor
智子 小堀
Tomoko Kobori
智子 小堀
小川 隆
Takashi Ogawa
隆 小川
隼 沖
Hayato Oki
隼 沖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2014116404A priority Critical patent/JP6311461B2/ja
Publication of JP2015228992A publication Critical patent/JP2015228992A/ja
Application granted granted Critical
Publication of JP6311461B2 publication Critical patent/JP6311461B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】 対象物が撮像に適さない環境に存在する場合でも、対象物上における閲覧者の注目箇所を特定可能な視線分析システムおよび視線分析装置を提供する。
【解決手段】 カメラと距離センサを備えた視線追跡装置から、シーン画像と注視点を取得し(S11)、シーン画像からシーン画像特徴点を抽出し(S12)、基準画像特徴点を取得し(S13)、特徴点同士の対応付けを行う(S14)。視線追跡装置からシーン距離画像を取得し(S15)、シーン距離画像からシーン距離画像特徴点を抽出し(S16)、基準距離画像特徴点を取得し(S17)、特徴点同士の対応付けを行う(S18)。シーン画像とシーン距離画像のうち対応付けが多い方を選択画像とし(S20)、選択画像と基準画像等の座標を変換する座標変換行列を作成し(S30)、座標変換行列を利用して、各シーン画像の注視点を座標変換し、基準画像上の対応点を算出する(S40)。
【選択図】 図3

Description

本発明は、人物の視線を推定し、分析するための技術に関する。
従来、評価対象印刷物を見る人物の視線を推定・追跡して、掲載商品への視線を計測することで、注視度合いや関心度合いを解析し、生活者の購買動向を評価分析することが知られている。生活者に適切な購買情報を提供するためには、評価対象印刷物の掲載情報を、どのように見ているかを知ることが重要となる。
このような評価対象印刷物の掲載情報の注目度を分析評価するため、出願人は、簡単に、被験者に無用な視線の動きを生じさせずに高い精度で、被験者の視線を推定して追跡することができる技術を提案している(特許文献1参照)。この技術を利用して、印刷物等を正面から撮像した状態である基準画像に注視点を変換した後、基準画像上にヒートマップを作成することが可能となる。ヒートマップとは、クラスタリング等の結果による数値の大小を色の濃淡等で表現したグラフの一種である。ヒートマップにより、被験者が基準画像上のどの箇所を見ていたかを確認することができる。
特開2013−81762号公報 特開2007−319187号公報
DavidG.Lowe、"Distinctive image features from scaleinvariant keypoints"、Int.Journal of Computer Vision、Vol.60、No.2、PP.91‐110、2004. H.Bay,T.Tuytelaars,andL.VanGool、"SURF:Speeded Up Robust.Features"、InECCV、pp.404‐417、2006. 橋本浩一、"ビジュアルサーボ−II−コンピュータビジョンの基礎"、日本バーチャルリアリティ学会論文誌、Vol.4、No.4、1999. トビー・テクノロジー・ジャパン株式会社、Tobiiグラスアイトラッカー、[online][平成23年9月8日検索]、インターネット<URL:http://www.tobii.com/ja−JP/eye−tracking−research/japan/products/hardware/tobii−glasses−eye−tracker/> OpenCV、SIFT/SURF、[online][平成23年9月8日検索]、インターネット<URL:http://opencv.jp/opencv−2.2/cpp/features2d_feature_detection_and_description.html> V. Lepetit and P. Fua, "Keypoint Recognition using Randomized Trees", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.28, No.9, pp。1465−1479, 2006. M.Ozuysal,P.Fua, V.Lepetit,−Fast Keypoint Recognition in Ten Lines of Code.,Proc. of Int.Conf. on Computer Vision and Pattern Recognition(2007)
上記特許文献1に記載の技術を利用して作成されたヒートマップを利用することにより、基準画像上のどの箇所をどの程度見ていたかを確認することはできる。しかしながら、対象物が、立体的、曲面が多い、特徴が少ないエリアが多い等の状態である場合、ある一つの角度から撮像して基準画像を得ると、対象物の特徴が正しく基準画像に反映されないという問題がある。また、対象物が、薄暗い場所で撮像された場合、視線追跡のためのシーンカメラにより撮像されるシーン画像は、実際に目で見るよりも暗く、対象物を認識してマッチングすることが難しいという問題がある。
そこで、本発明は、対象物が撮像に適さない環境に存在する場合であっても、対象物上における閲覧者の注目した箇所を特定することが可能な視線分析システムおよび視線分析装置を提供することを課題とする。
上記課題を解決するため、本発明では、対象物を撮像するカメラと、対象物との距離を測定する距離センサを備え、被験者の注視点を取得する視線追跡装置と、当該視線追跡装置とデータ通信可能な視線分析装置を有するシステムであって、前記視線分析装置は、前記カメラにより撮像されたシーン画像と、前記シーン画像上における注視点を取得するシーン画像取得手段と、前記距離センサにより測定された距離に基づくシーン距離画像を取得するシーン距離画像取得手段と、前記シーン画像から複数のシーン画像特徴点を抽出するシーン画像特徴点抽出手段と、前記シーン距離画像から複数のシーン距離画像特徴点を抽出するシーン距離画像特徴点抽出手段と、事前に準備された基準画像における基準画像特徴点と前記シーン画像特徴点の対応付けを行うシーン画像対応付け手段と、事前に準備された基準距離画像における基準距離画像特徴点と前記シーン距離画像特徴点の対応付けを行うシーン距離画像対応付け手段と、前記シーン画像とシーン距離画像のうち、対応付けが多くなされた方の画像を選択画像として、当該選択画像の特徴点と対応する基準画像または基準距離画像の対応関係に基づいて、両者の座標を変換する座標変換行列を、各選択画像ごとに作成する変換行列作成手段と、前記作成された座標変換行列を利用して、複数の前記シーン画像のそれぞれについて、前記シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出する対応点算出手段と、を備えたものであることを特徴とする視線分析システムを提供する。
本発明に係る視線分析システムによれば、対象物を撮像するカメラと、対象物との距離を測定する距離センサを備え、被験者の注視点を取得する視線追跡装置を用い、カメラにより撮像されたシーン画像と、シーン画像上における注視点を取得し、距離センサにより測定された距離に基づくシーン距離画像を取得し、シーン画像から複数のシーン画像特徴点を抽出し、シーン距離画像から複数のシーン距離画像特徴点を抽出し、シーン画像特徴点と基準画像特徴点の対応付けを行い、シーン距離画像特徴点と基準距離画像特徴点の対応付けを行い、シーン画像とシーン距離画像のうち、対応付けが多くなされた方の画像を選択画像として、選択画像の特徴点と対応する基準画像または選択特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各選択画像ごとに作成し、作成された座標変換行列を利用して、複数のシーン画像のそれぞれについて、シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出するようにしたので、対象物が撮像に適さない環境に存在する場合であっても、対象物上における閲覧者の注目した箇所を特定することが可能となる。
また、本発明では、視線分析システムの前記視線追跡装置は、前記カメラによる撮像と、前記距離センサによる測定を、同期して行うことを特徴とする。本発明によれば、カメラによる撮像と、距離センサによる測定を同期して行うようにしたので、シーン画像とともに取得した注視点を、シーン距離画像に対応する注視点として取得することができる。
また、本発明では、対象物を撮像するカメラと、対象物との距離を測定する距離センサと、を備え、前記カメラにより撮像されたシーン画像と、前記距離センサにより測定された距離に基づくシーン距離画像と、シーン画像上の被験者の注視点と、を取得する視線追跡装置に対して、データ通信可能に接続された視線分析装置であって、前記カメラにより撮像されたシーン画像と、前記シーン画像上における注視点を取得するシーン画像取得手段と、前記距離センサにより測定された距離に基づくシーン距離画像を取得するシーン距離画像取得手段と、前記シーン画像から複数のシーン画像特徴点を抽出するシーン画像特徴点抽出手段と、前記シーン距離画像から複数のシーン距離画像特徴点を抽出するシーン距離画像特徴点抽出手段と、基準画像における基準画像特徴点を複数取得する基準画像特徴点取得手段と、基準距離画像における基準距離画像特徴点を複数取得する基準距離画像特徴点取得手段と、前記シーン画像特徴点と基準画像特徴点の対応関係を求めるシーン画像対応付け手段と、前記シーン距離画像特徴点と基準距離画像特徴点の対応関係を求めるシーン距離画像対応付け手段と、前記シーン画像とシーン距離画像のうち、求められた対応関係が多い方の画像を選択画像として、当該選択画像の特徴点と対応する基準画像または選択特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各選択画像ごとに作成する変換行列作成手段と、前記作成された座標変換行列を利用して、複数の前記シーン画像のそれぞれについて、前記シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出する対応点算出手段と、を有することを特徴とする視線分析装置を提供する。
本発明に係る視線分析装置によれば、視線追跡装置のカメラにより撮像されたシーン画像と、シーン画像上における注視点を取得するとともに、視線追跡装置の距離センサにより測定された距離に基づくシーン距離画像を取得し、シーン画像から複数のシーン画像特徴点を抽出し、シーン距離画像から複数のシーン距離画像特徴点を抽出し、シーン画像特徴点と基準画像特徴点の対応付けを行い、シーン距離画像特徴点と基準距離画像特徴点の対応付けを行い、シーン画像とシーン距離画像のうち、対応付けが多くなされた方の画像を選択画像として、選択画像の特徴点と対応する基準画像または選択特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各選択画像ごとに作成し、作成された座標変換行列を利用して、複数のシーン画像のそれぞれについて、シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出するようにしたので、カメラと距離センサを備え、カメラにより撮像されたシーン画像、距離センサにより測定された距離に基づくシーン距離画像、対応する被験者の注視点を取得する視線追跡装置と組み合わせることにより、対象物が撮像に適さない環境に存在する場合であっても、対象物上における閲覧者の注目した箇所を特定することが可能となる。
本発明によれば、対象物が撮像に適さない環境に存在する場合であっても、対象物上における閲覧者の注目した箇所を特定することが可能となるという効果を有する。
本発明の一実施形態に係る視線分析システムの概要を示す外観図である。 本発明の一実施形態に係る視線分析システムのハードウェア構成を示す図である。 本発明の一実施形態に係る視線分析システムの処理動作を示すフローチャートである。 視線追跡装置200により取得されるシーン画像および注視点を示す図である。 シーン画像上の注視点および特徴点を示す図である。 基準画像特徴点とシーン画像特徴点の対応関係を示す図である。 シーン画像の注視点から基準画像の対応点への変換式を示す図である。 シーン画像の注視点から基準画像の対応点への座標変換の例を示す図である。 基準画像と、注視点を変換して得られた対応点の関係を示す図である。 本実施形態に係る視線分析システムにより作成されたヒートマップの一例を示す図である。
<1.システム構成>
以下、本発明の好適な実施形態について図面を参照して詳細に説明する。図1は、本発明の一実施形態に係る視線分析システムの概要を示す外観図である。図1において、100は視線分析装置、200は視線追跡装置、300は対象物である。図1においては、対象物としてチラシ印刷物を用いた例を示している。
視線追跡装置200は、付属のカメラによりメガネ型の視線追跡装置200を掛けた人物の視点に近い位置から対象物300を撮像してシーン画像を取得するとともに、付属の距離センサにより掛けた人物からの距離に基づくシーン距離画像を取得する。撮像するタイミング、距離測定のタイミングと同期して、赤外線センサにより視点位置を取得し、シーン画像上における注視点を取得する。シーン画像と各シーン画像に対応する注視点、シーン距離画像は、送信その他の手段によりデータとして視線分析装置100に渡される。視線分析装置100は、対象物300の基準画像、基準距離画像を記憶しておき、視線追跡装置200から取得した各シーン画像の特徴点と基準画像の特徴点の対応付けを行うとともに、視線追跡装置200から取得した各シーン距離画像の特徴点と基準距離画像の特徴点の対応付けを行い、対応付けが多く行われた方の画像を選択画像として、選択画像と基準画像または基準距離画像の座標変換行列を算出し、座標変換行列を用いて各シーン画像の注視点を基準画像上の対応点に変換する。
図2(a)は、視線分析装置100のハードウェア構成図である。視線分析装置100は、汎用のコンピュータに専用のプログラムを組み込むことにより実現することができる。図2に示すように、視線分析装置100は、CPU(Central Processing Unit)10aと、メインメモリであるRAM(Random Access Memory)10bと、CPU10aが実行するプログラムやデータを記憶するためのハードディスク、フラッシュメモリ等の記憶装置10cと、キーボード・マウス等の指示入力部10dと、視線追跡装置200やデータ記憶媒体等の外部装置とデータ通信するためのデータ入出力I/F(インタフェース)10eと、液晶ディスプレイ等の表示デバイスである表示部10fを備え、互いにバスを介して接続されている。
記憶装置10cには、基準画像と、上記特許文献1、非特許文献1〜7に記載の手法により基準画像から抽出された特徴点である基準画像特徴点、基準距離画像から抽出された特徴点である基準距離画像特徴点が、それぞれ各画像と対応付けて記憶されている。基準画像は、対象物の画像データそのもの、または対象物を正面から撮像することにより取得される。基準距離画像は、距離センサを対象物の正面に設置して距離の測定を行い、測定された距離に基づいて、座標と距離を対応付けたデータ配列として取得される。このデータ配列は、各座標に対応する値を階調として、表示装置に表示させることにより画像として表現することが可能であるので、基準距離画像と呼ぶことにする。基準画像と基準距離画像の画素サイズ(縦×横の画素数)は、同一になるように揃えておく。
図2(b)は、視線追跡装置200のハードウェア構成図である。赤外線光源201は、赤外線207を被験者の眼球301(角膜(瞳孔)や強膜(白目))に照射する。赤外線センサ202は、眼球301から反射された赤外線208(反射光)を受光する。シーンカメラ203は、二次元撮像素子である。シーンカメラ203は、被験者の視野ほぼ同等の光景(注視点を中心としたチラシを含む画像)をシーン画像として撮像する。距離センサ206は、対象物までの距離を測定するセンサである。図2(b)に示した視線追跡装置200は、特許文献1に示した公知の視線追跡装置に、公知の距離センサを取り付けることにより実現される。
距離センサ206としては、公知の様々な方式の距離センサを用いることができるが、本実施形態では、投射したレーザーが対象物まで往復するのにかかる時間から距離を計測するTOF(Time-of-Flight)方式を採用している。したがって、図2に示した距離センサ206は、レーザー光源、時間計測回路、受光部を備えた構成となっている。
処理部204は、演算処理回路と、記憶回路と、コネクターと、二次電池とを備える。処理部204は、たとえば、眼球301の角膜と強膜の反射率の違いを利用した強膜反射法(リンバスト・トラッキング法。特許文献2による)に基づいて、受光した反射光208を用いて視線を計測して、視線の方向を推定する。なお、処理部204は、強膜反射法の代わりに、瞳孔−角膜反射法や、角膜反射法、ダブルプリキニエ法などを用いることも可能である。そして、特許文献1に示したように推定した視線の方向と三次元空間における印刷物の位置を利用して二次元平面であるシーン画像上における注視点の座標を求める。また、処理部204は、求められた注視点と撮像したシーン画像とを、通信接続した視線分析装置100に送信する。さらに、処理部204は、取得したシーン距離画像を、通信接続した視線分析装置100に送信する。コネクターは、視線追跡装置200と視線分析装置100とに通信接続する。二次電池は、処理部204自身の各回路と、赤外線光源201と赤外線センサ202とシーンカメラ203とに、電力を供給する。処理部204は、記憶回路に記憶されたプログラムに従って演算処理回路が上記各処理を実行する。
<2.処理動作>
次に、図3に示したフローチャートを用いて、図1、2に示した視線分析システムの処理動作を説明する。まず、作業者は、メガネ型の視線追跡装置200を起動するとともに、メガネ型の視線追跡装置200をメガネのように掛けて、対象物300の閲覧を開始する。視線追跡装置200が起動されると、シーンカメラ203が撮像を開始し、距離センサ206が距離の測定を開始し、赤外線光源201が発光を開始し、赤外線センサ202も受光を開始する。図3に示したステップS11〜ステップS14の一連の処理と、ステップS15〜ステップS18の一連の処理は並行して行われる。
先に、ステップS11〜ステップS14の一連の処理について説明する。まず、視線追跡装置200が、シーン画像および注視点を取得する(ステップS11)。具体的には、シーンカメラ203が所定時間間隔で撮像を行ってシーン画像を取得し、赤外線センサ202により注視点を取得する。シーンカメラ203、赤外線光源201、赤外線センサ202は互いに同期しており、シーン画像が撮像されるタイミングで注視点が取得される。所定時間間隔としては適宜設定できるが、例えば、1秒間隔で設定することができる。また、撮影枚数も任意に設定することができる。本実施形態では、1秒間隔でシーン画像を10枚撮影したものとして説明する。視線追跡装置200の処理部204は、取得されたシーン画像と注視点を順次、図示しないデータ通信部を介して視線分析装置100に送信する。注視点は、少なくとも対応するシーン画像中の座標を含む形式で送信される。視線分析装置100では、データ入出力I/F10eを介してシーン画像と注視点を受信する。
図4は、シーン画像Cと注視点Eの関係を示す図である。上述のように、10枚のシーン画像が撮像された場合、視線分析装置100は10枚のシーン画像C1〜C10を受信する。そして、視線分析装置100は、各シーン画像C1〜C10について、それぞれ対応する注視点E1〜E10を抽出する。図4において、矩形状の枠で示したシーン画像C1〜C10内の“・(黒丸、ドット)”は、注視点E1〜E10の位置を示している。なお、図4の例では、シーン画像C1〜C10として矩形状の枠のみを示しているが、実際には、図5に示すように、対象物300の少なくとも一部(好ましくは全部)が撮像されて記録された状態となる。図5(a)は、1枚のシーン画像の一例を示しており、図5(b)はシーン画像上に注視点がマッピングされた状態を示している。
次に、視線分析装置100が、シーン画像特徴点の抽出を行う(ステップS12)。具体的には、シーン画像を解析し、シーン画像の特徴を表現した点となるシーン画像特徴点を抽出する。シーン画像からのシーン画像特徴点の抽出は、公知の様々な手法により行うことができる。例えば、非特許文献1に記載のSIFTアルゴリズム、非特許文献2に記載のSURF(SpeededUpRobustFeatures)アルゴリズム、非特許文献6に記載のRandomized Treeアルゴリズム、非特許文献7に記載のFernsアルゴリズムを採用することができる。すなわち、上記アルゴリズムを実現するプログラムをCPU10aが実行することによりシーン画像からシーン画像特徴点の抽出を行う。本実施形態では、非特許文献1に記載のSIFTアルゴリズムに対応するプログラムをCPU10aが実行することにより、シーン画像特徴点が、シーン画像C1〜C10からそれぞれ抽出されることになる。図5(c)は、シーン画像C上から抽出された1つの特徴点Qを示している。
次に、視線分析装置100は、基準画像特徴点を取得する(ステップS13)。具体的には、基準画像から事前に抽出され、記憶されていた基準画像特徴点を記憶装置10cから取得する。続いて、視線分析装置100は、シーン画像から抽出されたシーン画像特徴点と、基準画像特徴点の対応付けを行う(ステップS14)。具体的には、特許文献1に記載の手法を用い、基準画像と各シーン画像の対応する特徴点を所定数ずつ抽出して、SIFT特徴量の類似度が高い特徴点同士の対応付けを行う。
図6は、基準画像特徴点Pとシーン画像特徴点Qを対応付けた結果を示している。上記特許文献1に記載の手法を用いることにより、図6に示すように特徴点同士の対応付けが行われる。通常、SIFT特徴量の類似度と所定のしきい値を比較することにより、SIFT特徴量の類似度が高いか否かを判定するため、各シーン画像において、基準画像の基準画像特徴点と対応付けられるシーン画像特徴点の数は異なる。ステップS14における特徴点の対応付けは、同一の対象物を撮像した画像同士で、対応する点を特定するためのものであるので、上記特許文献1に記載の手法以外の公知の様々な手法を用いることが可能である。
次に、ステップS15〜ステップS18の一連の処理について説明する。まず、視線追跡装置200が、シーン距離画像を取得する(ステップS15)。具体的には、距離センサ206が所定時間間隔で距離の測定を行ってシーン距離画像を取得する。所定時間間隔としては適宜設定できるが、例えば、1秒間隔で設定することができる。また、距離の測定回数も任意に設定することができる。本実施形態では、1秒間隔で距離を10回測定したものとして説明する。視線追跡装置200の処理部204は、距離センサ206により測定された距離に基づいて、座標と距離を対応付けたデータ配列を作成する。このデータ配列は、各座標に対応する値を階調として、表示装置に表示させることにより画像として表現することが可能であるので、シーン距離画像と呼ぶことにする。視線追跡装置200の処理部204は、取得されたシーン距離画像を順次、図示しないデータ通信部を介して視線分析装置100に送信する。視線分析装置100では、データ入出力I/F10eを介してシーン画像を受信する。
次に、視線分析装置100が、シーン距離画像特徴点の抽出を行う(ステップS16)。具体的には、シーン距離画像を解析し、シーン距離画像の特徴を表現した点となるシーン画距離像特徴点を抽出する。シーン画像からのシーン距離画像特徴点の抽出は、公知の様々な手法により行うことができる。例えば、シーン画像と同様、非特許文献1に記載のSIFTアルゴリズム、非特許文献2に記載のSURF(SpeededUpRobustFeatures)アルゴリズム、非特許文献6に記載のRandomized Treeアルゴリズム、非特許文献7に記載のFernsアルゴリズムを採用することができる。すなわち、上記アルゴリズムを実現するプログラムをCPU10aが実行することによりシーン距離画像からシーン距離画像特徴点の抽出を行う。本実施形態では、非特許文献1に記載のSIFTアルゴリズムに対応するプログラムをCPU10aが実行することにより、シーン距離画像特徴点が、シーン距離画像CK1〜CK10からそれぞれ抽出されることになる。
次に、視線分析装置100は、基準距離画像特徴点を取得する(ステップS17)。具体的には、基準距離画像から事前に抽出され、記憶されていた基準距離画像特徴点を記憶装置10cから取得する。続いて、シーン距離画像から抽出されたシーン距離画像特徴点と、基準距離画像特徴点の対応付けを行う(ステップS18)。具体的には、ステップS14と同様に、特許文献1に記載の手法を用い、基準距離画像と各シーン距離画像の対応する特徴点を所定数ずつ抽出して、SIFT特徴量の類似度が高い特徴点同士の対応付けを行う。ステップS13の場合と同様に、図6に示したようなイメージで特徴点同士の対応付けが行われることになる。
上述のように、ステップS11〜ステップS14の一連の処理と、ステップS15〜ステップS18の一連の処理は並行して行われる。したがって、上述のように、ステップS11〜ステップS14の一連の処理を先に実行してもよいが、ステップS15〜ステップS18の一連の処理を先に実行してもよい。また、各シーン画像、各シーン距離画像について交互に処理を行ってもよい。いずれにしても、次の処理に進む前に、双方の処理を終えておく必要がある。
好ましくは、ステップS11とステップS15については、同時に行うことが好ましい。具体的には、カメラ203による撮像と、距離センサ206による測定を同期して行う。この場合、同期とは、所定の比較的短い時間範囲(例えば、0.1秒間)内で行うことを意味する。
ステップS14における基準画像と各シーン画像の特徴点の対応付けが全シーン画像について完了し、ステップS18における基準距離画像と各シーン距離画像の特徴点の対応付けが全シーン距離画像について完了したら、次に、採用する画像を選択する(ステップS20)。具体的には、ステップS14、ステップS18における対応付けの結果、より多く特徴点が対応付けられた方の画像を選択する。これは、より多く対応付けが行われている方が、マッチング精度が高いと考えられるためである。
採用する画像の選択は、各シーン画像、各シーン距離画像単位で行う。すなわち、シーン画像C1とシーン距離画像CK1を比較し、特徴点が多く対応付けられた方を選択する。したがって、本実施形態のように、シーン画像10枚、シーン距離画像10枚を利用した場合、同じ数字の画像のどちらか1枚が選択され、計10枚の画像が選択されることになる。例えば、シーン画像からはC1、C2、C5、C8が選ばれ、シーン距離画像からは、CK3、CK4、CK6、CK7、CK9、CK10が選ばれる、というような状態となる。
次に、選択された画像と、対応する基準画像または基準距離画像の特徴点を用いて、座標変換行列を作成する(ステップS30)。シーン画像が選択された場合、基準画像特徴点(X,Y)、シーン画像特徴点(x,y)を図7(a)に示した所定の変換式に代入し、座標変換行列を求める。本実施形態では、座標変換行列として、3次元平面のある平面から他の平面へ投影するためのホモグラフィ行列Hを利用している。図7は、ホモグラフィ行列Hを利用した場合の、シーン画像の注視点から基準画像の対応点への変換式を示す図である。図7(b)に座標変換行列として示したホモグラフィ行列Hのうち、要素h33はスケールファクタであるため、h33=1として正規化すると、残りの8個の要素を求めることにより、座標変換行列が求まる。したがって、対応する基準画像特徴点(X,Y)、シーン画像特徴点(x,y)として、それぞれ所定個以上代入することにより、要素h11、h12、h13、h21、h22、h23、h31、h32を求めることが可能となる。
ステップS20においてシーン距離画像が選択された場合、基準距離画像特徴点(X,Y)、シーン距離画像特徴点(x,y)を図7(a)に示した所定の変換式に代入し、シーン距離画像が選択された場合と同様にして、座標変換行列を求める。
次に、作成した座標変換行列を用いて、各シーン画像に対応する注視点の座標を基準画像上の座標に変換し、対応点を算出する(ステップS40)。具体的には、ステップS30において作成された座標変換行列を用いてシーン画像上の注視点を基準画像上の対応点に座標変換する。図8は、1枚のシーン画像Cの注視点Eを基準画像K上の対応点Tに座標変換する様子を示す図である。基準画像Kと基準距離画像KKは最初から座標を一致させてあるので、基準距離画像KK上の対応点TKは、そのまま基準画像K上のものとして処理することができる。各シーン画像の注視点を基準画像上に座標変換することにより、基準画像上に複数の対応点を求めることができる。
図9は、基準画像Kと対応点T、対応点TKの関係を示す図である。上述のように、基準画像Kは、対象物300の正面からの状態を記録した画像であり、1枚のみである。シーン画像C1、C2、C5、C8、シーン距離画像CK3、CK4、CK6、CK7、CK9、CK10が選択画像として選ばれた場合、視線分析装置100は、注視点E1、E2、E5、E8を、それぞれ各シーン画像C1、C2、C5、C8に対応する座標変換行列を用いて座標変換し、変換された座標を対応点T1、T2、T5、T8とする。また、注視点E3、E4、E6、E7、E9、E10を、それぞれ各シーン距離画像CK3、CK4、CK6、CK7、CK9、CK10に対応する座標変換行列を用いて座標変換し、変換された座標を対応点TK3、TK4、TK6、TK7、TK9、TK10とする。図9において、矩形状の枠で示した基準画像K内の“・(黒丸、ドット)”は、対応点T1〜TK10の位置を示している。なお、図9の例では、基準画像Kとして矩形状の枠のみを示しているが、実際には、対象物300の正面からの像が記録された状態となる。
図9の例では、1枚の基準画像上に、各シーン画像、各シーン距離画像に対応する対応点T、TKが計10個得られる。なお、図9の例では、対応点が全て互いに異なる座標(画素)となる場合、すなわち1つの座標(画素)に複数の対応点が重ならない場合を示している。複数の対応点が同一の座標(画素)に重なる場合には、1つの座標(画素)に対応する対応点の数をカウントして記録する。
続いて、基準画像と対応点T、TKを利用してヒートマップを作成する。具体的には、各基準画像Kの座標を所定の領域に分割したクラスタリングの実行や、ガウシアンフィルタ等を用いて対応点以外に着色領域等を広げる等の加工処理をすることにより、ヒートマップを作成する。対応点等の特定の点の座標(画素)を用いてヒートマップを作成する手法としては、公知の様々な手法を用いることができる。作成されたヒートマップは、カメラにより撮像された画像、距離センサにより測定された距離に基づき、より適した方の注視点を表現したものとなるので、対象物が、立体的、曲面が多い、特徴が少ないエリアが多い等の状態である場合、また、対象物が、薄暗い場所で撮像された場合であっても、対象物上における閲覧者の注目した箇所を特定することが可能となる。
本実施形態に係る視線分析システムにより作成されたヒートマップの一例を図10に示す。ある領域に対応点が多数含まれる場合は、熱を表現した赤系統の色になり、対応注視点が含まれる数が少なくなる程、黄色、緑色と変化していく。図10の例では、基準画像として正面から撮像された対象物であるチラシ上に熱(対応点の数)に対応する色が上書きされた状態となっている。
上記実施形態では、対象物がチラシ印刷物である場合について説明した。特に、チラシ印刷物等の平面上のものであっても、特徴が少ないエリアが多い等の状態である場合や、薄暗い場所で閲覧された場合には、本発明の効果が得られる。また、本発明は、上述のように、立体的、曲面が多い対象物が、薄暗い場所で撮像された場合にも効果を発揮する。このような例としては、自動車の座席空間内部が挙げられる。
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されず、種々の変形が可能である。例えば、上記実施形態では、メガネ型の視線追跡装置200において、シーンカメラ203と距離センサ206を一方のレンズに対応する位置に左右方向に隣接させて設置したが、上下方向に隣接させて設置したり、左右両端に離して設置したりしてもよい。できれば、隣接して設置することが好ましい。
10a・・・CPU(Central Processing Unit)
10b・・・RAM(Random Access Memory)
10c・・・記憶装置
10d・・・指示入力部
10e・・・データ入出力I/F
10f・・・表示部
100・・・視線分析装置
200・・・視線追跡装置
201・・・赤外線光源
202・・・赤外線センサ
203・・・シーンカメラ
204・・・処理部
206・・・距離センサ
207・・・赤外線
208・・・赤外線(反射光)
300・・・対象物

Claims (4)

  1. 対象物を撮像するカメラと、対象物との距離を測定する距離センサを備え、被験者の注視点を取得する視線追跡装置と、当該視線追跡装置とデータ通信可能な視線分析装置を有するシステムであって、
    前記視線分析装置は、
    前記カメラにより撮像されたシーン画像と、前記シーン画像上における注視点を取得するシーン画像取得手段と、
    前記距離センサにより測定された距離に基づくシーン距離画像を取得するシーン距離画像取得手段と、
    前記シーン画像から複数のシーン画像特徴点を抽出するシーン画像特徴点抽出手段と、
    前記シーン距離画像から複数のシーン距離画像特徴点を抽出するシーン距離画像特徴点抽出手段と、
    事前に準備された基準画像における基準画像特徴点と前記シーン画像特徴点の対応付けを行うシーン画像対応付け手段と、
    事前に準備された基準距離画像における基準距離画像特徴点と前記シーン距離画像特徴点の対応付けを行うシーン距離画像対応付け手段と、
    前記シーン画像とシーン距離画像のうち、対応付けが多くなされた方の画像を選択画像として、当該選択画像の特徴点と対応する基準画像または基準距離画像の対応関係に基づいて、両者の座標を変換する座標変換行列を、各選択画像ごとに作成する変換行列作成手段と、
    前記作成された座標変換行列を利用して、複数の前記シーン画像のそれぞれについて、前記シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出する対応点算出手段と、
    を備えたものであることを特徴とする視線分析システム。
  2. 前記視線追跡装置は、前記カメラによる撮像と、前記距離センサによる測定を、同期して行うことを特徴とする請求項1に記載の視線分析システム。
  3. 対象物を撮像するカメラと、対象物との距離を測定する距離センサと、を備え、前記カメラにより撮像されたシーン画像と、前記距離センサにより測定された距離に基づくシーン距離画像と、シーン画像上の被験者の注視点と、を取得する視線追跡装置に対して、データ通信可能に接続された視線分析装置であって、
    前記カメラにより撮像されたシーン画像と、前記シーン画像上における注視点を取得するシーン画像取得手段と、
    前記距離センサにより測定された距離に基づくシーン距離画像を取得するシーン距離画像取得手段と、
    前記シーン画像から複数のシーン画像特徴点を抽出するシーン画像特徴点抽出手段と、
    前記シーン距離画像から複数のシーン距離画像特徴点を抽出するシーン距離画像特徴点抽出手段と、
    基準画像における基準画像特徴点を複数取得する基準画像特徴点取得手段と、
    基準距離画像における基準距離画像特徴点を複数取得する基準距離画像特徴点取得手段と、
    前記シーン画像特徴点と基準画像特徴点の対応関係を求めるシーン画像対応付け手段と、
    前記シーン距離画像特徴点と基準距離画像特徴点の対応関係を求めるシーン距離画像対応付け手段と、
    前記シーン画像とシーン距離画像のうち、求められた対応関係が多い方の画像を選択画像として、当該選択画像の特徴点と対応する基準画像または選択特徴点の対応関係に基づいて、両者の座標を変換する座標変換行列を、各選択画像ごとに作成する変換行列作成手段と、
    前記作成された座標変換行列を利用して、複数の前記シーン画像のそれぞれについて、前記シーン画像と対応付けられた注視点の座標を基準画像上の座標に変換し、対応点を算出する対応点算出手段と、
    を有することを特徴とする視線分析装置。
  4. 請求項3に記載の視線分析装置として、コンピュータを機能させるためのプログラム。
JP2014116404A 2014-06-05 2014-06-05 視線分析システムおよび視線分析装置 Active JP6311461B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014116404A JP6311461B2 (ja) 2014-06-05 2014-06-05 視線分析システムおよび視線分析装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014116404A JP6311461B2 (ja) 2014-06-05 2014-06-05 視線分析システムおよび視線分析装置

Publications (2)

Publication Number Publication Date
JP2015228992A true JP2015228992A (ja) 2015-12-21
JP6311461B2 JP6311461B2 (ja) 2018-04-18

Family

ID=54886113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014116404A Active JP6311461B2 (ja) 2014-06-05 2014-06-05 視線分析システムおよび視線分析装置

Country Status (1)

Country Link
JP (1) JP6311461B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019513519A (ja) * 2016-04-08 2019-05-30 ビビオール アクチェンゲゼルシャフト 視距離を測定する装置及び方法
CN116772744A (zh) * 2023-08-24 2023-09-19 成都量芯集成科技有限公司 一种基于激光测距和视觉融合的3d扫描装置及其方法
JP7431714B2 (ja) 2020-10-16 2024-02-15 株式会社日立製作所 視線分析装置と視線分析方法及び視線分析システム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0377533A (ja) * 1989-08-19 1991-04-03 Ishikawa Pref Gov 注視姿勢及び注視点絶対位置の計測装置
JP2005312605A (ja) * 2004-04-28 2005-11-10 Ditect:Kk 注視点位置表示装置
US20100053555A1 (en) * 2008-08-27 2010-03-04 Locarna Systems, Inc. Method and apparatus for tracking eye movement
JP2011194105A (ja) * 2010-03-23 2011-10-06 Dainippon Printing Co Ltd 注視点計測装置、注視点計測方法、プログラムおよび記憶媒体
JP2012526335A (ja) * 2009-05-12 2012-10-25 トヨタ自動車株式会社 物体認識方法、物体認識装置、自律移動ロボット
US20120294478A1 (en) * 2011-05-20 2012-11-22 Eye-Com Corporation Systems and methods for identifying gaze tracking scene reference locations
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体
JP2013226397A (ja) * 2012-03-29 2013-11-07 Hoya Corp 近業目的距離測定装置、並びに近業目的距離測定装置を用いた眼鏡レンズの製造方法及び製造システム
JP2014509535A (ja) * 2011-03-18 2014-04-21 ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング 注視点マッピング方法および装置
US20140146156A1 (en) * 2009-01-26 2014-05-29 Tobii Technology Ab Presentation of gaze point data detected by an eye-tracking unit

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0377533A (ja) * 1989-08-19 1991-04-03 Ishikawa Pref Gov 注視姿勢及び注視点絶対位置の計測装置
JP2005312605A (ja) * 2004-04-28 2005-11-10 Ditect:Kk 注視点位置表示装置
US20100053555A1 (en) * 2008-08-27 2010-03-04 Locarna Systems, Inc. Method and apparatus for tracking eye movement
US20140146156A1 (en) * 2009-01-26 2014-05-29 Tobii Technology Ab Presentation of gaze point data detected by an eye-tracking unit
JP2012526335A (ja) * 2009-05-12 2012-10-25 トヨタ自動車株式会社 物体認識方法、物体認識装置、自律移動ロボット
JP2011194105A (ja) * 2010-03-23 2011-10-06 Dainippon Printing Co Ltd 注視点計測装置、注視点計測方法、プログラムおよび記憶媒体
JP2014509535A (ja) * 2011-03-18 2014-04-21 ゼンゾモトリック インストルメンツ ゲゼルシャフト フュア イノベイティブ ゼンゾリク ミット ベシュレンクテル ハフツング 注視点マッピング方法および装置
US20120294478A1 (en) * 2011-05-20 2012-11-22 Eye-Com Corporation Systems and methods for identifying gaze tracking scene reference locations
JP2013081762A (ja) * 2011-09-26 2013-05-09 Dainippon Printing Co Ltd 視線分析装置、視線計測システム、方法、プログラム、記録媒体
JP2013226397A (ja) * 2012-03-29 2013-11-07 Hoya Corp 近業目的距離測定装置、並びに近業目的距離測定装置を用いた眼鏡レンズの製造方法及び製造システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019513519A (ja) * 2016-04-08 2019-05-30 ビビオール アクチェンゲゼルシャフト 視距離を測定する装置及び方法
US11058294B2 (en) 2016-04-08 2021-07-13 Vivior Ag Device and method for measuring viewing distances
JP7431714B2 (ja) 2020-10-16 2024-02-15 株式会社日立製作所 視線分析装置と視線分析方法及び視線分析システム
CN116772744A (zh) * 2023-08-24 2023-09-19 成都量芯集成科技有限公司 一种基于激光测距和视觉融合的3d扫描装置及其方法
CN116772744B (zh) * 2023-08-24 2023-10-24 成都量芯集成科技有限公司 一种基于激光测距和视觉融合的3d扫描装置及其方法

Also Published As

Publication number Publication date
JP6311461B2 (ja) 2018-04-18

Similar Documents

Publication Publication Date Title
US11176406B2 (en) Edge-based recognition, systems and methods
EP3243162B1 (en) Gaze detection offset for gaze tracking models
CN109583285B (zh) 对象识别方法
CN105391970B (zh) 提供由车辆的场景相机捕获的至少一个图像的方法和系统
JP2015219892A (ja) 視線分析システムおよび視線分析装置
JP6094106B2 (ja) 視線分析装置、視線計測システム、方法、プログラム、記録媒体
CN106372629B (zh) 一种活体检测方法和装置
EP2499963A1 (en) Method and apparatus for gaze point mapping
US20200012893A1 (en) Learning data generation device, learning data generation method, and recording medium
JP2017129567A5 (ja)
US11823394B2 (en) Information processing apparatus and method for aligning captured image and object
JP2021177399A (ja) 情報処理装置、制御方法、及びプログラム
CN107330974B (zh) 商品展示方法、装置及移动设备
JP6311461B2 (ja) 視線分析システムおよび視線分析装置
US20160110909A1 (en) Method and apparatus for creating texture map and method of creating database
US9924865B2 (en) Apparatus and method for estimating gaze from un-calibrated eye measurement points
CN102783174B (zh) 图像处理设备、内容传递系统、图像处理方法和程序
CN107515844B (zh) 字体设置方法、装置及移动设备
KR101229088B1 (ko) Led 조명을 이용한 적외선 카메라에 의한 거리 측정 및 손 동작 추적 장치 및 방법
Chang et al. Seeing through the appearance: Body shape estimation using multi-view clothing images
Paletta et al. A computer vision system for attention mapping in SLAM based 3D models
KR101175751B1 (ko) 스트랩다운 이중 모드 영상탐색기의 베이시안 규칙 기반 표적 결정 방법
US20180274918A1 (en) Three-dimensional measurement apparatus, non-transitory computer readable medium, and three-dimensional measurement system
JP2020012667A (ja) 識別装置、識別方法およびプログラム
US11138807B1 (en) Detection of test object for virtual superimposition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180305

R150 Certificate of patent or registration of utility model

Ref document number: 6311461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150