JP2017107546A - 視線検出システム、視線検出プログラムおよび視線検出方法 - Google Patents

視線検出システム、視線検出プログラムおよび視線検出方法 Download PDF

Info

Publication number
JP2017107546A
JP2017107546A JP2016201415A JP2016201415A JP2017107546A JP 2017107546 A JP2017107546 A JP 2017107546A JP 2016201415 A JP2016201415 A JP 2016201415A JP 2016201415 A JP2016201415 A JP 2016201415A JP 2017107546 A JP2017107546 A JP 2017107546A
Authority
JP
Japan
Prior art keywords
customer
product
line
sight
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016201415A
Other languages
English (en)
Inventor
珊珊 于
Shanshan Yu
珊珊 于
哲 中島
Satoru Nakajima
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to EP16199512.1A priority Critical patent/EP3174001A1/en
Priority to US15/357,128 priority patent/US20170154369A1/en
Publication of JP2017107546A publication Critical patent/JP2017107546A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】顧客毎の補正データを予め取得することなく、顧客の視線の検出精度の向上を図る技術を提供することを目的とする。【解決手段】顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を記憶する記憶部と、顧客を撮像する撮像装置により撮像された画像を用いて、複数の商品の情報が提示される領域内における顧客の視線位置を検出する検出部と、顧客により購入される商品を示す購入情報を取得する入力処理装置から取得した第1の顧客についての購入情報と、記憶部に記憶された対応情報とに基づいて、該第1の顧客により購入された商品の中から1の商品を決定する決定部と、検出部が検出した第1の顧客の領域内における視線位置を、決定部が決定した1の商品についての情報が提示される領域内の位置に基づいて較正する較正部とを含む検出装置を有する。【選択図】図1

Description

本発明は、視線検出システム、視線検出プログラムおよび視線検出方法に関する。
例えば、スーパーマーケットやレストラン等の店舗では、POS(Point of sale system)レジスタ装置等を用いて、購入された商品に関する購入情報として、例えば、購入された商品の名称および価格等が取得されている。そして、店舗では、例えば、取得した購入情報を用いて商品の仕入れ量、価格あるいは陳列の仕方等が決められている。
また、顧客を撮影した画像を用いて判定した顧客がどの商品を注視したかについてのデータと、顧客が購買した商品についてのデータとを利用して、精度の良いマーケッティングを実行する技術が提案されている(例えば、特許文献1、2参照)。簡易キャリブレーションを実現した視線測定システムも知られている(例えば、非特許文献1、2参照)。
特開2009−151409号公報 特開2010−204882号公報
大野他,"2点補正による簡易キャリブレーションを実現した視線測定システム",情報処理学会論文誌,Vol.44,No4,pp.1136−1149,2003 Ohno et al., "FreeGaze: A Gaze Tracking System for Everyday Gaze Interaction", ETRA 2002, pp. 125-132, 2002
画像から検出される各顧客の視線は、同様の条件下で検出される場合でも、顧客毎に眼球半径等が異なるため顧客毎の個人差の影響を含む。このため、顧客毎の個人差を考慮することなく視線が検出される場合で、かつ購入された商品が互いに隣接して配置されている場合、顧客が実際に注視した商品と購入した商品との対応付けを誤って判断してしまうことがある。
そこで、視線の検出処理では、例えば、予め指定される複数の所定の箇所を被験者に注視させ、眼球半径等の被験者の個人差を示す補正データを取得し、取得した補正データを用いて個人差の影響を補正する方法が知られている。しかしながら、この方法を、店舗内における商品選定の際の顧客の視線検出に応用することを考えた場合、店舗には不特定多数の顧客が訪れるため、顧客全ての補正データを予め取得することは困難である。
1つの側面では、本件開示の視線検出システム、視線検出プログラムおよび視線検出方法は、顧客毎の補正データを予め取得することなく、顧客の視線の検出精度の向上を図る技術を提供することを目的とする。
一つの観点によれば、視線検出システムは、顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を記憶する記憶部と、顧客を撮像する撮像装置により撮像された画像を用いて、複数の商品の情報が提示される領域内における顧客の視線位置を検出する検出部と、顧客により購入される商品を示す購入情報を取得する入力処理装置から取得した第1の顧客についての購入情報と、記憶部に記憶された対応情報とに基づいて、該第1の顧客により購入された商品の中から1の商品を決定する決定部と、検出部が検出した第1の顧客の領域内における視線位置を、決定部が決定した1の商品についての情報が提示される領域内の位置に基づいて較正する較正部とを含む検出装置を有する。
別の観点によれば、視線検出プログラムは、1の顧客が購入した商品を示す購入情報を取得し、撮像装置により撮像された画像を用いて1の顧客が商品を購入する前の視線位置を検出し、顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を、購入情報に基づいて参照して1の顧客が注視した1の商品を決定し、1の顧客について検出した視線位置を、決定した1の商品の位置に基づいて較正する処理をコンピュータに実行させる。
別の観点によれば、視線検出方法は、1の顧客が購入した商品を示す購入情報を取得し、撮像装置により撮像された画像を用いて1の顧客が商品を購入する前の視線位置を検出し、顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を、購入情報に基づいて参照して1の顧客が注視した1の商品を決定し、1の顧客について検出した視線位置を、決定した1の商品の位置に基づいて較正する。
本件開示の視線検出システム、視線検出プログラムおよび視線検出方法は、顧客毎の補正データを予め取得することなく、顧客の視線の検出精度の向上を図ることができる。
視線検出システム、視線検出プログラムおよび視線検出方法の一実施形態を示す図である。 視線検出システムの別の実施形態を示す図である。 顧客の視線の動きと商品の位置との関係の一例を示す図である。 図2に示した注視テーブルの一例を示す図である。 図2に示した視線検出システムにおける視線検出処理の一例を示す図である。 視線検出システムの別の実施形態を示す図である。 図6に示した注視テーブルの一例を示す図である。 図6に示した視線検出システムにおける視線検出処理の一例を示す図である。 図1、図2および図6に示した視線検出システムのハードウェア構成の一例を示す図である。
以下、図面を用いて実施形態を説明する。
図1は、視線検出システム、視線検出プログラムおよび視線検出方法の一実施形態を示す。なお、視線検出システムSYSの構成および動作は、図1に示す例に限定されず、例えば、検出装置40内のいずれかの処理部が、通信可能に接続された別のコンピュータに設けられても構わない。
図1に示した視線検出システムSYSは、撮像装置10、入力処理装置20、記憶装置30および検出装置40を有する。検出装置40は、有線または無線を介して、撮像装置10、入力処理装置20および記憶装置30と接続される。なお、検出装置40は、ネットワークを介して、撮像装置10、入力処理装置20および記憶装置30と接続されてもよい。
撮像装置10は、例えば、デジタルカメラであり、レンズと、CCD(Charge-Coupled Device)またはCMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子とを有する。撮像装置10は、店舗に配置され、店舗に来た顧客CSを毎秒30フレーム等の所定のフレームレートで撮影する。撮像装置10は、撮影した画像を検出装置40に出力する。なお、複数の撮像装置10が、店舗に配置されてもよい。また、撮像装置10は店舗内のどこに配置されてもよいが、顧客CSの顔を撮影できる位置に配置されることが望ましい。
入力処理装置20は、POSレジスタ装置、あるいはタブレット端末等のコンピュータであり、店舗に配置される。入力処理装置20は、店舗の従業員等による入力操作を介して、顧客CSが購入する商品に対する会計処理または注文の受注処理等を実行する。入力処理装置20は、会計処理または受注処理により顧客CSが購入または注文した商品を示す情報(以下、購入情報とも称される)を取得する。入力処理装置20は、取得した購入情報を検出装置40に出力する。
記憶装置30は、ハードディスク装置等であり、顧客CSが購入する商品の組合せと顧客CSが注視する商品との関係を示す対応情報31を記憶する。対応情報31は、例えば、顧客CSに対するアンケート等に基づいて予め生成され、記憶装置30に記憶される。例えば、店舗の従業員等は、購入された商品の各々が注視して(じっくり見て)購入された商品か注視せずに購入された商品かを調査するアンケートを複数の顧客CSに予め行う。そして、アンケートの結果に基づいて、購入する商品の組合せに応じて顧客CSがいずれの商品を主に注視するかの確率等が算出される。例えば、検出装置40は、入力処理装置20等の従業員等による操作を介して、購入される商品の組合せに応じて注視される商品毎の確率等の値を取得する。検出装置40は、受信した商品の組合せ、注視される商品および確率を含む対応情報31を生成し、生成した対応情報31を記憶装置30に格納する。
なお、対応情報31は、注視される商品の位置を示す情報として、例えば、撮像装置10により撮影された画像における商品の中心位置等を含んでもよい。また、対応情報31は、検出装置40とは別のコンピュータ装置等により生成されてもよい。
なお、記憶装置30は、店舗に配置されてもよく、店舗がフランチャイズ店等の場合にはフランチャイズの本部等の建物に配置されてもよい。また、記憶装置30は、検出装置40内のハードディスクまたはメモリ等の記憶部によって実現されてもよい。すなわち、記憶装置30に格納された情報が、検出装置40が処理を実行する際に参照可能な状態であれば、どのような形態で実装されても構わない。
検出装置40は、コンピュータ装置等である。検出装置40は、検出部41、決定部42および較正部43を有する。例えば、コンピュータ装置に含まれるプロセッサ等が、コンピュータ装置に含まれるメモリ等の記憶部に記憶された視線検出プログラムを実行することで、検出部41、決定部42および較正部43として動作する。あるいは、検出部41、決定部42および較正部43は、検出装置40内に配置される回路により実現されてもよい。
検出部41は、撮像装置10により所定のフレームレートで撮影された画像の各々を用いて角膜反射法等の視線を検出する検出処理を実行し、顧客CSの視線位置を検出する。
なお、検出部41が角膜反射法を用いる場合、撮像装置10として赤外線を検出可能なカメラを用い、顧客CSに向けて赤外線の光を射出する光源が、撮像装置10に、あるいは撮像装置10に隣接して、配置されることが好ましい。この場合、検出部41は、例えば、撮像装置10により撮影された画像における輝度値の分布を算出し、顧客CSの目の瞳孔として、輝度値が周囲の領域の輝度値より小さい円形の領域を検出する。また、検出部41は、算出した輝度値の分布に基づいて、光源により射出された赤外線が顧客CSの目の角膜で反射した箇所を示す輝点として、輝度値が周囲の領域の輝度値より大きい点状の領域を画像から検出する。そして、検出部41は、例えば、検出した顧客CSの瞳孔の中心位置と輝点の位置との間の距離と、予め設定された角膜の曲率半径とに基づいて顧客CSの視線を検出する。
決定部42は、記憶装置30から読み出した対応情報31と、入力処理装置20から受信した購入情報とを用いて、購入された商品の中から、顧客CSが購入前の商品選定時に注視したであろう商品を決定する。決定部42は、入力処理装置20から受信した購入情報を用いて顧客CSが購入した商品の組合せを示す情報を取得する。そして、決定部42は、例えば、対応情報31を参照し、取得した商品の組合せにおいて、注視される確率が最も大きく設定された商品を、顧客CSが購入前の商品選定時に注視していた商品として決定する。このように、決定部42は、購入情報と対応情報31とを用いることで、顧客CSが注視していたであろう商品を決定できる。
較正部43は、検出部41が検出した顧客CSの視線を、決定部42が決定した商品の位置に基づいて較正する。例えば、較正部43は、決定部42が決定した商品の位置を、眼球半径等の顧客CSの個人差の影響を補正するための所定の箇所(以下、“実空間の注視点”とも称される)とする。そして、較正部43は、顧客CSが決定部42により決定された商品を注視している時の画像を用いて、検出部41が検出した顧客CSの視線が実空間の注視点となるように、顧客CSの個人差を示す補正データを算出する。較正部43は、算出した補正データを用いて検出部41が各画像から検出した顧客CSの視線を較正する。
図1に示した実施形態では、対応情報31が予め記憶装置30に記憶される。これにより、検出装置40は、購入情報と対応情報31とを用いることで、顧客CSが購入前の商品選定時に注視していたであろう商品を決定できる。そして、検出装置40は、検出された顧客CSの視線が決定した商品付近を示す場合に、顧客CSの実空間の注視点を、決定した商品の位置に対応付けられるように、顧客CSの視線を較正する。これにより、視線検出システムSYSは、顧客CS毎の補正データを予め取得することなく顧客CSの視線を較正でき、顧客CSの視線の検出精度の向上を図ることができる。この結果、顧客CSが商品選定時に注視していた商品がいずれかの商品であったかを、従来と比べてより正確に特定できるようになる。顧客CSが購入しなかった商品についても顧客CSが見ていたか否かの判定が可能となり、従来と比べて高い精度でマーケッティングの処理を実行することができる。
図2は、視線検出システムの別の実施形態を示す。図1で説明した要素と同一または同様の機能を有する要素については、同一または同様の符号を付し、これらについては、詳細な説明を省略する。
図2に示した視線検出システムSYS1は、撮像装置10、入力処理装置20、記憶装置30aおよび検出装置40aを有する。検出装置40aは、有線または無線を介して、撮像装置10、入力処理装置20および記憶装置30aと接続される。なお、検出装置40aは、ネットワークを介して、撮像装置10、入力処理装置20および記憶装置30aと接続されてもよい。
記憶装置30aは、ハードディスク装置等であり、注視テーブル31aおよび商品情報32を記憶する。注視テーブル31aは、顧客CSにより購入される商品の組合せと、商品の組合せを購入する前に顧客CSにより注視される商品との関係を示すデータを有する。注視テーブル31aは、対応情報の一例である。注視テーブル31aについては、図3および図4で説明する。
商品情報32は、店舗で販売されている商品の名称、商品の大きさおよび位置等を含むデータである。なお、商品情報32に含まれる商品の大きさおよび位置は、例えば、店舗が飲食店の場合、供される料理ぞれぞれのメニューにおける画像の大きさおよび画像の中心位置である。また、店舗がスーパーマーケット等の場合、商品情報32の商品の大きさおよび位置は、例えば、撮像装置10により撮影された、店舗内に陳列された商品を含む画像における商品の大きさおよび中心位置である。
検出装置40aは、コンピュータ装置等である。検出装置40aは、検出部41、決定部42aおよび較正部43aを有する。
なお、検出部41は、例えば、1乃至複数台の撮像装置10により撮像された画像から顧客CSの視線とともに棚に陳列される商品の大きさおよび中心位置等を検出してもよい。そして、検出装置40aは、検出された商品の大きさおよび中心位置を記憶装置30aに出力し、記憶装置30aの商品情報32を更新してもよい。
決定部42aは、記憶装置30aから読み出した注視テーブル31aと、入力処理装置20から受信した購入情報とを用いて顧客CSが購入前の商品選定時に注視した商品を決定する。決定部42aの動作については、図3および図4で説明する。
較正部43aは、検出部41が検出した顧客CSの視線を、決定部42aが決定した商品の位置に基づいて較正する。較正部43aの動作については、図3および図4で説明する。
なお、視線検出システムSYS1の構成および動作は、図2に示した例に限定されない。例えば、撮像装置10が、検出部41に相当する視線検出センサとして顧客CSの視線を検出する機能を有する場合、検出装置40aから検出部41は省略されてもよい。この場合、検出装置40aは、撮像装置10の一部に含まれることになる検出部を含んで実現される。
図3は、顧客CSの視線の動きと商品の位置との関係の一例を示す。図3に示したメニュー100には、肉料理や魚料理等のメイン料理M(M1−M3)の画像と、コーヒーやサラダ等のサイド料理S(S1−S3)の画像とが配置される。なお、図3では、例えば、メイン料理M1、M3をおすすめ料理とし、メイン料理M1、M3の画像が、メイン料理M2およびサイド料理S1−S3の画像より大きなサイズで配置されている場合を示す。
また、図3は、検出部41が画像から検出した、較正部43aによる較正処理が実行される前の顧客CSの視線の位置(以下、検出箇所とも称される)を黒い点で示し、顧客CSの視線の動きを破線の矢印で示す。また、図3に示した領域AR1、AR2は、顧客CSの視線が留まって注視している(すなわち、検出箇所が密集している)領域を示す。
例えば、図3に示すように、領域AR2における顧客CSの視線は、メイン料理M3とサイド料理S3との画像に亘って分布している。そして、領域AR2における顧客CSの視線は、較正部43aによる較正処理が実行される前のため、領域AR2で検出された顧客CSの視線から顧客CSがメイン料理M3を注視していたのかサイド料理S3を注視していたのかを判定することは困難である。そこで、視線検出システムSYS1は、店舗の従業員等により実施された顧客CSに対するアンケート等の結果に基づいて、顧客CSが注視している商品を決定するための注視テーブル31aを予め生成する。例えば、店舗の従業員等は、顧客CSに対して、注文した各料理がメニュー100内の画像を注視して(じっくり見て)注文したか注視せずに注文したかのアンケートを行う。そして、視線検出システムSYS1は、アンケートの結果に基づいて、購入する商品(料理)の組合せに応じて顧客CSがいずれの商品(料理)を注視しているかにつき、組合せに応じた商品毎の確率等を算出する。なお、確率を算出する処理は、別のコンピュータにより実行され、実行結果が記憶装置30aに記憶されても構わない。
例えば、メイン料理M3とサイド料理S3との組合せを注文した顧客100人のうち、90人の顧客がメイン料理M3を注視したとアンケートで回答した場合、顧客CSは注文したメイン料理M3の画像を注視する確率は90パーセント等と算出される。また、例えば、2つのメイン料理Mが注文される場合、顧客CSは注文した両方のメイン料理Mの画像それぞれを注視する傾向があるため、両方のメイン料理Mに対する確率は同程度と算出する。例えば、注文された料理が2種類のメイン料理Mの組合せであった顧客100人のうち、30人の顧客が一方のメイン料理Mを注視したと回答した場合、一方のメイン料理Mの画像を顧客CSが注視する確率は、30パーセント等と算出される。検出装置40aは、入力処理装置20または検出装置40aに含まれるキーボード等の従業員等による操作を介して、購入または注文される商品の組合せに応じて算出された商品毎の確率を取得する。そして、検出装置40aは、取得した商品の組合せ、注視される商品および確率を含む注視テーブル31aを生成し、生成した注視テーブル31aを記憶装置30aに格納する。
図4は、図2に示した注視テーブル31aの一例を示す。注視テーブル31aを記憶する領域は、購入される商品の組合せ、注視される商品および確率の各々を示す情報に割り当てられた領域を有する。購入される商品の組合せの領域(以下、組合せ領域CAとも称される)には、“メイン料理およびサイド料理”および“2つのメイン料理”等の購入または注文された商品の組合せを示す情報が格納される。注視される商品の領域(以下、注視商品領域IAとも称される)には、“メイン料理”および“一方のメイン料理”等、購入される商品の組合せに応じて顧客CSにより注視される商品を示す情報が格納される。確率の領域(以下、確率領域PAとも称される)には、注視商品領域IAに格納された商品が顧客CSにより注視される確率(図4に示す例では、90パーセントや30パーセント等)が格納される。確率領域PAに格納される値は、図3で説明したように、アンケート等の結果に基づいて算出される。
なお、スーパーマーケット等の店舗における注視テーブル31aについても、飲食店の場合と同様に生成される。
なお、検出装置40aは、例えば、撮影された画像における顧客CS毎の顔の向きと顧客CS毎の購入情報とから顧客CSが購入前の商品選定時に注視した商品を推定し、推定した結果に基づいて注視テーブル31aを生成してもよい。この場合、検出装置40aは、例えば、撮影された画像からエッジ等を抽出する画像処理を実行し、抽出したエッジの分布から顧客CSの顔の向きを検出する。
なお、購入される商品の組合せに応じて注視される商品毎の確率は、商品、商品が配置される位置、大きさ、あるいは販売価格等に応じて適宜設定されてもよい。
決定部42aは、例えば、入力処理装置20から受けた購入情報から顧客CSが購入した商品の組合せの情報を取得する。決定部42aは、取得した商品の組合せに対応する注視テーブル31aの注視される商品の領域に格納された商品を、顧客CSが購入時に注視していた商品として決定する。例えば、顧客CSが図3に示したメニュー100を見てメイン料理M3およびサイド料理S3を注文した場合、決定部42aは、購入情報と注視テーブル31aとに基づいて、注文時に顧客CSが注視していた商品をメイン料理M3と決定する。
なお、決定部42aは、顧客CSが購入した商品の組合せにおける注視テーブル31aの注視商品領域IAに格納される商品を、顧客CSが商品選定時に注視した商品と決定するか否かの判定を、確率領域PAに格納される確率を用いて実行する。例えば、顧客CSが、購入した商品の組合せにおける注視商品領域IAに格納される商品の確率が所定値以下の場合、顧客CSは、注視商品領域IAに格納される商品以外の購入した商品も注視していた可能性があると考えられる。例えば、所定値は、50パーセントとする。図4に示すように、顧客CSが2つのメイン料理Mを注文した場合、確率領域PAに格納される確率である“30”パーセントが所定値以下のため、顧客CSは注文した両方のメイン料理Mを注視していた可能性があると考えられる。
この場合、決定部42aは、確率領域PAの確率が所定値以下の場合、顧客CSが購入時に注視していた商品の決定が困難と判定する。そして、検出装置40aは、決定部42aにより決定が困難と判定された場合、検出された顧客CSの視線に対する較正の処理を行わない。例えば、視線検出システムSYS1は、較正処理が行われなかった顧客CSの視線を除いた顧客CSの視線(すなわち、較正処理が実行された顧客CSの視線)のデータを用いてマーケティングを実行することで、マーケティングの精度を向上させることができる。
較正部43aは、記憶装置30aから商品情報32を読み出し、読み出した商品情報32に基づいて決定部42aにより決定された商品の位置、すなわち、実空間の注視点の位置を取得する。例えば、顧客CSが図3に示したメニュー100を見てメイン料理M3およびサイド料理S3を注文した場合、較正部43aは、メイン料理M3の画像の中心位置を、実空間の注視点の位置として取得する。較正部43aは、顧客CSが決定部42aにより決定された商品を注視している時の画像を用い、検出部41が検出した顧客CSの視線(すなわち、図3の領域AR2内の検出箇所)が実空間の注視点となるように、顧客CSの個人差を示す補正データを算出する。較正部43aは、算出した補正データを用いて検出部41が各画像から検出した顧客CSの視線を較正する。
なお、図3に示すように、領域AR1のように顧客CSの複数の視線が集中する領域で、かつ1つの商品(図3の例ではメイン料理M2の画像)が配置されている場合も当然ありえる。例えば、メイン料理M3とサイド料理S3との組合せを注文した顧客CSについて検出された視線については、図3に示すデータが得られた場合、較正部43aは、購入されなかった商品、すなわち、メイン料理M2の画像の位置も実空間の注視点としてもよい。これにより、較正部43aは、メイン料理M3とともにメイン料理M2の2つの位置を実空間の注視点として用いることで、1つの実空間の注視点で較正する場合より顧客CSの視線を精度良く較正できる。また、較正部43aは、決定部42aにより実空間の注視点の決定が困難と判定される場合でも、メイン料理M2の位置を実空間の注視点とすることで、顧客CSの視線を較正できる。
なお、顧客CSが商品を購入する度に、決定部42aは、上述の処理を実行しなくてもよく、較正部43aは、顧客CSが商品を購入する毎に上述の処理を実行しなくてもよい。例えば、検出装置40aは、検出部41により検出された顧客CS毎の視線を含むデータ、および入力処理装置20から取得した顧客CS毎の購入情報を、検出装置40aに含まれるハードディスク装置等の記憶部あるいは記憶装置30aに保持してもよい。そして、視線検出システムSYS1が所定の実行指示を受け付けた場合に、決定部42aは、記憶装置30a等から保持された顧客CS毎の購入情報を読み出し、顧客CS毎に実空間の注視点となる商品を決定してもよい。そして、較正部43aは、記憶装置30a等から保持された顧客CS毎の視線を含むデータを読み出し、顧客CS毎の視線を較正してもよい。
図5は、図2に示した視線検出システムSYS1における視線検出処理の一例を示す。図5に示したステップS110からステップS170の動作は、検出装置40aに含まれるプロセッサ等の制御部が視線検出プログラムを実行することにより実現される。すなわち、図5は、視線検出プログラムおよび視線検出方法の別の実施形態を示す。なお、図5に示す処理は、検出装置40aに搭載されるハードウェアにより実現されてもよい。この場合、図2に示した検出部41、決定部42aおよび較正部43aは、検出装置40a内に配置される回路により実現される。
ステップS100では、撮像装置10は、店舗に来た顧客CSを所定のフレームレートで撮影する。そして、撮像装置10は、撮影した画像を検出装置40aに出力する。視線検出システムSYS1は、ステップS110からステップS150の処理とステップS160の処理とを並列に実行する。すなわち、視線検出システムSYS1は、ステップS100の処理を実行した後、ステップS110の処理およびステップS160の処理を実行する。なお、ステップS110からステップS150の処理と、ステップS160の処理とは、並列ではなく、どちらが先に実行されても構わない。
ステップS110では、入力処理装置20は、店舗の従業員等による操作を介して、顧客CSが購入した商品を示す購入情報を取得する。そして、入力処理装置20は、取得した購入情報を検出装置40aに出力する。
次に、ステップS120では、決定部42aは、ステップS110で取得された顧客CSの購入情報を入力処理装置20から取得し、取得した購入情報に含まれる商品の組合せの情報を取得する。
次に、ステップS130では、決定部42aは、記憶装置30aに記憶される注視テーブル31aを参照し、ステップS120で取得した商品の組合せの情報に基づいて、取得した商品の組合せに含まれる商品のうち注視される商品および確率を、それぞれ取得する。
次に、ステップS140では、決定部42aは、ステップS130で取得した確率が所定値以下か否かを判定する。注視テーブル31aから取得した確率が所定値より大きい場合、視線検出システムSYS1の動作は、ステップS150に移る。一方、注視テーブル31aから取得した確率が所定値以下の場合、視線検出システムSYS1は、ステップS160で検出された顧客CSの視線に対する較正処理であるステップS150の処理とステップS170の処理とを行わずに、視線検出処理を終了する。
ステップS150では、決定部42aは、ステップS120で取得した商品の組合せにおける注視テーブル31aの注視商品領域IAに格納される商品を、実空間の注視点と決定する。
一方、ステップS160では、検出部41は、ステップS100で撮影された画像を用いて角膜反射法等の検出処理を実行し、顧客CSの視線を検出する。
ステップS150までの処理、およびステップS160の処理の実行後、ステップS170では、較正部43aは、ステップS160で検出された顧客CSの視線を、ステップS150で決定された実空間の注視点の位置に合わせて較正する。そして、視線検出システムSYS1は、視線検出処理を終了する。なお、視線検出システムSYS1は、店舗に新たな顧客CSが来る毎に、ステップS100からステップS170の処理を繰り返し実行してもよい。
図5の視線検出処理の実行後、較正部43aは、ステップS170で視線を較正することで得られた視線の補正データを用いて、検出部41が各画像から検出した顧客CSの視線を較正する。このとき、ステップS150で決定された実空間の注視点と、ステップS160で検出された顧客CSの視線との組合せの個数に応じて、較正方法が異なってくる。
例えば、図3に示したように、視線検出処理によって得られた注視点と視線の組合せの個数が2個である場合、非特許文献1及び2に記載された較正方法を用いて、顧客CSの視線を較正することができる。この場合、以下の手順で較正処理が行われる。
(1)較正部43aは、領域AR1及び領域AR2それぞれの重心位置を用いて、それぞれの領域における顧客CSの視線ベクトルvwθを算出する。視線ベクトルvwθは、極座標系における斉次ベクトルであり、極座標系の座標l、θ、及びφを用いて次式により記述される。
Figure 2017107546
(2)較正部43aは、メイン料理M2及びメイン料理M3それぞれの画像の中心位置を用いて、領域AR1及び領域AR2それぞれに対する較正後の視線ベクトルv′wθを算出する。視線ベクトルv′wθも式(1)と同様に記述される。
(3)較正部43aは、領域AR1及び領域AR2それぞれに対する視線ベクトルvwθと視線ベクトルv′wθとを次式に代入して、4行4列の較正行列Wのパラメータw1〜w4に関する連立方程式を生成する。
v′wθ=Wvwθ (2)
Figure 2017107546
そして、較正部43aは、生成した連立方程式からパラメータw1〜w4を算出する。算出されたパラメータw1〜w4は、視線の補正データに対応する。
(4)較正部43aは、各画像から検出した顧客CSの視線を表す視線ベクトルvwθを、較正行列Wを用いて式(2)により較正する。
なお、較正部43aは、領域AR1及び領域AR2の重心位置の代わりに、領域AR1及び領域AR2を代表する他の位置を用いてもよい。同様に、較正部43aは、メイン料理M2及びメイン料理M3の画像の中心位置の代わりに、それらの画像を代表する他の位置を用いてもよい。
注視点と視線の組合せの個数が3個以上である場合、較正部43aは、式(2)に基づいて、誤差二乗和が最小となるパラメータw1〜w4を算出することができる。
さらに、注視点と視線の組合せの個数が4個以上である場合、較正部43aは、検出部41が検出した顧客CSの輝点の位置を基準とする、瞳孔の中心位置の相対座標と、実空間の注視点の座標とを、射影変換によりマッピングすることも可能である。輝点の位置は、顧客CSの目の角膜で反射した箇所を示している。
この場合、N個(Nは4以上の整数)の相対座標(X1,Y1)〜(XN,YN)と、N個の注視点の座標(x1,y1)〜(xN,yN)とが、次式により対応付けられる(i=1〜N)。
Figure 2017107546
Figure 2017107546
式(11)及び式(12)は、(X1,Y1)〜(XN,YN)を表すベクトルgと、射影変換のパラメータa1〜a8を表すベクトルpと、2N行8列の行列Aとを用いて、次式のように書き換えられる。
g=Ap (13)
Figure 2017107546
N=4の場合、行列Aは8行8列の行列となる。そこで、較正部43aは、行列Aの逆行列A−1を用いて、次式によりパラメータa1〜a8を算出する。
p=A−1g (15)
N>4の場合、較正部43aは、行列Aの転置行列Aを用いて、パラメータa1〜a8の最小二乗解を次式により算出する。
p=(AA)−1g (16)
算出されたパラメータa1〜a8は、視線の補正データに対応する。そして、較正部43aは、各画像から検出した顧客CSの視線を表す相対座標(Xi,Yi)を、パラメータa1〜a8を用いて較正後の座標(xi,yi)に変換することで、顧客CSの視線を較正する。
なお、この実施例では、確率領域PAには、注視した確率が格納されるため、ステップS140で確率が所定値より大きい場合にステップS150の処理に移るが、確率領域PAに格納される値が示す意味に合せて、ステップS140の判断は変更されて構わない。例えば、確率領域PAに、注視しなかった確率が格納されるのであれば、ステップS140の判断では、確率が所定値より小さい場合にステップS150の処理に移るようにしてよい。要は、商品選定時にその商品が注視されていた蓋然性が高いと判断される場合に、視線検出システムSYS1は、注視されていた商品の位置情報を用いて、顧客CSの視線を較正すればよい。
図2から図5に示した実施形態では、注視テーブル31aが予め記憶装置30aに記憶される。これにより、検出装置40aは、購入情報と注視テーブル31aとを用いることで、顧客CSが購入前の商品選定時に注視していたであろう商品を決定できる。そして、検出装置40aは、検出された顧客CSの視線が決定した商品付近を示す場合に、顧客CSの実空間の注視点を、決定した商品の位置に対応付けられるように、顧客CSの視線を較正する。これにより、視線検出システムSYS1は、顧客CS毎の補正データを予め取得することなく顧客CS毎の視線を補正でき、顧客CSの視線の検出精度の向上を図ることができる。この結果、顧客CSが商品選定時に注視していた商品がいずれかの商品であったかを、従来と比べてより正確に特定できるようになる。顧客CSが購入しなかった商品についても顧客CSが見ていたか否かの判定が可能となり、従来と比べて高い精度でマーケッティングの処理を実行することができる。
図6は、視線検出システムの別の実施形態を示す。図1または図2で説明した要素と同一または同様の機能を有する要素については、同一または同様の符号を付し、これらについては、詳細な説明を省略する。
図6に示した視線検出システムSYS2は、撮像装置10、入力処理装置20、記憶装置30bおよび検出装置40bを有する。検出装置40bは、有線または無線を介して、撮像装置10、入力処理装置20および記憶装置30bと接続される。なお、検出装置40bは、ネットワークを介して、撮像装置10、入力処理装置20および記憶装置30bと接続されてもよい。
記憶装置30bは、ハードディスク装置等であり、注視テーブル31b(31b(1)、31b(2))および商品情報32を記憶する。注視テーブル31bは、図2に示した注視テーブル31aと同様に、顧客CSが購入する商品の組合せと顧客CSが注視する商品との関係を示すデータを有する。注視テーブル31b(1)は、顧客CSが商品の選択時に商品が掲載されたメニューを注視する時間(以下、注視時間とも称される)が所定の時間以下の場合におけるデータである。注視テーブル31b(2)は、顧客CSの注視時間が所定の時間より長い場合のデータである。所定の時間は、例えば、2秒等であり、適宜設定されてもよい。注視テーブル31bについては、図7で説明する。なお、記憶装置30bは、所定の時間を段階的に複数種類定め、それぞれの所定の時間により分けられる3つ以上の複数の注視テーブル31bを記憶してもよい。
検出装置40bは、コンピュータ装置等であり、検出部41a、決定部42bおよび較正部43aを有する。
検出部41aは、図1に示した検出部41と同様に、撮像装置10により所定のフレームレートで撮影された画像の各々に角膜反射法等の検出処理を実行し、顧客CSの視線を検出する。また、検出部41aは、例えば、撮影された画像からエッジ等を抽出する画像
処理を実行し、抽出したエッジの分布から顧客CSの顔の向きを検出する。そして、検出部41aは、検出した顔の向きに基づいて、図3に例示したメニュー100を注視する注視時間を測定する。なお、検出部41aは、顧客CSの顔の向きの代わりに、検出した顧客CSの視線を用いて、注視時間を測定してもよい。
決定部42bは、検出部41aが測定した顧客CSの注視時間と、記憶装置30bから読み出した注視テーブル31bと、入力処理装置20から受信した購入情報とを用いて顧客CSが商品の選定時に注視したであろう商品を決定する。例えば、決定部42bは、検出部41aにより測定された顧客CSの注視時間が所定の時間以下か否かを判定する。決定部42bは、測定された顧客CSの注視時間が所定の時間以下の場合、注視テーブル31b(1)を選択し、測定された顧客CSの注視時間が所定の時間より長い場合、注視テーブル31b(2)を選択する。
そして、決定部42bは、入力処理装置20から受信した購入情報が示す顧客CSが購入した商品の組合せにおける注視される商品および確率を、選択した注視テーブル31bの注視商品領域IAおよび確率領域PAからそれぞれ読み出す。決定部42bは、読み出した確率が所定値以下か否かを判定する。決定部42bは、読み出した確率が所定値より大きい場合、選択した注視テーブル31bの注視商品領域IAから読み出した商品を、実空間の注視点と決定する。一方、決定部42bは、読み出した確率が所定値以下の場合、顧客CSが購入時に注視していた商品の決定が困難であるので、実空間の注視点を決定する処理を行わない。
なお、決定部42bは、顧客CSが商品を購入する度に決定処理を実行しなくてもよい。例えば、検出装置40bは、入力処理装置20から取得した顧客CS毎の購入情報および注視時間を、検出装置40bに含まれるハードディスク装置等の記憶部あるいは記憶装置30bに保持してもよい。視線検出システムSYS2がマーケティング等の処理を実行する場合、決定部42bは、記憶装置30b等から保持された顧客CS毎の購入情報および注視時間を読み出す。そして、決定部42bは、読み出した注視時間に基づいて注視テーブル31bを顧客CS毎に選択し、選択した注視テーブル31bと読み出した購入情報とに基づいて実空間の注視点となる商品を顧客CS毎に決定する。
なお、視線検出システムSYS2の構成および動作は、図6に示した例に限定されない。例えば、撮像装置10が、検出部41aに相当する視線検出センサとして顧客CSの視線を検出する機能を有する場合、検出装置40bから検出部41aは省略されてもよい。この場合、検出装置40bは、撮像装置10の一部に含まれることになる検出部を含んで実現される。
図7は、図6に示した注視テーブル31bの一例を示す。図4で説明した領域と同一または同様の領域については、同一または同様の符号を付し、これらについては、詳細な説明を省略する。
図7(a)は、顧客CSが商品を注視する時間が所定の時間以下の場合の注視テーブル31b(1)を示す。図7(b)は、顧客CSが商品を注視する時間が所定の時間より長い場合の注視テーブル31b(2)を示す。
図7に示した注視テーブル31bは、例えば、図4に示した注視テーブル31aの場合と同一または同様に、飲食店の従業員等による顧客CSに対するアンケート等の結果に基づいて生成される。例えば、アンケートを回答した顧客CSが図3に示したメニュー100を注視する時間である注視時間を、撮像装置10により撮影された画像を用いて測定し、測定した時間に応じてアンケートの結果を分類する。これは、顧客CSのメニュー100に対する注視時間の長さに応じて、購入前の商品選定時に注視される商品あるいは注視される商品の確率が変化するという考えに基づいている。例えば、顧客CSがメイン料理Mとサイド料理Sとを注文した場合、メニュー100を注視する注視時間が長くなるに従い、顧客CSは注文したメイン料理Mとともに注文したサイド料理Sの画像も注視する傾向が見られる場合等に、この考え方を適用すればよい。なお、注視時間ごとに分けて確率を算出する処理は、別のコンピュータにより実行され、実行結果が記憶装置30bに格納されても構わない。
検出装置40bは、例えば、入力処理装置20等の従業員等による操作を介して、購入または注文される商品の組合せおよび注視時間に応じた商品毎の注視される確率を取得する。検出装置40bは、取得した商品の組合せ、注視される商品および確率を含む注視テーブル31bを、顧客CSがメニュー100を注視する時間が所定の時間以下の場合と所定の時間より長い場合とに分けてそれぞれ生成する。そして、検出装置40bは、生成した各注視テーブル31bを記憶装置30bに格納する。例えば、図7(a)に示した注視テーブル31b(1)の組合せ領域CA、注視商品領域IAおよび確率領域PAには、図4に示した注視テーブル31aと同様の設定が格納される。
また、図7(b)に示した注視テーブル31b(2)の組合せ領域CAおよび注視商品領域IAには、例えば、図4に示した注視テーブル31aと同様の設定が格納される。ただし、図7(b)の確率領域PAには、顧客CSの注視時間が所定の時間より長い場合のアンケートに基づいて算出される確率が格納される。例えば、メイン料理Mとサブ料理Sとの両方を注文した顧客が200人いたとする。そして、そのうち、メニュー100を2秒以上注視した顧客は100人であり、100人の内訳としてメイン料理Mを注視したと回答した顧客が70人だったとする。この場合、注視テーブル31b(2)の確率領域PAには、メイン料理Mが注視される確率として、70パーセント等の注視テーブル31b(1)の確率より小さい値が格納されることになる。
図8は、図6に示した視線検出システムSYS2における視線検出処理の一例を示す。なお、図8に示したステップの処理のうち、図5に示したステップと同一または同様の処理を示すものについては、同一のステップ番号を付し、詳細な説明を省略する。図8に示したステップS105、ステップS110およびステップS115からステップS170の動作は、検出装置40bに含まれるプロセッサ等の制御部が視線検出プログラムを実行することにより実現される。すなわち、図7は、視線検出プログラムおよび視線検出方法の別の実施形態を示す。なお、図8に示す処理は、検出装置40bに搭載されるハードウェアにより実現されてもよい。この場合、図6に示した検出部41a、決定部42bおよび較正部43aは、検出装置40b内に配置される回路により実現される。
検出装置40bは、撮像装置10によるステップS100の処理が実行された後、ステップS105の処理およびステップS160の処理を実行する。
ステップS105では、検出部41aは、ステップS100で撮影された画像からエッジ等を抽出する画像処理を実行することで、抽出したエッジの分布から顧客CSの顔の向きを検出し、検出した顔の向きに基づいて、顧客CSがメニュー100を注視する注視時間を測定する。
検出装置40bは、ステップS105の処理を実行した後、ステップS110の処理およびステップS115の処理を実行する。ステップS110の処理とステップS115の処理とは、どちらが先に実行されても構わない。
ステップS115では、決定部42bは、ステップS105で測定された顧客CSの注視時間に応じて、注視テーブル31bを選択する。例えば、決定部42bは、測定された顧客CSの注視時間が所定の時間以下の場合、注視テーブル31b(1)を選択し、測定された顧客CSの注視時間が所定の時間より長い場合、注視テーブル31b(2)を選択する。
検出装置40bは、ステップS115の処理を実行した後、ステップS120からステップS150、S170の処理を実行する。また、検出装置40bは、ステップS105からステップS150の一連の処理を実行するのと並行して、または順に、ステップS160の処理を実行する。なお、ステップS105における注視時間の測定が、顔の向きではなく、視線に基づいて測定される場合は、ステップS105の処理は、ステップS160の処理の後に実行される。
視線検出システムSYS2は、ステップS140でYesの判定の場合、またはステップS170の処理が終了した場合に、視線検出処理を終了する。なお、視線検出システムSYS2は、店舗に新たな顧客CSが来る毎に、検出処理を繰り返し実行してもよい。
図8の視線検出処理の実行後、較正部43aは、図2の視線検出システムと同様の方法で、ステップS170で視線を較正することで得られた視線の補正データを用いて、検出部41aが各画像から検出した顧客CSの視線を較正することができる。
図6から図8に示した実施形態では、注視テーブル31bが予め記憶装置30bに記憶される。これにより、検出装置40bは、購入情報と注視テーブル31bとを用いることで、顧客CSが購入前の商品選定時に注視していたであろう商品を決定できる。そして、検出装置40bは、検出された顧客CSの視線が決定した商品付近を示す場合に、顧客CSの実空間の注視点を、決定した商品の位置に対応付けられるように、顧客CSの視線を較正する。これにより、視線検出システムSYS2は、顧客CS毎の補正データを予め取得することなく顧客CS毎の視線を補正でき、顧客CSの視線の検出精度の向上を図ることができる。この結果、顧客CSが商品選定時に注視していた商品がいずれかの商品であったかを、従来と比べてより正確に特定できるようになる。顧客CSが購入しなかった商品についても顧客CSが見ていたか否かの判定が可能となり、従来と比べて高い精度でマーケッティングの処理を実行することができる。
また、記憶装置30bは、顧客CSの注視時間に応じた注視テーブル31bを記憶し、検出装置40bは、顧客CSの注視時間を測定することで、測定した注視時間に応じた注視テーブル31bを選択する。これにより、視線検出システムSYS2は、購入時における顧客CSの行動に応じた注視テーブル31bを選択することで、顧客CSの視線を1つの注視テーブル31aを用いる場合と比べてより精度良く検出できる。
図9は、図1、図2および図6に示した視線検出システムSYS(SYS1、SYS2)のハードウェア構成の一例を示す。図1、図2および図6で説明した要素と同一または同様の機能を有する要素については、同一または同様の符号を付し、これらについては、詳細な説明を省略する。
図9に示した視線検出システムSYSは、カメラ200、POSレジスタ装置300、サーバ400およびコンピュータ装置500を有する。有線または無線を介して、カメラ200、POSレジスタ装置300およびサーバ400の各々とコンピュータ装置500とは互いに接続される。なお、コンピュータ装置500は、カメラ200、POSレジスタ装置300およびサーバ400に、ネットワークを介して接続されてもよい。
カメラ200は、商品を選定する顧客CS等を撮影し、撮影した画像をコンピュータ装置500に出力する。なお、複数のカメラ200が店舗に配置されてもよい。
POSレジスタ装置300は、店舗の従業員等による操作を介して、顧客CSにより購入された商品を示す購入情報を取得する。そして、POSレジスタ装置300は、取得した購入情報をコンピュータ装置500に出力する。
サーバ400は、ハードディスク装置410を有するコンピュータ装置等である。サーバ400は、ハードディスク装置410に図1に示した対応情報31を記憶する。あるいは、サーバ400は、ハードディスク装置410に図2に示した注視テーブル31aまたは図6に示した注視テーブル31bを記憶する。
コンピュータ装置500は、プロセッサ510、入出力インタフェース520、メモリ530、ハードディスク装置540および光学ドライブ装置550を有する。そして、プロセッサ510、入出力インタフェース520、メモリ530、ハードディスク装置540および光学ドライブ装置550は、バスを介して互いに接続される。
光学ドライブ装置550は、光ディスク等のリムーバブルディスク560を装着可能であり、装着したリムーバブルディスク560に記録された情報の読み出しおよび記録を実行する。
プロセッサ510は、入出力インタフェース520を介して、カメラ200が撮影した顧客CS等の画像を受ける。また、プロセッサ510は、入出力インタフェース520を介して、POSレジスタ装置300から顧客CSの購入情報を受信し、サーバ400が記憶する対応情報31(あるいは注視テーブル31a、31b)を読み出す。
メモリ530は、コンピュータ装置500のオペレーティングシステムとともに、プロセッサ510が視線検出処理を実行するためのアプリケーションプログラムを格納する。
なお、視線検出処理を実行するためのアプリケーションプログラムは、例えば、光ディスク等のリムーバブルディスク560に記録して頒布することができる。また、視線検出処理を実行するためのアプリケーションプログラムは、USB(Universal Serial Bus)メモリ等の可搬型記憶媒体に記録して頒布してもよい。
そして、リムーバブルディスク560を光学ドライブ装置550に装着して読み込み処理を実行することにより、視線検出処理を実行するためのアプリケーションプログラムは、メモリ530やハードディスク装置540に格納されてもよい。また、コンピュータ装置500は、コンピュータ装置500に含まれるネットワークインタフェースを介して、ネットワークを通じて検出処理を実行するアプリケーションプログラムをダウンロードし、メモリ530やハードディスク装置540に格納してもよい。
また、プロセッサ510は、メモリ530に格納された視線検出処理のアプリケーションプログラムを実行することで、図1に示した検出部41、決定部42および較正部43として機能する。また、プロセッサ510は、メモリ530に格納された視線検出処理のアプリケーションプログラムを実行することで、図2に示した検出部41、決定部42aおよび較正部43aとして機能する。また、プロセッサ510は、メモリ530に格納された検出処理のアプリケーションプログラムを実行することで、図6に示した検出部41a、決定部42bおよび較正部43aとして機能する。
すなわち、検出装置40(40a、40b)は、プロセッサ510、入出力インタフェース520およびメモリ530の協働によって実現される。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を記憶する記憶部と、
顧客を撮像する撮像装置により撮像された画像を用いて、複数の商品の情報が提示される領域内における顧客の視線位置を検出する検出部と、
顧客により購入される商品を示す購入情報を取得する入力処理装置から取得した第1の顧客についての購入情報と、前記記憶部に記憶された前記対応情報とに基づいて、該第1の顧客により購入された商品の中から1の商品を決定する決定部と、
前記検出部が検出した前記第1の顧客の前記領域内における視線位置を、前記決定部が決定した前記1の商品についての情報が提示される前記領域内の位置に基づいて較正する較正部とを含む検出装置を有する
ことを特徴とする視線検出システム。
(付記2)
付記1に記載の視線検出システムにおいて、
前記記憶部は、顧客により購入された商品を該顧客が注視する時間長に応じた複数の前記対応情報を記憶し、
前記検出部は、顧客が商品を注視する時間長を前記画像を用いて検出し、
前記決定部は、検出された前記時間長に基づいて前記複数の対応情報のうちの1つを選択し、前記購入情報と選択した前記対応情報とに基づいて、前記1の商品を決定する
ことを特徴とする視線検出システム。
(付記3)
付記1または2に記載の視線検出システムにおいて、
前記検出部は、前記撮像装置により撮像された各画像を用いて、顧客の視線位置を検出し、
前記較正部は、前記視線位置を較正することで得られた視線位置の補正データを用いて、前記検出部が各画像を用いて検出した視線位置を較正する
ことを特徴とする視線検出システム。
(付記4)
1の顧客が購入した商品を示す購入情報を取得し、
撮像装置により撮像された画像を用いて前記1の顧客が前記商品を購入する前の視線位置を検出し、
顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を、前記購入情報に基づいて参照して前記1の顧客が注視した1の商品を決定し、
前記1の顧客について検出した前記視線位置を、決定した前記1の商品の位置に基づいて較正する
処理をコンピュータに実行させる視線検出プログラム。
(付記5)
付記4に記載の視線検出プログラムにおいて、
前記1の顧客の視線位置を検出する処理は、顧客が商品を注視する時間長を前記画像を用いて検出し、
前記1の商品を決定する処理は、顧客が購入した商品を注視する時間長に応じた複数の前記対応情報のうちの1つを、検出された前記時間長に基づいて選択し、選択した前記対応情報と、前記購入情報とに基づいて前記1の商品を決定する
ことを特徴とする視線検出プログラム。
(付記6)
付記4または5に記載の視線検出プログラムにおいて、
前記視線検出プログラムは、
前記撮像装置により撮像された各画像を用いて、顧客の視線位置を検出し、
前記視線位置を較正することで得られた視線位置の補正データを用いて、各画像を用いて検出した視線位置を較正する
処理を前記コンピュータにさらに実行させることを特徴とする視線検出プログラム。
(付記7)
1の顧客が購入した商品を示す購入情報を取得し、
撮像装置により撮像された画像を用いて前記1の顧客が前記商品を購入する前の視線位置を検出し、
顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を、前記購入情報に基づいて参照して前記1の顧客が注視した1の商品を決定し、
前記1の顧客について検出した前記視線位置を、決定した前記1の商品の位置に基づいて較正する
ことを特徴とする視線検出方法。
(付記8)
付記7に記載の視線検出方法において、
前記1の顧客の視線位置を検出する処理は、顧客が商品を注視する時間長を前記画像を用いて検出し、
前記1の商品を決定する処理は、顧客が購入した商品を注視する時間長に応じた複数の前記対応情報のうちの1つを、検出された前記時間長に基づいて選択し、選択した前記対応情報と、前記購入情報とに基づいて前記1の商品を決定する
ことを特徴とする視線検出方法。
(付記9)
付記7または8に記載の視線検出方法において、
前記撮像装置により撮像された各画像を用いて、顧客の視線位置を検出し、
前記視線位置を較正することで得られた視線位置の補正データを用いて、各画像を用いて検出した視線位置を較正する
ことを特徴とする視線検出方法。
10 撮像装置
20 入力処理装置
30,30a 記憶装置
31 対応情報
31a,31b(1),31b(2) 注視テーブル
40,40a,40b 検出装置
41,41a 検出部
42,42a,42b 決定部
43,43a 較正部
100 メニュー
200 カメラ
300 POSレジスタ装置
400 サーバ
410,540 ハードディスク装置
500 コンピュータ装置
510 プロセッサ
520 入出力インタフェース
530 メモリ
550 光学ドライブ装置
560 リムーバブルディスク
AR1,AR2 領域
CA 組合せ領域
CS 顧客
IA注視商品領域
M1−M3 メイン料理
PA 確率領域
S1−S3 サイド料理
SYS,SYS1,SYS2 視線検出システム

Claims (5)

  1. 顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を記憶する記憶部と、
    顧客を撮像する撮像装置により撮像された画像を用いて、複数の商品の情報が提示される領域内における顧客の視線位置を検出する検出部と、
    顧客により購入される商品を示す購入情報を取得する入力処理装置から取得した第1の顧客についての購入情報と、前記記憶部に記憶された前記対応情報とに基づいて、該第1の顧客により購入された商品の中から1の商品を決定する決定部と、
    前記検出部が検出した前記第1の顧客の前記領域内における視線位置を、前記決定部が決定した前記1の商品についての情報が提示される前記領域内の位置に基づいて較正する較正部とを含む検出装置を有する
    ことを特徴とする視線検出システム。
  2. 請求項1に記載の視線検出システムにおいて、
    前記記憶部は、顧客により購入された商品を該顧客が注視する時間長に応じた複数の前記対応情報を記憶し、
    前記検出部は、顧客が商品を注視する時間長を前記画像を用いて検出し、
    前記決定部は、検出された前記時間長に基づいて前記複数の対応情報のうちの1つを選択し、前記購入情報と選択した前記対応情報とに基づいて、前記1の商品を決定する
    ことを特徴とする視線検出システム。
  3. 請求項1または2に記載の視線検出システムにおいて、
    前記検出部は、前記撮像装置により撮像された各画像を用いて、顧客の視線位置を検出し、
    前記較正部は、前記視線位置を較正することで得られた視線位置の補正データを用いて、前記検出部が各画像を用いて検出した視線位置を較正する
    ことを特徴とする視線検出システム。
  4. 1の顧客が購入した商品を示す購入情報を取得し、
    撮像装置により撮像された画像を用いて前記1の顧客が前記商品を購入する前の視線位置を検出し、
    顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を、前記購入情報に基づいて参照して前記1の顧客が注視した1の商品を決定し、
    前記1の顧客について検出した前記視線位置を、決定した前記1の商品の位置に基づいて較正する
    処理をコンピュータに実行させる視線検出プログラム。
  5. 1の顧客が購入した商品を示す購入情報を取得し、
    撮像装置により撮像された画像を用いて前記1の顧客が前記商品を購入する前の視線位置を検出し、
    顧客により購入される商品の組合せと該商品の組合せを購入する前に該顧客により注視される商品との関係を示す対応情報を、前記購入情報に基づいて参照して前記1の顧客が注視した1の商品を決定し、
    前記1の顧客について検出した前記視線位置を、決定した前記1の商品の位置に基づいて較正する
    ことを特徴とする視線検出方法。
JP2016201415A 2015-11-27 2016-10-13 視線検出システム、視線検出プログラムおよび視線検出方法 Pending JP2017107546A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP16199512.1A EP3174001A1 (en) 2015-11-27 2016-11-18 Gaze tracking system and gaze tracking method
US15/357,128 US20170154369A1 (en) 2015-11-27 2016-11-21 Gaze tracking system and gaze tracking method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015231436 2015-11-27
JP2015231436 2015-11-27

Publications (1)

Publication Number Publication Date
JP2017107546A true JP2017107546A (ja) 2017-06-15

Family

ID=59059722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016201415A Pending JP2017107546A (ja) 2015-11-27 2016-10-13 視線検出システム、視線検出プログラムおよび視線検出方法

Country Status (1)

Country Link
JP (1) JP2017107546A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161380A1 (ja) 2020-02-10 2021-08-19 日本電気株式会社 視線推定システム、視線推定方法、及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161380A1 (ja) 2020-02-10 2021-08-19 日本電気株式会社 視線推定システム、視線推定方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
US9842255B2 (en) Calculation device and calculation method
US10176521B2 (en) Augmented reality virtual product for display
WO2017085771A1 (ja) 精算支援システム、精算支援プログラム、及び精算支援方法
US10438186B2 (en) Produce weigh station and method of use
JP2018099317A (ja) 陳列棚、陳列棚システム、情報処理装置及びプログラム
JP2019109916A (ja) 画像表示装置、画像表示方法及びプログラム
JPWO2015190204A1 (ja) 瞳孔検出システム、視線検出システム、瞳孔検出方法、および瞳孔検出プログラム
US20130243332A1 (en) Method and System for Estimating an Object of Interest
JP2017117384A (ja) 情報処理装置
JP6050473B2 (ja) 保管位置におけるアイテムの位置決めを補助するための方法
EP3174001A1 (en) Gaze tracking system and gaze tracking method
JP6565639B2 (ja) 情報表示プログラム、情報表示方法、及び情報表示装置
TWI455054B (zh) 顧客分析系統、顧客資料收集裝置、顧客分析裝置、顧客分析方法及程式產品
JP2017107546A (ja) 視線検出システム、視線検出プログラムおよび視線検出方法
JP6574641B2 (ja) 視線情報処理システム及び視線情報処理方法
JP2019113889A (ja) 算出装置、算出方法、及び算出プログラム
US10600198B2 (en) Information processing apparatus
CN110610358A (zh) 商品处理方法及装置、无人货架系统
WO2021181597A1 (ja) 認知度推定装置、認知度推定方法、及び、記録媒体
US20230130735A1 (en) Real-time risk tracking
CN114967922A (zh) 信息展示方法、装置、电子设备及存储介质
US10720027B2 (en) Reading device and method
KR101325506B1 (ko) 맞춤상품을 디스플레이하기 위한 디지털 디스플레이 장치 및 방법, 그리고 그를 이용하는 시스템
JP2021189738A (ja) 情報処理装置、情報処理方法及びプログラム
JP6769555B2 (ja) 物品識別装置、物品識別方法、計算装置、システムおよびプログラム