JP2018206354A - Visual line analysis program, visual line analysis method, and visual line analysis device - Google Patents
Visual line analysis program, visual line analysis method, and visual line analysis device Download PDFInfo
- Publication number
- JP2018206354A JP2018206354A JP2018007459A JP2018007459A JP2018206354A JP 2018206354 A JP2018206354 A JP 2018206354A JP 2018007459 A JP2018007459 A JP 2018007459A JP 2018007459 A JP2018007459 A JP 2018007459A JP 2018206354 A JP2018206354 A JP 2018206354A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- product
- time
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims description 136
- 230000000007 visual effect Effects 0.000 title abstract description 16
- 238000001514 detection method Methods 0.000 claims abstract description 161
- 238000012545 processing Methods 0.000 claims abstract description 49
- 238000000605 extraction Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 description 94
- 230000008569 process Effects 0.000 description 82
- 238000004364 calculation method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000003860 storage Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012356 Product development Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、視線分析プログラム、視線分析方法及び視線分析装置に関する。 The present invention relates to a line-of-sight analysis program, a line-of-sight analysis method, and a line-of-sight analysis apparatus.
ユーザの購買行動の開始から終了までの間にユーザが注視した商品の回数を集計し、その回数が一定以上の商品を注視した商品と推定することが提案されている(例えば、特許文献1参照)。特許文献1では、注視した回数が一定以上の全商品について、ユーザがなんらかの関心を持った、又はその商品を購入するか迷ったと判定する。
It has been proposed to count the number of products that the user has watched from the start to the end of the purchase behavior of the user, and to estimate the product as a product of which the number of times has been fixed (see, for example, Patent Document 1). ). In
しかしながら、特許文献1では、ユーザが、商品の選択を開始してから選択を完了するまでのいずれのタイミングに商品を注視したかにより、商品を注視する意味が異なる場合があることを考慮していない。このため、選択を迷っていない対象物についても迷ったと誤って判定してしまうという課題がある。
However, in
そこで、1つの側面では、本発明は、視線情報を用いてユーザが選択を迷った対象物を正しく特定することを目的とする。 Therefore, in one aspect, an object of the present invention is to correctly specify an object for which a user is unsure of selection using line-of-sight information.
1つの実施態様では、複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定し、特定した前記第2の対象物を示す情報を出力する、処理をコンピュータに実行させることを特徴とする視線分析プログラムが提供される。 In one embodiment, when a selection event for the first object among a plurality of objects is detected, based on the gaze detection status of the plurality of objects in a time zone closest to the selection event, A line-of-sight analysis program characterized in that a second object different from the first object is specified, information indicating the specified second object is output, and processing is executed by a computer is provided. The
1つの側面では、本発明は、視線情報を用いてユーザが選択を迷った対象物を正しく特定することができる。 In one aspect, the present invention can correctly identify an object for which the user has made a selection using line-of-sight information.
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.
[はじめに]
「注視」とは、所定の平面領域に所定の時間以上、視線が留まることをいう。注視商品は、ユーザがなんらかの関心を持った、又はその商品を購入や選択を迷ったと考えられるため、注視商品を正しく推定できればの商品の販売促進等に利用できる。
[Introduction]
“Gaze” means that the line of sight stays in a predetermined plane area for a predetermined time or longer. The gaze product can be used for sales promotion of the product if the gaze product can be correctly estimated because the user is considered to have some interest or purchase or selection of the product.
例えば、図1(a)に示すように、ユーザが商品の選択開始から選択完了までの間に、商品A〜Dのいずれをどの順番で注視したかを集計し、注視回数が閾値以上の商品を注視商品と推定すると、図1(b)に示す全商品A〜Dが注視商品であると推定される。 For example, as shown in FIG. 1A, the number of products A to D in which order the user gazes between the start of product selection and the completion of selection, and the number of times of gazing is equal to or greater than a threshold value. Is estimated to be a watched product, all the products A to D shown in FIG.
しかしながら、図1(c)に示すように、人は、複数の商品を順に見た後に、買いたい商品を絞り込んでから、絞り込んだ商品のいずれを購入すべきかを迷う視線の送り方をする。つまり、ユーザは迷った対象物を、選択完了に近い時間に頻度高く見る。よって、一律に注視回数が閾値以上の商品を注視商品と推定すると、買うことを迷っていない対象物も迷ったと誤って判定してしまう。 However, as shown in FIG. 1C, after looking at a plurality of products in order, the person narrows down the products he / she wants to buy and then sends his / her line of sight as to which of the narrowed products should be purchased. That is, the user frequently views the lost object frequently at a time close to completion of selection. Therefore, if a product whose number of gazes is uniformly equal to or greater than the threshold value is estimated as a gaze product, an object that is not sure to buy is erroneously determined to be lost.
そこで、本実施形態に係る視線分析装置では、図1(d)に示すように、ユーザが対象物を見た回数の時間経過に伴う増加量に基づいて、購入や選択を迷った商品であるか否かを推定し、迷ったと推定された商品を出力する。このようにして視線データに基づき、購入や選択を迷った対象物を正しく推定することで、非購買の商品であっても注視された(迷った)商品の情報により、商品の販売促進等のマーケティングの分野で活用することができる。本実施形態に係る視線分析装置の詳細について、以下に説明する。 Therefore, in the line-of-sight analysis apparatus according to the present embodiment, as shown in FIG. 1 (d), the product is a product that is lost in purchase or selection based on an increase amount with the lapse of time of the number of times the user has viewed the object. Whether the product is estimated to be lost or not is output. In this way, based on the line-of-sight data, by correctly estimating the target for which purchase or selection has been lost, it is possible to promote sales of the product based on the information of the product that has been closely watched even if it is a non-purchased product. Can be used in the marketing field. Details of the line-of-sight analysis apparatus according to the present embodiment will be described below.
[視線分析装置の機能構成]
まず、本発明の一実施形態に係る視線分析装置10の機能構成の一例について、図2を参照しながら説明する。図2は、第1〜第5実施形態に係る視線分析装置10の機能構成の一例を示す。視線分析装置10は、デジタルサイネージ20の画面上に描画された複数の商品(ここでは、商品A〜D)や、店舗内に陳列された複数の商品に注がれる視線に関する情報をデジタルサイネージ20等に取り付けられた視線センサ22を用いて取得する。視線分析装置10は、デジタルサイネージ20や陳列棚の商品をユーザが見て選択するシーンにおいて、取得した視線データを用いて「迷った商品」を推定する。
[Functional structure of eye-gaze analyzer]
First, an example of a functional configuration of the line-of-
視線センサ22は、店舗内の各棚の前又はデジタルサイネージ20を見る人に対向する位置に配置され、人の視線の動きを測定する。視線センサ22の一例としては、視線検知カメラが挙げられるが、これに限らない。例えば、特開第2015−192343号公報に一例を示すように、公知の視線センサを使用して視線の動きを取得することができる。また、本実施形態では、視線センサ22は1つとしているが、これに限らず、デジタルサイネージ20又は店舗内に1つまたは複数個設置されてもよい。
The line-of-
視線検知カメラを用いた視線検出の一例としては、基準点を目頭、動点を虹彩にして位置関係を使う方法と、基準点を角膜反射、動点を瞳孔にして位置関係を使う方法が挙げられる。基準点を目頭、動点を虹彩にして位置関係を使う方法では、視線検知カメラには可視光を撮影するカメラでユーザの動きを撮影する。基準点を角膜反射、動点を瞳孔にして位置関係を使う方法では、赤外線LEDでユーザの顔を照らして、赤外線カメラでユーザの目を撮影する。視線分析装置10は、視線センサ22から送られるユーザの目を撮影した画像について、画像処理を行い、目の動きを検出し、ユーザが見ている位置(平面座標)を解析する。
An example of gaze detection using a gaze detection camera is the method of using the positional relationship with the reference point as the eye and the moving point as the iris, and the method of using the positional relationship with the corneal reflection as the reference point and the moving point as the pupil. It is done. In the method of using the positional relationship with the reference point as the head and the moving point as the iris, the gaze detection camera captures the user's movement with a camera that captures visible light. In the method of using the positional relationship with the corneal reflection as the reference point and the moving point as the pupil, the user's face is illuminated with an infrared LED, and the user's eyes are photographed with an infrared camera. The line-of-
視線分析装置10は、記憶部11、検出部12、取得部13、判定部14、算出部15、特定部16及び出力部17を有する。記憶部11は、視線情報DB30、閾値テーブル31及び視線分析プログラム32を含むプログラム及びデータを記憶している。
The line-of-
図3(a)に、視線情報DB30の一例を示す。視線情報DB30は、ユーザがデジタルサイネージ20に表示された商品や、店舗に陳列された商品に視線を向けたときの視線データ、つまり、視線の座標(x、y)を、記録時刻に対応付けて保存する。例えば、一秒に10回前後の視線データを記録してもよい。視線データは、デジタルサイネージ20の画素単位でもよいし、mm単位でもよい。
FIG. 3A shows an example of the line-of-
閾値テーブル31には、視線データを用いて商品を注視したか否かを判定するために用いる閾値が格納されている。 The threshold value table 31 stores threshold values that are used to determine whether or not a product is watched using line-of-sight data.
図2に戻り、検出部12は、複数の対象物のうちのある対象物(以下、「第1の対象物」とする。)に対する選択イベントを検出する。第1の対象物に対する選択イベントの検出の一例としては、デジタルサイネージ20に表示された商品A〜Dのいずれかを選択し、選択ボタン24を押下したことの検知が挙げられる。第1の対象物に対する選択イベントの検出の他の例としては、店舗に陳列されている商品を、ユーザが購入したときにPOSシステム(point of sales system)に登録されたことの検知が挙げられる。
Returning to FIG. 2, the
視線分析プログラム32は、選択イベントを検出すると、該選択イベントの直近の時間帯における複数の対象物についての視線の検知状況に基づいて、第1の対象物とは異なる第2の対象物を迷った商品に特定するためのプログラムである。第1の対象物及び第2の対象物としては、実空間に存在する商品、仮想空間における商品の表示、商品のサムネイル画像の表示、商品の一部拡大表示、商品の特徴部分の表示等が挙げられる。
When the line-of-
なお、以下に説明する「迷った商品」は、迷って選択又は購入した商品であってもよいし、迷ったが選択又は購入しなかった商品であってもよい。 Note that the “lost product” described below may be a product selected or purchased in doubt, or may be a product that has been selected but not purchased.
取得部13は、視線センサ22からユーザの視線の状態を含む画像を取得する。判定部14は、取得した画像を解析し、ユーザの視線が向かう座標を抽出し、視線の座標が含まれる領域から、ユーザが見た商品を判定する。判定部14は、例えば、図3(b)に示すように、商品Aの領域は左上座標(X1,Y1)、右下座標(X2,Y2)により定義される。このように商品毎に定義された領域情報と、視線情報DB30に記憶された時刻tの視線データの座標(t、x、y)から、t時にユーザがどの商品を見ていたかを判定し、視線情報DB30に記憶する。図3(c)には、見たと判定した商品を視線情報DB30の「見た商品」の欄に記憶する一例を示す。
The
算出部15は、所定時間毎にユーザが各商品を見た回数を算出し、ユーザが対象物を見た回数の時間経過に伴う増加量を算出する。特定部16は、算出した増加量に基づいて、購入や選択において迷った商品を特定する。出力部17は、特定した迷った商品を出力する。
The
[視線分析装置のハードウェア構成]
次に、本実施形態に係る視線分析装置10のハードウェア構成の一例について、図4を参照して説明する。図4は、一実施形態に係る視線分析装置10のハードウェア構成の一例を示す。
[Hardware configuration of eye-gaze analyzer]
Next, an example of the hardware configuration of the
視線分析装置10は、入力装置101、出力装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108を有する。視線分析装置10の各部はバスBにより相互に接続されている。
The line-of-
入力装置101は、キーボードやマウスなどを含み、視線分析装置10に各操作信号を入力するために用いられる。出力装置102は、デジタルサイネージ、LCD(Liquid crystal Display)モニタ等のディスプレイ、プリンタ、CRT(Cathode Ray Tube)などを含み、各種の処理結果を出力する。通信I/F107は、視線分析装置10をネットワークに接続するインターフェースである。これにより、視線分析装置10は、通信I/F107を介して、クラウド上のサーバ等の機器とデータ通信を行うことができる。
The
HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、視線分析装置10の全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。例えば、HDD108には、各種のデータベースや視線分析プログラム32等が格納されてもよい。
The
外部I/F103は、外部装置とのインターフェースである。外部装置には、記録媒体103aなどがある。これにより、視線分析装置10は、外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)等がある。
The external I /
ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリである。ROM105には、ネットワーク設定等のプログラム及びデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリである。CPU106は、HDD108やROM105などの記憶装置から、プログラムやデータをRAM104上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。
The
かかる構成により、本実施形態に係る視線分析装置10では、CPU106が、例えばRAM104、ROM105、HDD108内に格納された視線分析プログラム32及びデータを用いて視線分析処理を実行する。なお、視線情報DB30及び閾値テーブル31に記憶された情報は、RAM104、HDD108、又はネットワークを介して視線分析装置10に接続されるクラウド上のサーバ等に格納され得る。
With this configuration, in the line-of-
なお、図2は機能に着目したブロック図を描いており、これらの機能ブロックで示した各部のソフトウエアを実行するプロセッサはハードウェアである。例えば、図2の検出部12及び取得部13の機能は、例えば、入力装置101により実現可能である。判定部14、算出部15及び特定部16の各部の機能は、例えば、視線分析プログラム32がCPU106に実行させる処理により実現される。
FIG. 2 is a block diagram focusing on functions, and a processor that executes software of each unit indicated by these functional blocks is hardware. For example, the functions of the
出力部17の機能は、例えば、出力装置102により実現可能である。記憶部11の機能は、RAM104、ROM105、HDD108又はネットワークを介して視線分析装置10に接続される情報処理装置、その他のクラウド上の記憶装置により実現可能である。
The function of the
<第1実施形態>
[視線分析処理]
次に、上記構成の視線分析装置10が実行する第1実施形態に係る視線分析処理の一例について図5を参照して説明する。図5は、第1実施形態に係る視線分析処理の一例を示したフローチャートである。視線分析装置10は、デジタルサイネージ20に表示、又は陳列棚に配置された商品に対して、来店ユーザが選別の際に迷った商品を推定する。
<First Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the first embodiment executed by the line-of-
本処理が開始されると、取得部13は、視線センサ22から視線データを取得する(ステップS12)。次に、判定部14は、取得した視線データの座標から、各商品領域に基づき「見た商品」を判定し、判定結果を視線情報DB30の「見た商品」の欄に保存する(ステップS14)。
When this process is started, the
次に、判定部14は、商品の選択が完了したかを判定する(ステップS16)。商品の選択が完了するまで、ステップS12及びステップS14の処理が繰り返される。本実施形態では、図2に示すデジタルサイネージ20に表示された選択ボタン24が押下されたとき、判定部14は、商品の選択が完了したと判定し、ステップS18に進む。
Next, the
ステップS18では、算出部15は、商品選択に要する時間Tを3分割し、3分割した各経過時間において各商品を見た回数を算出する。商品選択に要する時間Tは、商品の選択を開始してから商品の選択を完了するまでの時間であり、カウントされている。商品選択に要する時間Tを3分割した次の3つの時間帯、開始(商品選択開始時刻)〜T/3の経過時間、T/3〜2T/3の経過時間、2T/3〜完了(商品選択完了時刻)の各経過時間における商品A〜Dの各商品を見た回数nの一例を図6に示す。商品選択に要する時間Tは、ユーザが商品の選択開始から選択完了までに要する合計時間であり、例えば単位は秒であってもよい。
In step S <b> 18, the
図5に戻り、次に、算出部15は、各商品の見た回数nの増加量を算出する(ステップS20)。本実施形態では、各商品の見た回数nの増加量は、開始(商品選択開始時刻)〜T/3の経過時間内に商品を見た回数と比較した、2T/3〜完了(商品選択完了時刻)の経過時間内に商品を見た回数の増加量をいう。
Returning to FIG. 5, next, the
具体的には、各商品の見た回数の増加量Dは、2T/3〜完了の経過時間に各商品を見た回数から開始〜T/3の経過時間に各商品を見た回数を減算することにより算出される。例えば、図6の例では、商品Aの見た回数の増加量Daは−3(=0−3)、商品Bの見た回数の増加量Dbは0(=1−1)、商品Cの見た回数の増加量Dcは1(=1−0)、商品Dの見た回数の増加量Ddは2(=2−0)と算出される。 Specifically, the increment D of the number of times each product is viewed is subtracted from the number of times each product is viewed in the elapsed time of T / 3 from the number of times that each product is viewed in the elapsed time of 2T / 3 to completion. It is calculated by doing. For example, in the example of FIG. 6, the increase amount Da of the number of times the product A is viewed is −3 (= 0-3), the increase amount Db of the number of times the product B is viewed is 0 (= 1−1), The increase Dc of the number of times of viewing is calculated as 1 (= 1-0), and the increase Dd of the number of times of viewing the product D is calculated as 2 (= 2-0).
図5に戻り、次に、特定部16は、商品の見た回数の増加量Dが閾値Sth以上であるかを判定する(ステップS22)。商品の見た回数の増加量Dが閾値Sthよりも小さいと判定された場合、特定部16は、対象とする商品は迷った商品ではないと判定し(ステップS24)、すべての商品が判定された場合(ステップS30)、本処理を終了する。一方、商品の見た回数の増加量が閾値Sth以上であると判定された場合、特定部16は、対象とする商品が迷った商品であると判定する(ステップS26)。図1(c)を参照すると、商品選択に要する時間Tを3分割した最後の時間帯は、選択イベントの直近の期間であり、商品の購買又は選択に迷っている時間である。よって、最初の時間帯に対して、最後の時間帯の商品の見た回数の増加量が多い程、迷った商品と推定できる。よって、商品の見た回数の増加量Dが閾値Sth以上であると判定された場合、本実施形態では、対象とする商品は迷った商品であると判定する。例えば、閾値以上の商品C及び商品Dが迷った商品であると判定される。
Returning to FIG. 5, next, the specifying
図5に戻り、次に、出力部17は、ステップS26において特定された「迷った商品」を出力する(ステップS28)。次に、特定部16は、すべての商品について迷った商品か否かを判定したかを判定し(ステップS30)、すべての商品について迷った商品か否かを判定した場合、本処理を終了する。すべての商品について迷った商品か否かを判定していない場合、ステップS22に戻り、迷った商品か否かを判定していない商品がある間、ステップS22〜S30を繰り返し処理する。
Returning to FIG. 5, the
以上、第1実施形態に係る視線分析装置10によれば、ユーザが商品の選択開始から選択完了までに要する合計時間を例えばT秒間とし、T秒間に検出された視線データに基づいて迷った商品を推定する。
As described above, according to the line-of-
ユーザは「迷った対象」を、選択完了(つまり、選択イベントを検出したとき)に近い時間に回数多く見る。よって、第1実施形態に係る視線分析処理では、各商品を見た回数の時間経過に対する増加量に基づいて、迷っている商品か否かを判定する。 The user views the “lost object” many times at a time close to completion of selection (that is, when a selection event is detected). Therefore, in the line-of-sight analysis process according to the first embodiment, it is determined whether or not the product is a lost product based on the increase in the number of times each product has been viewed over time.
例えば、図1(c)に示すように、第1実施形態に係る視線分析処理では、最初の経過時間はすべての商品を順に注視している期間であることと、最後に商品を選択したときに、その直近の経過期間はいくつかの商品で迷っている期間であることを利用して、選択を迷った商品を特定する。例えば、最後に商品Dを選択したときに、図1(d)に一例を示す、直近の期間と最初の期間の見た回数の増加量に基づき、商品C,Dを「迷った商品」と判定することができる。 For example, as shown in FIG. 1C, in the line-of-sight analysis process according to the first embodiment, the first elapsed time is a period in which all products are being watched in sequence, and the last product is selected. In addition, using the fact that the most recent elapsed period is a period in which some products are at a loss, a product for which selection has been lost is identified. For example, when the product D is finally selected, the products C and D are designated as “stray products” based on the increase in the number of times the last period and the first period are viewed, as shown in FIG. Can be determined.
<第2実施形態>
[視線分析処理]
次に、第2実施形態に係る視線分析処理の一例について図7を参照して説明する。図7は、第2実施形態に係る視線分析処理の一例を示したフローチャートである。第2実施形態では、迷いの判定基準となる閾値を可変にする点が、第1実施形態に係る視線分析処理と異なる。なお、図7の第2実施形態に係る視線分析処理において、図5の第1実施形態に係る視線分析処理と同一処理を行うステップには同一ステップ番号を付する。
Second Embodiment
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the second embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of a line-of-sight analysis process according to the second embodiment. The second embodiment is different from the line-of-sight analysis processing according to the first embodiment in that the threshold value serving as a determination criterion for hesitation is variable. In the line-of-sight analysis process according to the second embodiment in FIG. 7, the same step number is assigned to a step that performs the same process as the line-of-sight analysis process according to the first embodiment in FIG. 5.
本処理が開始されると、ステップS12〜S20が実行され、算出部15は、商品選択に要する時間Tに蓄積した視線データに基づいて各商品の見た回数の増加量を算出する。次に、算出部15は、デジタルサイネージ20に表示、又は陳列棚に配置された商品の個数に応じた閾値を決定する(ステップS32)。
When this process is started, steps S12 to S20 are executed, and the
例えば、算出部15は、図8(a)に示す閾値テーブル31を参照して、商品の個数に応じた閾値を決定することができる。商品の選択肢が多い場合、商品同士の比較対象の組み合わせが増える。このため、商品の選択肢が少ない場合よりも相対的に各商品数を見る回数が増えるため、商品の迷い状態を判定するための閾値も大きくなる。図8(a)の例では、Sth2<Sth3<Sth4<Sth5となる。図7のステップS22の閾値Sthは、Sth2、Sth3、Sth4、Sth5のいずれかであり得る。
For example, the
他の例としては、算出部15は、図8(b)に示すように、Sth=an+b(a,bは、事前に設定される係数)により定められる数式から、商品個数に応じた閾値を算出してもよい。
As another example, as shown in FIG. 8 (b), the
図7に戻り、特定部16は、商品を見た回数の増加量が、決定した閾値Sth以上であるかを判定する(ステップS22)。商品の見た回数の増加量が閾値Sthよりも小さいと判定された場合、特定部16は、対象とする商品は迷った商品ではないと判定する(ステップS24)。一方、商品の見た回数の増加量が閾値Sth以上であると判定された場合、特定部16は、対象とする商品は迷った商品であると判定する(ステップS26)。
Returning to FIG. 7, the specifying
商品の選択肢が多い場合、商品同士の比較対象の組み合わせが増えるため、選択肢が少ない場合よりも相対的に各商品数を見る回数が増える。そこで、第2実施形態に係る視線分析装置10では、商品の数に応じて、迷っている商品を判定するための閾値を可変に設定する。これにより、視線データに基づき、ユーザが迷った商品を更に精度良く判定することができる。
When there are a lot of product choices, the number of combinations of products to be compared increases, so the number of times of viewing each product number is relatively greater than when there are few choices. Therefore, in the line-of-
<第3実施形態>
[視線分析処理]
次に、第3実施形態に係る視線分析処理の一例について図9を参照して説明する。図9は、第3実施形態に係る視線分析処理の一例を示したフローチャートである。
<Third Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the third embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a line-of-sight analysis process according to the third embodiment.
ユーザによっては、商品の選択完了直前の時間帯には、購入を決めた商品を手に取る、選択ボタン24を押すなどの作業に伴い、購入を決定した商品だけを見る、という視線の送り方をする場合があり得る。この場合、迷ったが購入しなかった商品を迷った商品として正しく判定できない可能性がある。
Depending on the user, in the time zone immediately before the selection of the product, the method of sending a line of sight that only the product that has been decided to be purchased is seen in response to the operation such as picking up the product that has been decided to purchase or pressing the
例えば、購入を決めた商品がDであった場合、商品C,Dで迷って見ていたうちの商品Cの視線データが、選択完了直前には収集されず、商品Cを迷った商品として正しく判定できない場合である。 For example, if the product decided to be purchased is D, the line-of-sight data of the product C that was wondering about the products C and D is not collected immediately before the selection is completed, and the product C is correctly regarded as a lost product. This is a case where it cannot be determined.
以上から、第3実施形態では、商品の選択開始から経過時間毎に見た回数に、時間経過の重みを考慮して積算することで、「選択完了直前にはあまり見なかったが、迷った商品」を判定できるようにする。なお、図9の第3実施形態に係る視線分析処理において、図5の第1実施形態に係る視線分析処理と同一処理を行うステップには同一ステップ番号を付する。 From the above, in the third embodiment, by adding the number of times seen every elapsed time from the start of the selection of the goods in consideration of the weight of time passage, "Product" can be determined. Note that, in the line-of-sight analysis process according to the third embodiment in FIG. 9, steps that perform the same process as the line-of-sight analysis process according to the first embodiment in FIG.
本処理が開始されると、ステップS12〜S16が実行され、視線データが蓄積される。次に、算出部15は、商品選択に要する時間Tを3分割し、3分割された各経過時間に対応する重みを、各商品を見た回数pに乗じた値を算出する(ステップS40)。例えば、図10には、各経過時間に対応する重み(重み係数α、β、γ)を、商品Aを見た回数nAに乗じた値pAが示されている。
When this process is started, steps S12 to S16 are executed, and line-of-sight data is accumulated. Next, the
重み係数α、β、γは、経過時間によって異なる。第1実施形態において商品Aを見た回数nが、経過時間(開始〜T/3)のときにnA1、経過時間(T/3〜2T/3)のときにnA2、経過時間(2T/3〜完了)のときにnA3と算出された場合、本実施形態では、実際に見た回数nに重み係数を乗算する。この結果、第3実施形態において商品Aを見た回数pは、経過時間(開始〜T/3)のときにpA1(=α×nA1)、経過時間(T/3〜2T/3)のときにpA2(=α×nA2)、経過時間(2T/3〜完了)のときにpA3(=α×nA3)と算出される。 The weighting factors α, β, and γ vary depending on the elapsed time. In the first embodiment, the number n of times when the product A is viewed is nA1 when the elapsed time (start to T / 3), nA2 when the elapsed time (T / 3 to 2T / 3), and the elapsed time (2T / 3). In the present embodiment, the number n actually viewed is multiplied by a weighting factor. As a result, in the third embodiment, the number of times p when the product A is viewed is pA1 (= α × nA1) at the elapsed time (start to T / 3) and at the elapsed time (T / 3 to 2T / 3). PA2 (= α × nA2) and pA3 (= α × nA3) at the elapsed time (2T / 3 to completion).
図9に戻り、次に、算出部15は、商品毎に見た回数の重み付け合計値pA〜pD(以下、「p合計値」ともいう。)を算出する(ステップS42)。例えば、商品Aのp合計値であるpAは、式(1)に示すように各経過時間において商品を見た回数に重みを乗算した値を加算して求められる。
Returning to FIG. 9, next, the
pA=pA1+pA2+pA3=α×nA1+βnA2+γnA3・・(1)
他の商品B〜Dについても、商品B〜Dのそれぞれのp合計値であるpB〜pDが、式(2)〜式(4)に示すようにして算出される。
pA = pA1 + pA2 + pA3 = α × nA1 + βnA2 + γnA3 (1)
For other products B to D, pB to pD, which are p total values of the products B to D, are calculated as shown in Equations (2) to (4).
pB=pB1+pB2+pB3=α×nB1+βnB2+γnB3・・(2)
pC=pC1+pC2+pC3=α×nC1+βnC2+γnC3・・(3)
pD=pD1+pD2+pD3=α×nD1+βnD2+γnD3・・(4)
複数の商品で買うことを迷っていた場合、その複数の商品を見る回数が増えるが、複数の商品から一つの商品を選択又は購入することを決めた後の商品選択完了直前は選択する商品だけに視線を向ける。本実施形態では、ユーザのこの視線の使い方を考慮して経過時間の重みα、β、γをα≦β≦γの大小関係を有する値に設定することで、時間経過の重みを加味して、「選択完了直前にはあまり見なかったが、迷った商品」を精度良く特定できる。
pB = pB1 + pB2 + pB3 = α × nB1 + βnB2 + γnB3 (2)
pC = pC1 + pC2 + pC3 = α × nC1 + βnC2 + γnC3 (3)
pD = pD1 + pD2 + pD3 = α × nD1 + βnD2 + γnD3 (4)
If you are wondering about buying multiple products, the number of times you see the multiple products will increase, but only select the product you want to select immediately before completing the product selection after deciding to select or purchase one product from multiple products Turn your gaze on. In the present embodiment, considering the usage of the user's line of sight, the elapsed time weights α, β, and γ are set to values having a magnitude relationship of α ≦ β ≦ γ, so that the time elapsed weight is added. It is possible to accurately identify “a product that was rarely seen just before completion of selection but was lost”.
次に、特定部16は、経過時間の重みを考慮した商品毎の見た回数のp合計値が、閾値Zth以上であるかを判定する(ステップS44)。商品毎のp合計値が閾値Zthよりも小さいと判定された場合、特定部16は、対象とする商品は迷った商品ではないと判定する(ステップS24)。一方、商品毎のp合計値が閾値Zth以上であると判定された場合、特定部16は、対象とする商品は迷った商品であると判定し(ステップS26)、迷った商品を出力する(ステップS28)。すべての商品を判定するまで、ステップS52、S24〜S30の処理を繰り返し、すべての商品を判定した後、本処理を終了する。
Next, the specifying
以上、第3実施形態に係る視線分析装置10によれば、経過時間の重みα、β、γ(α≦β≦γ)を考慮した商品毎のp合計値に基づき、「迷った商品」か否かを特定する。これにより、例えば、商品C、Dで迷っていた場合、商品C,Dのうちの選択した商品だけでなく、迷ったが選択しなかった商品を、時間経過の重みを加味して、「選択完了直前にはあまり見なかったが、迷った商品」として精度良く特定できる。
As described above, according to the line-of-
<第3実施形態の変形例>
[視線分析処理]
次に、第3実施形態の変形例に係る視線分析処理の一例について図11を参照して説明する。図11は、第3実施形態の変形例に係る視線分析処理の一例を示したフローチャートである。第3実施形態の変形例に係る視線分析処理では、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)の上位から所定数内に含まれる商品を迷った商品と特定する点が、閾値と比較して迷った商品と特定する第3実施形態に係る視線分析処理と異なる。なお、図11の第3実施形態の変形例に係る視線分析処理において、第3実施形態に係る視線分析処理と同一処理を行うステップには同一ステップ番号を付する。
<Modification of Third Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to a modification of the third embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a line-of-sight analysis process according to a modification of the third embodiment. In the line-of-sight analysis processing according to the modified example of the third embodiment, the product included in the predetermined number from the top of the weighted total values pA to pD (p total value) of the number of times viewed for each product is identified as a lost product. However, it is different from the line-of-sight analysis processing according to the third embodiment, in which the product is identified as being lost as compared with the threshold value. Note that, in the line-of-sight analysis process according to the modification of the third embodiment in FIG. 11, steps that perform the same process as the line-of-sight analysis process according to the third embodiment are assigned the same step numbers.
本処理が開始されると、ステップS12〜S16、S40、S42が実行され、第3実施形態と同様に、算出部15は、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)を算出する(ステップS42)。
When this process is started, steps S12 to S16, S40, and S42 are executed, and, similarly to the third embodiment, the
次に、算出部15は、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)をスコアとして、スコアが高い順に各商品を順位付ける(ステップS50)。次に、特定部16は、各商品を順位付けた結果に応じて、上位から所定順位内に含まれる商品か否かを判定する(ステップS52)。上位から所定順位内の商品でないと判定された場合、特定部16は、対象とする商品は迷った商品ではないと判定する(ステップS24)。一方、上位から所定順位内の商品であると判定された場合、特定部16は、対象とする商品は迷った商品であると判定し(ステップS26)、迷った商品を出力する(ステップS28)。すべての商品を判定するまで、ステップS52、S24〜S30の処理を繰り返し、すべての商品を判定した後、本処理を終了する。
Next, the
以上、第3実施形態の変形例に係る視線分析装置10によれば、第3実施形態と同様に、経過時間の重みを考慮した商品毎のp合計値をスコアとし、「迷った商品」か否かを特定する。これにより、時間経過の重みを加味して、「選択完了直前にはあまり見なかったが、迷った商品」を精度良く特定できる。
As described above, according to the line-of-
<第4実施形態>
[視線分析処理]
次に、第4実施形態に係る視線分析処理の一例について図12を参照して説明する。図12は、第4実施形態に係る視線分析処理の一例を示したフローチャートである。第4実施形態では、図9の第3実施形態に係る視線分析処理に加えて、P合計値からその商品の迷った度合いを示す迷い度を算出し、迷った商品の出力時に迷い度も併せて出力する点が、第3実施形態と異なる。なお、図12の第4実施形態の変形例に係る視線分析処理において、図9の第3実施形態に係る視線分析処理と同一処理を行うステップには同一ステップ番号を付する。
<Fourth embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the fourth embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of a line-of-sight analysis process according to the fourth embodiment. In the fourth embodiment, in addition to the line-of-sight analysis processing according to the third embodiment of FIG. 9, a degree of ambiguity indicating the degree of ambiguity of the product is calculated from the P total value, and the degree of ambiguity is also calculated when the confused product is output. Is different from the third embodiment. In the line-of-sight analysis process according to the modification of the fourth embodiment in FIG. 12, steps that perform the same process as the line-of-sight analysis process according to the third embodiment in FIG.
本処理が開始されると、ステップS12〜S16、S40、S42が実行され、第3実施形態と同様に、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)が算出される。次に、算出部15は、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)が最大となる商品のp合計値を1とし、各商品の比率を迷い度として算出する(ステップS54)。
When this process is started, steps S12 to S16, S40, and S42 are executed, and the weighted total values pA to pD (p total values) of the number of times viewed for each product are calculated as in the third embodiment. . Next, the
次に、ステップS244、S24〜S28の処理を実行し、特定部16は、対象とする商品が迷った商品であると判定した場合(ステップS26)、迷った商品を、その商品の迷い度とともに出力する(ステップS28)。次に、特定部16は、すべての商品について迷った商品か否かを判定した後(ステップS30)、本処理を終了する。
Next, when the processing of steps S244 and S24 to S28 is executed, and the specifying
以上、第4実施形態に係る視線分析装置10によれば、迷った商品の迷い度を出力することができる。これにより、ユーザが迷った商品だけでなく、どの程度強く迷った商品であるかを提示できる。
As described above, according to the line-of-
なお、第4実施形態は、P合計値から算出した迷い度を、第3実施形態に替えて、第3実施形態の変形例に係る視線分析処理の図11のステップS28において、迷った商品とともに出力してもよい。 In the fourth embodiment, the degree of ambiguity calculated from the P total value is replaced with the confused product in step S28 of FIG. 11 of the line-of-sight analysis process according to the modification of the third embodiment, instead of the third embodiment. It may be output.
<第5実施形態>
[視線分析処理]
次に、第5実施形態に係る視線分析処理の一例について図13を参照して説明する。図13は、第5実施形態に係る視線分析処理の一例を示したフローチャートである。第1実施形態〜第4実施形態では、使用した選択に要する時間Tを3分割して、経過時間毎の見た商品の見た回数に基づき、迷った商品を特定した。
<Fifth Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the fifth embodiment will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of a line-of-sight analysis process according to the fifth embodiment. In the first to fourth embodiments, the time T required for selection used is divided into three, and the lost product is specified based on the number of times the product viewed for each elapsed time.
しかしながら、使用した選択に要する時間Tが不明な場合、経過時間毎の商品を見た回数が、最初に対象物である商品を確認している状態に対応するのか、商品の選択完了間近に迷っている状態に対応するのか区別できず、迷っている商品の特定を誤ることがある。 However, if the time T required for selection used is unknown, the number of times the product has been viewed for each elapsed time corresponds to the state in which the product that is the target is being checked first, or the product selection is about to be completed. It may not be possible to distinguish whether the product corresponds to the current state, and the wrong product may be specified incorrectly.
図14に示すように、商品の選択時、ユーザの視線は、複数の商品のそれぞれを確認する状態、複数の商品からいくつかの商品を絞り込む状態を経て、商品の選択完了間近の迷っている状態に移行する。そして、ユーザは、迷っている状態のときに少ない個数の商品を見て、最終的に商品を選択する。 As shown in FIG. 14, when selecting a product, the user's line of sight is in the process of confirming each of the plurality of products and narrowing down some products from the plurality of products, and is confused soon after the product selection is completed. Transition to the state. Then, the user sees a small number of products when he / she is at a loss and finally selects a product.
そこで、第5実施形態に係る視線分析処理では、経過時間の単位時間をsとし、経過時間s毎に商品を見た回数nを算出し、見た回数nが閾値以上に高い商品の数mを算出する。例えば、時刻(t−3)から時刻(t−2)までの単位時間s、時刻(t−2)から時刻(t−1)までの単位時間sというように、単位時間s毎に閾値以上見た商品の数mを算出し、mの減少量に基づき、迷った商品を判定する。 Therefore, in the line-of-sight analysis processing according to the fifth embodiment, the unit time of elapsed time is set as s, and the number n of products viewed for each elapsed time s is calculated, and the number m of products for which the viewed number n is higher than the threshold value m. Is calculated. For example, a unit time s from time (t-3) to time (t-2), a unit time s from time (t-2) to time (t-1), or more than the threshold for each unit time s. The number m of the viewed products is calculated, and the lost product is determined based on the decrease amount of m.
具体的には、図13において本処理が開始され、取得部13は、視線センサ22から視線データを取得する(ステップS12)。次に、判定部14は、取得した視線データから見た商品を判定し、判定結果を視線情報DB30の見た商品の欄に保存する(ステップS14)。次に、取得部13は、単位時間sが経過したかを判定する(ステップS60)。取得部13は、単位時間sが経過するまで、ステップS12、S14、S60の処理を繰り返す。
Specifically, this processing is started in FIG. 13, and the
単位時間sが経過したと判定されると、算出部15は、単位時間s毎の商品を見た回数nを算出する(ステップS62)。例えば、図15に、時刻(t−4)、時刻(t−3)、・・・、時刻t、時刻(t+1)の時間経過に応じた単位時間s毎の商品A〜Iを見た回数n(nA〜nI)の算出結果の一例を示す。
When it is determined that the unit time s has elapsed, the
図13に戻り、次に、算出部15は、単位時間sに商品を見た回数nが、単位時間s当たりの見た回数の閾値U(例えば、3回)以上の条件を満たす商品数mを算出する(ステップS64)。見た回数が閾値U以上の条件を満たす商品数mは、見た回数が所定数よりも多い商品の数を示す。以下では、時刻(t−2),(t−1),t…の時間経過に対応する単位時間s毎の商品数mをそれぞれ、m(t−2),m(t−1),m(t)…とする。今回算出した商品数m(=mold)がm(t−1)の場合、前回算出した商品数m(=mnew)はm(t−2)となる。
Returning to FIG. 13, the
次に、算出部15は、今回と前回の商品数の差分(=mold−mnew)が、予め定められたm減少量の閾値Wth以下であるかを判定する(ステップS66)。今回と前回の商品数の差分が閾値Wthよりも大きいと判定された場合、特定部16は、商品に迷っていない状態であると判定し(ステップS68)、ステップS12の処理に戻る。
Next, the
図15に示す例では、時刻(t−4)に商品の選択を開始し、単位時間s毎に、各商品の見た回数nが算出される。図16(a)には、図15の例において、時間経過(t−4)、(t−3)、(t−2)、・・・を経過する単位時間s毎に算出された、見た回数nが閾値U以上の条件を満たす商品数m(t−4),m(t−3),m(t−2)、・・・が示される。この場合、商品数mの減少量(=mold−mnew)は、図16(b)に示す通り、3→2→2→0→1と推移する。 In the example illustrated in FIG. 15, the selection of a product is started at time (t−4), and the number n of times each product is viewed is calculated for each unit time s. In FIG. 16A, in the example of FIG. 15, the calculation is performed for each unit time s that elapses over time (t−4), (t−3), (t−2),. The number of products m (t−4), m (t−3), m (t−2),. In this case, the decrease amount (= m old −m new ) of the number of products m changes from 3 → 2 → 2 → 0 → 1 as shown in FIG.
商品数mの減少量の閾値Wthが「1」に設定されている場合、図13のステップS66において、商品数mの減少量が「1」より大きいと判定されている間、特定部16は、商品の選択に迷っていないと判定する。つまり、本実施形態では、図16(b)に示すように、商品数mの減少量が1より大きい場合、商品の選択に迷っていない状態(図14の商品の確認状態や商品の絞り込み情報)であると判定される。
When the threshold value W th for the reduction amount of the number of products m is set to “1”, the specifying
一方、ステップS66において、商品数mの減少量が「1」以下であると判定されると、特定部16は、商品を見た回数nが「1」であるかを判定する(ステップS70)。商品を見た回数nが「1」でないと判定された場合、特定部16は、迷った商品であると判定する(ステップS26)。出力部17は、迷ったと判定した商品を出力し(ステップS28)、本処理を終了する。
On the other hand, when it is determined in step S66 that the reduction amount of the number of products m is “1” or less, the specifying
一方、ステップS70において、商品を見た回数nが「1」であると判定された場合、その単位時間に見た商品は一つであるから、特定部16は、商品の選択が完了したと判定し(ステップS72)、本処理を終了する。
On the other hand, if it is determined in step S70 that the number of times the product is viewed n is “1”, there is only one product viewed in that unit time, and therefore the specifying
本実施形態では、商品数mの減少量が2以上である場合、商品の選択に迷っていない状態(商品の確認状態や商品の絞り込み情報)であると判定される。この結果、図14の例では、時刻(t−3)から時刻(t−2)までの単位時間s及び時刻(t−2)から時刻(t−1)までの単位時間sは、商品の選択に迷っていない状態と判定される。これに対して、商品数mの減少量が2よりも小さい場合、商品の選択に迷っている状態又は商品の選択が完了した状態と判定される。この結果。図14の例では、時刻(t−1)から時刻tまでの単位時間sに見た商品が迷った商品と特定される。また、時刻(t+1)は商品の選択完了時刻と判定される。 In the present embodiment, when the amount of decrease in the number of products m is 2 or more, it is determined that the product is not confused about the product selection (the product confirmation state or the product refinement information). As a result, in the example of FIG. 14, the unit time s from time (t-3) to time (t-2) and the unit time s from time (t-2) to time (t-1) are It is determined that the selection is not at a loss. On the other hand, when the reduction amount of the number of products m is smaller than 2, it is determined that the product is in a lost state or the product is completely selected. As a result. In the example of FIG. 14, the product viewed in the unit time s from time (t−1) to time t is identified as a lost product. Also, the time (t + 1) is determined as the product selection completion time.
以上、第5実施形態に係る視線分析装置10によれば、単位時間S毎の視線の検知状況に基づいて、一の単位時間の視線の検知頻度又は検知回数と、直後の単位時間の視線の検知頻度又は検知回数との差分から商品の選択に迷っているか否かが判定され、迷っていると特定された商品が出力される。これにより、商品の選択開始から選択完了までに要する時間Tが不明の場合であっても、商品の選択完了間近の商品の迷い状態を推定することができる。
As described above, according to the line-of-
以上に説明したように、第1〜第5実施形態に係る視線分析装置10によれば、視線データに基づいてユーザが選択を迷った対象物を正しく特定することができる。迷った対象物には、購入した物及び購入しなかった物が含まれる。これにより、迷って購入しなかった場合についても迷った商品の情報を得ることができる。
As described above, according to the line-of-
これにより、商品を販売する側では、迷った商品の情報に基づき、購買状況だけでなく非購買状況を踏まえた商品の販売促進を図ることができる。また、商品を製造する側では、迷った商品の情報に基づき、購買状況だけでなく非購買状況を踏まえた商品の開発を行うことができる。 As a result, on the side of selling the product, it is possible to promote the sale of the product based on not only the purchase status but also the non-purchase status based on the information on the lost product. In addition, on the product manufacturing side, based on the information on the lost product, it is possible to develop a product based not only on the purchase status but also on the non-purchase status.
<第6〜第8実施形態>
次に、第6〜第8実施形態に係る視線分析装置10の機能構成について説明した後、第6〜第8実施形態に係る視線分析処理の一例について説明する。図17は、第6〜第8実施形態に係る視線分析装置10の機能構成の一例を示す。
<Sixth to eighth embodiments>
Next, after describing the functional configuration of the line-of-
[視線分析装置の機能構成]
図2の第1〜第5実施形態に係る視線分析装置と比較して、図17の第6〜第8実施形態に係る視線分析装置10では、抽出部18が追加されている。また、記憶部11に対象物配置DB33及び迷った対象DB34が追加されている。
[Functional structure of eye-gaze analyzer]
Compared with the line-of-sight analysis apparatus according to the first to fifth embodiments of FIG. 2, an
抽出部18は、閾値以上見た回数の商品から迷った対象の商品を抽出する。図18は、一実施形態に係る対象物配置DB33の一例を示す図である。例えば、図18の下側の対象物配置例に示すように、商品A〜Fが配置される場合、対象物配置DB33には、対象物、すなわち、商品A〜Fの配置(列、段)及び商品の左上座標及び右下座標が記憶されている。図19は、一実施形態に係る迷った対象DB34の一例を示す図である。迷った対象DB34には、顧客毎に顧客IDと、購入した商品と、迷った商品とが記憶されている。迷った商品には、抽出部18が抽出した迷った商品(以下、「迷った対象商品」ともいう。)が記憶される。迷った商品が0個の場合、迷った対象商品の候補がない、または、迷った対象商品の候補のうち、購入対象商品の前後に見た商品がないことを示す。迷った商品が1個の場合、迷った対象商品の候補のうち、または、迷った対象候補のうち購入対象商品の前又は後に見た商品があることを示す。迷った商品が2個の場合、迷った対象商品の候補のうち購入対象商品の前後のそれぞれに見た商品があることを示す。購入対象商品は、第1の対象物の一例である。
The
なお、図18の対象物配置DB33は、第1〜第5実施形態に係る視線分析装置10において、視線データの座標から各商品領域に基づき見た商品(図3(c)参照)を判定する際にも使用され得る。
Note that the
<第6実施形態>
[視線分析処理]
次に、第6実施形態に係る視線分析処理の一例について図20及び図21を参照して説明する。図20は、第6実施形態に係る視線分析処理の一例を示したフローチャートである。図21は、第6実施形態に係る視線分析処理を説明する図である。
<Sixth Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the sixth embodiment will be described with reference to FIGS. FIG. 20 is a flowchart illustrating an example of a line-of-sight analysis process according to the sixth embodiment. FIG. 21 is a diagram for explaining line-of-sight analysis processing according to the sixth embodiment.
本処理が開始されると、取得部13は、視線センサ22から視線データを取得する(ステップS12)。取得方法は、第1実施形態〜第5実施形態で説明した方法と同様である。
When this process is started, the
次に、判定部14は、取得した視線データの座標から、各商品領域に基づき「見た商品」を判定し、判定結果を図3(c)に示す視線情報DB30の「見た商品」の欄に保存し、算出部15は、見た商品を対象商品として対象商品毎の見た回数を計測する(ステップS80)。ただし、見た回数に替えて、対象商品毎の見た合計時間を計測してもよい。視線データの座標から、各商品領域に基づき「見た商品」を判定する方法は、第1実施形態等で説明した方法と同様である。
Next, the
対象商品の見た回数は、対象商品の所定時間毎の視線の検知回数の一例である。対象商品の見た合計時間又は各対象商品の見た時間の割合は、対象商品の所定時間毎の視線の検知頻度の一例である。 The number of times the target product is viewed is an example of the number of times that the target product detects the line of sight every predetermined time. The ratio of the total time viewed by the target products or the time viewed by each target product is an example of the line-of-sight detection frequency for each predetermined time of the target products.
なお、商品を「見た」又は「注視した」の定義は、同一エリア内(半径50mm)で連続して0.4秒以上視線データを計測したことを表してもよい。ただし、「見た」又は「注視した」の定義はこれに限らない。
Note that the definition of “see” or “gazed” at a product may indicate that line-of-sight data was measured continuously for 0.4 seconds or more within the same area (
次に、抽出部18は、購入対象商品を規定する(ステップS82)。例えば、ユーザが店舗に陳列されている商品を購入したときに、POSシステムに登録された商品をPOS情報から抽出し、該商品を購入対象商品にしてもよい。また、購入対象商品は、見た回数が最大の対象商品等を購入対象商品として規定してもよいし、購入ボタン(自販機、タッチサイネージ)の操作から購入対象商品を規定してもよい。
Next, the
次に、抽出部18は、購入対象商品を最後に見た時間Tbuyを設定する(ステップS84)。本実施形態では、図3(c)に示すように、来客が立ち寄って、購入する商品の選択開始から選択完了までに要する合計時間をTとする。たとえば、記録時間が図3(c)の下から2番目の「20160728-134026-659」の単位時間に購入対象商品を最後に見た場合、「20160728-134026-659」の時間をTbuyで示す。また、その直前の単位時間、すなわち、「20160728-134026-527」の時間を(Tbuy−1)で示し、その直後の単位時間、すなわち、「20160728-134026-790」の時間帯を(Tbuy+1)で示す。
Next, the
図20に戻り、次に、抽出部18は、変数nに1を設定する(ステップS86)。変数nは、1〜N(N≧1)の整数を取る。Nは、合計時間Tの間に見た商品である対象商品の数である。
Returning to FIG. 20, next, the
次に、抽出部18は、対象商品(n)を見た回数が閾値以上であるかを判定する(ステップS88)。抽出部18は、対象商品(n)を見た回数が閾値よりも少ないと判定した場合、特定部16は、対象商品(n)は迷った対象商品ではないと判定し(ステップS90)、変数nに1を加算して(ステップS98)、ステップS100に進む。ステップS100において、特定部16は、変数nが対象商品の数N以下と判定した場合、ステップS88に戻り、ステップS88以降の処理を繰り返す。
Next, the
一方、ステップS88において、抽出部18は、対象商品(n)を見た回数が閾値以上であると判定した場合、対象商品(n)は迷った対象商品の候補であると判定し、対象商品(n)を迷った対象候補の商品に設定する(ステップS92)。次に、特定部16は、購入対象商品を最後に見た時間Tbuyの直前の時間(Tbuy−1)又は購入対象商品を最後に見た時間Tbuyの直後の時間(Tbuy+1)に対象商品(n)を見たかを判定する(ステップS94)。
On the other hand, if the
特定部16は、購入対象商品を最後に見た時間Tbuyの直前の時間(Tbuy−1)又は購入対象商品を最後に見た時間Tbuyの直後の時間(Tbuy+1)に対象商品(n)を見ていないと判定すると、対象商品(n)は迷った対象商品ではないと判定する(ステップS90)。次に、特定部16は、変数nに1を加算して(ステップS98)、ステップS100に進み、変数nが対象商品の数N以下と判定した場合、ステップS88に戻り、ステップS88以降の処理を繰り返す。
The specifying
ステップS94において、抽出部18は、購入対象商品を最後に見た時間Tbuyの直前の時間(Tbuy−1)又は時間Tbuyの直後の時間(Tbuy+1)に対象商品(n)を見たと判定すると、対象商品(n)を、図19の迷った対象DB34の迷った商品に設定する(ステップS96)。次に、抽出部18は、変数nに1を加算して(ステップS98)、ステップS100に進み、変数nが対象商品の数N以下と判定した場合、ステップS88に戻り、ステップS88以降の処理を繰り返す。
In step S94, the
ステップS100において、抽出部18が、変数nが対象商品の数Nよりも大きいと判定した場合、出力部17は、迷った対象商品を推定結果として出力し(ステップS102)、本処理を終了する。
In step S100, when the
以上、第6実施形態に係る視線分析処理では、複数の対象商品についての視線の検知状況に基づいて、前記複数の対象商品についての所定時間毎の検知回数が相対的に多い対象商品を、迷った対象商品の候補として抽出する。本実施形態では、所定時間毎の検知回数が相対的に多い対象商品として、見た回数が閾値以上の商品を抽出する。ただし、これに限らず、前記複数の対象商品についての所定時間毎の視線の検知頻度又は視線の合計時間が相対的に多い対象商品を、迷った対象商品の候補として抽出してもよい。 As described above, in the line-of-sight analysis processing according to the sixth embodiment, based on the line-of-sight detection status for a plurality of target products, the target product with a relatively large number of detections per predetermined time for the plurality of target products is lost. As a candidate for the target product. In the present embodiment, as the target product having a relatively large number of detections per predetermined time, a product whose number of times of viewing is equal to or greater than a threshold is extracted. However, the present invention is not limited to this, and target products with a relatively large line-of-sight detection frequency or total line-of-sight time for each of the plurality of target products may be extracted as lost target product candidates.
本実施形態では、まず、複数の対象商品のうちの購入対象商品又は後述する購入対象予測商品に対する選択イベント(POS情報又は購入ボタンの押下等から検知)又は選択予測イベント(見た回数が最大の対象商品等から検知)を検出する。そして、選択イベント又は選択予測イベントを検出した時間の前又は後の少なくともいずれかの時間における迷った対象商品の候補に対する視線の検知状況に基づいて、該対象商品の候補のうちから少なくとも一つの対象商品を特定する。そして、特定した対象商品の情報を迷った商品として出力する。 In the present embodiment, first, a selection event (detected from pressing of POS information or a purchase button or the like) or a selection prediction event (the number of times seen is the maximum) for a purchase target product or a purchase target prediction product described later among a plurality of target products. Detect from the target product). And at least one target among the candidates for the target product based on the detection status of the line of sight with respect to the candidate for the target product lost at least one time before or after the time when the selection event or the selection prediction event is detected Identify the product. Then, the information on the identified target product is output as a lost product.
購入対象商品の前後に見たかどうかだけでは、購入直前に偶然見た商品を誤判定する場合がある。このため、本実施形態では、まず、対象商品を見た回数が多いものを迷った対象商品の候補として抽出する。つまり、閾値以上見た商品を、ユーザが関心を持った商品であるとし、迷った対象商品の候補とする。迷った対象商品の候補の抽出方式は、閾値以上見た商品を抽出してもよいし、見た回数が多い上位所定個の商品を抽出してもよい。 There is a case where a product accidentally seen just before the purchase is erroneously determined based on whether the product is viewed before or after the purchase target product. For this reason, in the present embodiment, first, a candidate with a large number of times of viewing the target product is extracted as a candidate for the target product. That is, the product viewed over the threshold is determined to be a product that the user is interested in, and is a candidate for the lost target product. As a method for extracting a candidate for a target product that has been lost, a product that has been viewed above a threshold value may be extracted, or a predetermined upper number of products that have been viewed many times may be extracted.
そして、迷った対象商品の候補が、購入対象商品ではなく、かつ購入対象商品を選んだ時間の直前又は直後の時間に見られているかによって、迷った商品の絞り込みを行う。つまり、迷った対象商品の候補が、購入対象商品を選んだ時間の直前又は直後の時間に見られた場合に「迷った商品」と特定する。 Then, the lost products are narrowed down depending on whether the candidate for the lost target product is not the purchase target product and is seen immediately before or after the time when the purchase target product is selected. That is, when a candidate for a lost target product is seen at a time immediately before or immediately after a time when a purchase target product is selected, it is specified as a “lost product”.
つまり、ユーザは「迷った商品」を選択(購入)完了間際に、「購入対象商品」と見比べる。複数の対象商品から購入対象商品を決定するとき、ユーザの上記動作によれば、徐々に購入対象商品の候補を絞り込んでいく。購入対象商品の候補は、迷った商品の候補でもあり、最後に購入した対象商品と迷った対象商品とを見比べる見方に起因して、迷った商品を抽出することで、買うことを「迷った商品」をより正しく推定することができる。 In other words, the user compares the “lost product” with the “purchase target product” immediately after the selection (purchase) is completed. When a purchase target product is determined from a plurality of target products, according to the above-described operation of the user, the purchase target product candidates are gradually narrowed down. The candidate for the purchase target product is also a candidate for the lost product. By extracting the lost product due to the way of comparing the last purchased target product with the lost target product, The product "can be estimated more correctly.
例えば、図21の例では、迷った対象商品の候補として商品B、Dが抽出される。そのうち、購入対象商品Cを選んだ時間の直前又は直後の時間に見られた商品Bは迷った商品に設定され、購入対象商品を選んだ時間の直前又は直後の時間に見られなかった商品Dは、迷った商品には設定されない。これにより、ユーザが対象商品を見る視線データに基づいて、購入には至らなかったが、買うことを「迷った商品」をより正しく推定することができる。これにより、ユーザが購入対象商品の次に興味を持っていた対象商品の判定精度をより向上させることができる。 For example, in the example of FIG. 21, the products B and D are extracted as candidates for the lost target product. Of these, the product B found at the time immediately before or immediately after the time when the purchase target product C is selected is set as a lost product, and the product D that is not seen at the time immediately before or immediately after the time when the purchase target product is selected. Is not set for lost products. Thereby, based on the line-of-sight data in which the user looks at the target product, it is possible to more accurately estimate the “lost product” that has not been purchased but has been purchased. Thereby, the determination accuracy of the target product that the user is interested in next to the purchase target product can be further improved.
本実施形態では、購入対象商品を選んだ時間の直前又は直後(購入対象商品を選んだ時間の直前及び直後を(前後±1)とも記載する。)に迷った対象商品の候補がユーザにより見られたかを判定した。しかしながら、これに限らず、購入対象商品を選んだ時間の前後の少なくともいずれかに迷った対象商品の候補が見られたかを判定してもよい。 In the present embodiment, the user sees a candidate for the target product that is lost immediately before or immediately after the time when the purchase target product is selected (before and after the time when the purchase target product is selected is also described as (before and after ± 1)). I was judged. However, the present invention is not limited to this, and it may be determined whether or not a candidate for the target product is found at least before or after the time when the target product is selected.
例えば、購入対象商品を選んだ時間の(前後±2)の範囲で迷った対象商品の候補がユーザにより見られたかを判定してもよいし、購入対象商品を選んだ時間の(前後±3)の範囲で迷った対象商品の候補が見られたかを判定してもよい。また、見た対象商品数Nに応じてよって、購入対象商品を選んだ時間の前後を可変にしてもよい。例えば、商品数が少なければ購入対象商品を選んだ時間の前後±1に限って迷った対象商品の候補が見られたかを判定し、商品数が多ければ購入対象商品を選んだ時間の前後±2又は前後±3の範囲で迷った対象商品の候補が見られたかを判定してもよい。 For example, it may be determined whether the user has seen a candidate for the target product that is lost within the range of the time when the purchase target product is selected (before and after ± 2), or the time when the purchase target product is selected (before and after ± 3 ), It may be determined whether a candidate for the target product is lost. Further, the time before and after the time when the purchase target product is selected may be varied according to the number N of target product viewed. For example, if the number of products is small, it is determined whether or not the candidate for the target product is lost only before and after the time when the purchase target product is selected. If the number of products is large, before and after the time when the purchase target product is selected. It may be determined whether a candidate for the target product that is lost in the range of 2 or ± 3 is seen.
また、図20のステップS88にて使用する閾値は、図22(a)及び図22(b)に一例を示すように、対象商品(見た商品)の数Nの個数に応じて変えてもよい。図22(a)の例では、商品個数が2〜5のときの閾値Sth2〜Sth5を異なる値に設定している。このとき、商品個数が少ない程、閾値は高くなり、Sth2>Sth3>Sth4>Sth5となる。 Further, the threshold value used in step S88 of FIG. 20 may be changed according to the number N of the target products (the products seen) as shown in FIG. 22 (a) and FIG. 22 (b). Good. In the example of FIG. 22A, the thresholds S th2 to S th5 when the number of products is 2 to 5 are set to different values. At this time, the smaller the number of products, the higher the threshold, and S th2 > S th3 > S th4 > S th5 .
図22(b)の例では、商品を購入するまでに要した時間Tに応じて、閾値SthがSth=aT+bの式から設定される。このとき、a、bは事前に設定される係数である。ただし、閾値Sthを求める式は一時直線に限らない。なお、図22の例では、閾値は回数で示されるが、商品の見た回数に替えて、商品の見た合計時間を計測した場合には、閾値は見た時間又は見た頻度で示されてもよい。 In the example of FIG. 22B, the threshold value S th is set from the formula S th = aT + b according to the time T required until the product is purchased. At this time, a and b are coefficients set in advance. However, the formula for obtaining the threshold value S th is not limited to a temporary straight line. In the example of FIG. 22, the threshold value is indicated by the number of times. However, when the total time the product is viewed is measured instead of the number of times the product is viewed, the threshold value is indicated by the time or frequency of viewing. May be.
なお、nが購入対象商品を示す値に設定された場合、ステップS88〜S96の処理をスキップしてもよい。 When n is set to a value indicating the purchase target product, the processing in steps S88 to S96 may be skipped.
<第7実施形態>
[視線分析処理]
次に、第7実施形態に係る視線分析処理の一例について図23及び図24を参照して説明する。図23は、第7実施形態に係る視線分析処理の一例を示したフローチャートである。図24は、第7実施形態に係る視線分析処理を説明する図である。
<Seventh embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the seventh embodiment will be described with reference to FIGS. FIG. 23 is a flowchart illustrating an example of a line-of-sight analysis process according to the seventh embodiment. FIG. 24 is a diagram for explaining line-of-sight analysis processing according to the seventh embodiment.
第6実施形態では、例えば、実際に商品を購入したときを選択イベントの検出時とし、迷った商品の判定処理(図20のステップS88〜S100)の開始のトリガとした。 In the sixth embodiment, for example, the time when the product is actually purchased is set as the detection time of the selection event, and the start of the lost product determination process (steps S88 to S100 in FIG. 20).
これに対して、第7実施形態に係る視線分析処理では、複数の対象商品のいずれかの単位時間毎の視線の検知回数が第1の判定開始閾値以上となったとき、実際に商品を購入していない場合であっても、視線の検知回数が第1の判定開始閾値以上となった当該商品を購入対象商品と予測する。予測した購入対象商品は、購入対象予測商品ともいう。そして、複数の対象商品のいずれかの単位時間毎の視線の検知回数が第1の判定開始閾値以上となったときを選択予測イベントの検出時とし、迷った商品の判定処理の開始のトリガとする。以下の説明では、第6実施形態と異なる点を説明する。 In contrast, in the line-of-sight analysis processing according to the seventh embodiment, when the number of line-of-sight detections per unit time of a plurality of target products becomes equal to or greater than the first determination start threshold, the product is actually purchased. Even if not, the product for which the number of line-of-sight detection is equal to or greater than the first determination start threshold is predicted as a purchase target product. The predicted purchase target product is also referred to as a purchase target prediction product. And when the selection prediction event is detected when the number of line-of-sight detections per unit time of a plurality of target products is equal to or greater than the first determination start threshold, To do. In the following description, differences from the sixth embodiment will be described.
本処理が開始されると、取得部13は、ステップS12の処理を実行し、判定部14は、取得した視線データの座標から、各商品領域に基づき「見た商品」を判定し、算出部15は、対象商品毎の見た回数を計測する(ステップS80)。
When this process is started, the
次に、判定部14は、対象商品のうち、見た回数の最大値が第1の判定開始閾値以上であるか否かを判定する(ステップS110)。図24に、第1の判定開始閾値の一例を示す。図24の例では、第1の判定開始閾値は、迷った商品の候補を抽出するための閾値よりも大きい値を持つ。判定部14は、対象商品のうち、見た回数の最大値が第1の判定開始閾値以上の商品がないと判定すると、ステップS80、S110を繰り返す。判定部14は、見た回数の最大値が第1の判定開始閾値以上であると判定すると、ステップS112に進む。なお、ステップS110において、見た回数の最大値が第1の判定開始閾値以上であると判定したときは、選択予測イベントが検出されたときの一例である。
Next, the
ステップS112では、特定部16は、見た回数の最大値が第1の判定開始閾値以上の商品を最も購入される可能性が高い商品(購入対象予測商品)に設定し、ステップS84に進む。
In step S112, the specifying
ステップS84〜S102の処理は、第6実施形態の同一番号のステップの処理と同一であるため、説明を省略する。 Since the processes of steps S84 to S102 are the same as the processes of the steps with the same numbers in the sixth embodiment, the description thereof is omitted.
本処理の結果、図24の例では商品Cが購入対象予測商品に設定される。そして、迷った商品の候補である商品B及び商品Fのうち、選択予測イベントが検出されたときの時間の直前又は直後の少なくともいずれかの時間に見た商品が迷った商品として特定される。 As a result of this processing, the product C is set as the purchase target predicted product in the example of FIG. Then, among the products B and F that are candidates for the lost product, the product viewed at least one time immediately before or immediately after the time when the selection prediction event is detected is identified as the lost product.
これによれば、見た回数が最大の商品を購入対象予測商品に設定する。購入対象予測商品は、第1の対象物の一例である。つまり、購入対象予測商品は、購入意識が最も高い商品として購入対象商品と同等に扱うことで、視線データの計測中にリアルタイムに迷った商品を特定することができる。これにより、特定した迷った商品に関する情報を、商品購入前のタイミングでユーザにレコメンドすることができる。 According to this, the product with the largest number of times of viewing is set as the purchase target prediction product. The purchase target prediction product is an example of a first target object. That is, the purchase target prediction product can be identified as a product with the highest purchase awareness in the same manner as the purchase target product, so that a product lost in real time during the measurement of the line-of-sight data can be specified. Thereby, the information regarding the specified lost product can be recommended to the user at the timing before the product purchase.
なお、複数の対象商品のいずれかの単位時間毎の視線の検知回数が第1の判定開始閾値以上となったときに替えて、複数の対象商品のいずれかの単位時間毎の視線の検知頻度が第1の判定開始閾値に替わる閾値以上となったとき又は単位時間毎の視線の合計時間が第1の判定開始閾値に替わる閾値以上となったときを、選択予測イベントの検出時としてもよい。 In addition, instead of when the number of line-of-sight detections per unit time of a plurality of target products is equal to or greater than the first determination start threshold, the line-of-sight detection frequency for any unit time of the plurality of target products May be the time when the selected prediction event is detected, when the threshold value for the first determination start threshold value is exceeded or when the total line-of-sight time per unit time becomes equal to or more than the threshold value for the first determination start threshold value. .
[視線分析処理]
次に、第8実施形態に係る視線分析処理の一例について図25及び図26を参照して説明する。図25は、第8実施形態に係る視線分析処理の一例を示したフローチャートである。図26は、第8実施形態に係る視線分析処理を説明する図である。
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the eighth embodiment will be described with reference to FIGS. FIG. 25 is a flowchart illustrating an example of a line-of-sight analysis process according to the eighth embodiment. FIG. 26 is a diagram for explaining line-of-sight analysis processing according to the eighth embodiment.
第7実施形態に係る視線分析処理では、複数の対象商品のいずれかの単位時間毎の視線の検知回数が第1の判定開始閾値以上となったとき、実際に商品を購入していない場合であっても、視線の検知回数が第1の判定開始閾値以上となった当該商品を購入対象予測商品に設定した。そして、このときを選択予測イベントの検出時とし、迷った商品の判定処理の開始のトリガとした。 In the line-of-sight analysis processing according to the seventh embodiment, when the number of line-of-sight detections per unit time of a plurality of target products is equal to or greater than the first determination start threshold, the product is not actually purchased. Even if it exists, the said goods in which the frequency | count of eyes | visual_axis detection became more than the 1st determination start threshold value were set to purchase object prediction goods. And this time was set as the time of the detection of a selection prediction event, and it was set as the trigger of the start of the determination process of the lost goods.
これに対して、第8実施形態では、複数の対象商品のうち、単位時間毎の視線の検知回数が所定回数以上の対象商品の数(本実施形態では所定回数は0、すなわち、見た回数が計測された対象商品の数)が第2の判定開始閾値以下となったときを選択予測イベントの検出時とし、迷った商品の判定処理の開始のトリガとする。以下の説明では、第7実施形態と異なる点を説明する。 On the other hand, in the eighth embodiment, among a plurality of target products, the number of target products whose line-of-sight detection count per unit time is equal to or greater than a predetermined number (in this embodiment, the predetermined number is 0, that is, the number of times of viewing Is the time when the selection prediction event is detected, and is a trigger for starting the determination process of the lost product. In the following description, differences from the seventh embodiment will be described.
本処理が開始されると、取得部13は、ステップS12の処理を実行し、判定部14は、取得した視線データの座標から、各商品領域に基づき「見た商品」を判定し、算出部15は、対象商品毎の見た回数を計測する(ステップS80)。
When this process is started, the
次に、判定部14は、対象商品のうち、見た回数が計測された対象商品の数が第2の判定開始閾値以下であるか否かを判定する(ステップS120)。図26(a)に、第2の判定開始閾値の一例を示す。
Next, the
判定部14は、対象商品の見た回数が計測された対象商品の数が第2の判定開始閾値よりも大きいと判定する間、ステップS80、S120を繰り返す。一方、判定部14は、対象商品の見た回数が計測された対象商品の数が第2の判定開始閾値以下であると判定すると、ステップS122に進む。なお、ステップS120において、対象商品の見た回数が計測された対象商品の数が第2の判定開始閾値以下のときは、選択予測イベントが検出されたときの一例である。また、図26(b)に、単位時間T1〜T5の一例を示す。
The
図25のステップS122では、特定部16は、見た回数が最大の対象商品を最も購入される可能性が高い商品(購入対象予測商品)に設定し、ステップS84に進む。
In step S122 of FIG. 25, the specifying
ステップS84〜S102の処理は、第7実施形態の同一番号のステップの処理と同一であるため、説明を省略する。 Since the processing of steps S84 to S102 is the same as the processing of the step with the same number in the seventh embodiment, the description thereof is omitted.
これによれば、見た回数が最大のものを購入対象予測商品に設定する。つまり、購入対象予測商品は、購入意識が最も高い商品として購入対象商品と同等に扱うことで、視線データの計測中にリアルタイムで迷った商品を特定することができる。これにより、特定した迷った商品に関する情報を、商品購入前のタイミングでユーザにレコメンドすることができる。 According to this, the item with the largest number of times of viewing is set as the purchase target prediction product. That is, the purchase target prediction product can be identified as a product with the highest purchase consciousness in the same manner as the purchase target product, thereby identifying a product lost in real time during the measurement of the line-of-sight data. Thereby, the information regarding the specified lost product can be recommended to the user at the timing before the product purchase.
なお、単位時間の対象商品の見た回数が計測された対象商品の数が第2の判定開始閾値以下であるときに替えて、単位時間の視線の合計時間、検知頻度又は検知回数がそれぞれ、所定時間、所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったときを、選択予測イベントの検出時としてもよい。 In addition, instead of when the number of target products for which the number of target products per unit time was measured is less than or equal to the second determination start threshold, the total time of the line of sight of unit time, the detection frequency, or the number of detections, The time when the number of objects equal to or less than the predetermined time, the predetermined frequency, or the predetermined number of times is equal to or less than the second determination start threshold may be set as the detection time of the selection prediction event.
以上に説明した第6〜第8実施形態及び第1〜第5実施形態に係る視線分析処理において、視線計測の開始のトリガとなるイベントとしては、視線センサ22が設置された棚又はサイネージ等の前にユーザが来て、顔(または視線)が検出されたときであってもよい。また、カメラ画像、3Dセンサ等を用いた身体や骨格の位置検出によって、ユーザが商品棚の前に立ち止まったと判定されたときであってもよい。また、モバイル端末のWi−FiやGPSを用いたユーザ位置の検出によって、ユーザが商品棚の前に立ち止まったと判定されたときであってもよい。
In the line-of-sight analysis processing according to the sixth to eighth embodiments and the first to fifth embodiments described above, as an event that triggers the start of line-of-sight measurement, an event such as a shelf or a signage where the line-of-
また、視線計測の終了のトリガとなるイベントとしては、視線センサ22が設置された棚又はサイネージ等の前からユーザが立ち去り、顔(または視線)が所定時間検出されなかったときであってもよい。また、カメラ画像、3Dセンサ等を用いた身体や骨格の位置検出によって、ユーザが商品棚の前から立ち去ったと判定されたときであってもよい。また、視線データのリアルタイム分析により、迷った商品が特定されたときであってもよい。また、ユーザがサイネージ等の購入ボタンを押したときであってもよい。また、事前に設定した視線データの計測時間が経過したときであってもよい。
In addition, the event that triggers the end of the line-of-sight measurement may be when the user leaves the front of the shelf or signage where the line-of-
上記第1〜第8実施形態に係る視線分析処理を単独又は組み合わせて以下のように利用することができる。例えば、陳列棚の商品をユーザが見て選択するシーンでは、購入した商品と比較して迷った商品の情報を蓄積することで、自社製品がどのような商品と比較されているかを元に、パッケージデザイン等の商品開発に活用することができる。 The line-of-sight analysis processing according to the first to eighth embodiments can be used alone or in combination as follows. For example, in a scene where the user selects and displays products on the display shelf, by accumulating information on products that are lost compared to purchased products, based on what products the company's products are compared with, It can be used for product development such as package design.
また、デジタルサイネージ20に表示した商品をユーザが見て選択するシーンでは、顧客が商品を購入しようとタッチ操作した際に、購入対象商品と比較して迷った商品に対するレコメンド(付加情報、クーポン情報)を行い、顧客への購買を促すことができる。
In addition, in a scene where the user views and selects a product displayed on the
陳列棚の商品をユーザが見て選択するシーン及びデジタルサイネージ20に表示した商品をユーザが見て選択するシーンのいずれにおいても、分析のタイミングは、商品購入後であってもよいし、商品購入前の迷っている時間帯にリアルタイムに行ってもよい。
In both the scene where the user views and selects the products on the display shelf and the scene where the user views and selects the products displayed on the
以上、視線分析プログラム、視線分析方法及び視線分析装置を上記実施形態により説明したが、本発明に係る視線分析プログラム、視線分析方法及び視線分析装置は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。 As described above, the line-of-sight analysis program, the line-of-sight analysis method, and the line-of-sight analysis apparatus have been described in the above embodiment, but the line-of-sight analysis program, the line-of-sight analysis method, and the line-of-sight analysis apparatus according to the present invention are not limited to the above-described embodiment. Various modifications and improvements are possible within the scope of the invention. In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range.
例えば、各実施形態では、商品を見た回数に基づき、迷った商品を特定した。しかしながら、本発明は、これに限らず、例えば、商品を見た合計時間に基づき、迷った商品を特定してもよい。 For example, in each embodiment, the lost product is specified based on the number of times the product is viewed. However, the present invention is not limited to this. For example, the lost product may be specified based on the total time of viewing the product.
また、各実施形態では、商品選択に要する時間Tを3分割し、分割された各経過時間の視線の回数を算出した。しかしながら、本発明は、これに限らず、例えば、商品選択に要する時間Tをn分割し、n分割された各経過時間の視線の回数を算出してもよい。nは、2以上の数であればよい。 In each embodiment, the time T required for product selection is divided into three, and the number of lines of sight for each divided elapsed time is calculated. However, the present invention is not limited to this. For example, the time T required for product selection may be divided into n, and the number of lines of sight for each elapsed time divided into n may be calculated. n may be a number of 2 or more.
上記実施形態において選択ボタンを押す等により、商品の選択(購入)を示す選択イベントが検出されると、選択イベントの直近の時間帯における、複数の商品についての視線の検知状況に基づき迷った商品が特定された。このとき、直近の時間帯は、選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から選択イベントの検出までの対象物の選択に要した期間Tを複数の期間に分割して得られる分割期間のうち、相対的に選択イベントに近い分割期間であってもよい。 In the above embodiment, when a selection event indicating selection (purchase) of a product is detected by pressing a selection button or the like, the product is lost based on the line-of-sight detection status for a plurality of products in the time zone closest to the selection event Was identified. At this time, the most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or a plurality of periods T required for selection of the object from the start of the detection of the line of sight until the detection of the selection event. Of the divided periods obtained by dividing the period, a divided period relatively close to the selected event may be used.
また、迷った対象物は、視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物であってもよい。 Further, the lost object is in a predetermined period from the start of the detection of the line of sight, or the detection frequency or the number of detections of the line of sight in the divided period that is relatively close to the detection start of the line of sight in the divided period. It may be an object in which an increase in the eye gaze detection frequency or the number of detections in the latest time zone is detected.
また、例えば、各実施形態に係る視線分析装置10の構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々な構成例にすることができる。例えば、本発明に係る視線分析装置の一の部機能は、ネットワークに接続された情報処理装置やクラウド上の各種の処理装置において実施してもよい。
Further, for example, the configuration of the line-of-
以上の説明に関し、更に以下の項を開示する。
(付記1)
複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定し、
特定した前記第2の対象物を示す情報を出力する、
処理をコンピュータに実行させることを特徴とする視線分析プログラム。
(付記2)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が相対的に多い対象物である、
ことを特徴とする付記1に記載の視線分析プログラム。
(付記3)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が前記第1の対象物と同等の対象物である、
ことを特徴とする付記1又は2に記載の視線分析プログラム。
(付記4)
前記直近の時間帯は、前記選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から前記選択イベントの検出までの期間を複数の期間に分割して得られる分割期間のうち、相対的に前記選択イベントに近い分割期間である、
ことを特徴とする付記1〜3のいずれか一項に記載の視線分析プログラム。
(付記5)
前記第2の対象物は、前記視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物である、
ことを特徴とする付記4に記載の視線分析プログラム。
(付記6)
予め定められた単位時間毎の複数の対象物についての視線の検知状況に基づいて、一の単位時間の視線の検知頻度又は検知回数と、該一の単位時間の直後の単位時間の視線の検知頻度又は検知回数との差分から商品の選択に迷っているか否かを判定する、
ことを特徴とする視線分析プログラム。
(付記7)
複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定し、
特定した前記第2の対象物を示す情報を出力する、
ことをコンピュータが実行する視線分析方法。
(付記8)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が相対的に多い対象物である、
ことを特徴とする付記7に記載の視線分析方法。
(付記9)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が前記第1の対象物と同等の対象物である、
ことを特徴とする付記7又は8に記載の視線分析方法。
(付記10)
前記直近の時間帯は、前記選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から前記選択イベントの検出までの期間を複数の期間に分割して得られる分割期間のうち、相対的に前記選択イベントに近い分割期間である、
ことを特徴とする付記7〜9のいずれか一項に記載の視線分析方法。
(付記11)
前記第2の対象物は、前記視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物である、
ことを特徴とする付記10に記載の視線分析方法。
(付記12)
複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定する特定部と、
特定した前記第2の対象物を示す情報を出力する出力部と、
を有する視線分析装置。
(付記13)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が相対的に多い対象物である、
ことを特徴とする付記12に記載の視線分析装置。
(付記14)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が前記第1の対象物と同等の対象物である、
ことを特徴とする付記12又は13に記載の視線分析装置。
(付記15)
前記直近の時間帯は、前記選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から前記選択イベントの検出までの期間を複数の期間に分割して得られる分割期間のうち、相対的に前記選択イベントに近い分割期間である、
ことを特徴とする付記12〜14のいずれか一項に記載の視線分析装置。
(付記16)
前記第2の対象物は、前記視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物である、
ことを特徴とする付記15に記載の視線分析装置。
(付記17)
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出し、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前又は後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定し、
特定した前記対象物を示す情報を出力する、
処理をコンピュータに実行させることを特徴とする視線分析プログラム。
(付記18)
前記選択イベント又は選択予測イベントを検出した時間の直前又は直後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補の少なくとも一つの対象物を特定する、
ことを特徴とする付記17に記載の視線分析プログラム。
(付記19)
前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数のうちのいずれかが第1の判定開始閾値以上となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記17又は18に記載の視線分析プログラム。
(付記20)
前記複数の対象物のうち、所定時間毎の視線の検知頻度又は検知回数が所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記17〜19のいずれか一項に記載の視線分析プログラム。
(付記21)
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出し、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前後の時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定し、
特定した前記対象物を示す情報を出力する、
ことをコンピュータが実行する視線分析方法。
(付記22)
前記選択イベント又は選択予測イベントを検出した時間の直前又は直後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補の少なくとも一つの対象物を特定する、
ことを特徴とする付記21に記載の視線分析方法。
(付記23)
前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数のうちのいずれかが第1の判定開始閾値以上となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記21又は22に記載の視線分析方法。
(付記24)
前記複数の対象物のうち、所定時間毎の視線の検知頻度又は検知回数が所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記21〜23のいずれか一項に記載の視線分析方法。
(付記25)
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出する抽出部と、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前後の時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定する特定部と、
特定した前記対象物を示す情報を出力する出力部と、
を有する視線分析装置。
(付記26)
前記特定部は、前記選択イベント又は選択予測イベントを検出した時間の直前又は直後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補の少なくとも一つの対象物を特定する、
ことを特徴とする付記25に記載の視線分析装置。
(付記27)
前記抽出部は、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数のうちのいずれかが第1の判定開始閾値以上となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記25又は26に記載の視線分析装置。
(付記28)
前記複数の対象物のうち、所定時間毎の視線の検知頻度又は検知回数が所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記25〜27のいずれか一項に記載の視線分析装置。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. Identify a second object that is different from
Outputting information indicating the identified second object;
A line-of-sight analysis program that causes a computer to execute processing.
(Appendix 2)
The second object is an object that has a relatively large number of eye gaze detection frequencies or number of detections to be detected in the most recent time zone.
The line-of-sight analysis program according to
(Appendix 3)
The second object is an object having a detection frequency or number of detections of the line of sight to be detected in the most recent time zone, which is equivalent to the first object.
The line-of-sight analysis program according to
(Appendix 4)
The most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or is obtained by dividing a period from the start of eye gaze detection to the detection of the selection event into a plurality of periods. Among the divided periods, it is a divided period that is relatively close to the selected event.
The line-of-sight analysis program according to any one of
(Appendix 5)
The second object is detected with respect to the line-of-sight detection frequency or the number of detections within a predetermined period from the start of line-of-sight detection, or within a divided period of the division period that is relatively close to the line-of-sight detection start. The object in which an increase in the detection frequency or the number of detections of the line of sight within the most recent time zone is detected.
The line-of-sight analysis program according to
(Appendix 6)
Based on the gaze detection status of a plurality of objects for each predetermined unit time, the gaze detection frequency or the number of detections of one unit time and the gaze detection of the unit time immediately after the one unit time Determine whether or not you are confused in selecting a product from the difference in frequency or number of detections,
Gaze analysis program characterized by that.
(Appendix 7)
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. Identify a second object that is different from
Outputting information indicating the identified second object;
A line-of-sight analysis method that the computer executes.
(Appendix 8)
The second object is an object that has a relatively large number of eye gaze detection frequencies or number of detections to be detected in the most recent time zone.
The line-of-sight analysis method according to
(Appendix 9)
The second object is an object having a detection frequency or number of detections of the line of sight to be detected in the most recent time zone, which is equivalent to the first object.
The line-of-sight analysis method according to
(Appendix 10)
The most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or is obtained by dividing a period from the start of eye gaze detection to the detection of the selection event into a plurality of periods. Among the divided periods, it is a divided period that is relatively close to the selected event.
The line-of-sight analysis method according to any one of
(Appendix 11)
The second object is detected with respect to the line-of-sight detection frequency or the number of detections within a predetermined period from the start of line-of-sight detection, or within a divided period of the division period that is relatively close to the line-of-sight detection start. The object in which an increase in the detection frequency or the number of detections of the line of sight within the most recent time zone is detected.
The line-of-sight analysis method according to
(Appendix 12)
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. A specifying unit for specifying a second object different from
An output unit for outputting information indicating the identified second object;
A line-of-sight analysis apparatus.
(Appendix 13)
The second object is an object that has a relatively large number of eye gaze detection frequencies or number of detections to be detected in the most recent time zone.
(Appendix 14)
The second object is an object having a detection frequency or number of detections of the line of sight to be detected in the most recent time zone, which is equivalent to the first object.
The line-of-sight analysis apparatus according to
(Appendix 15)
The most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or is obtained by dividing a period from the start of eye gaze detection to the detection of the selection event into a plurality of periods. Among the divided periods, it is a divided period that is relatively close to the selected event.
The line-of-sight analysis apparatus according to any one of
(Appendix 16)
The second object is detected with respect to the line-of-sight detection frequency or the number of detections within a predetermined period from the start of line-of-sight detection, or within a divided period of the division period that is relatively close to the line-of-sight detection start. The object in which an increase in the detection frequency or the number of detections of the line of sight within the most recent time zone is detected.
The line-of-sight analysis apparatus according to
(Appendix 17)
Based on the detection status of the line of sight for a plurality of objects, the object having a relatively high frequency of detection or the number of detections of the line of sight for each predetermined time for the plurality of objects is extracted as a candidate for the object,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the object at the time at least either before or after the time when the selection event or the selection prediction event is detected Based on the line-of-sight detection status of the candidate, identify at least one object different from the first object from among the candidate objects,
Outputting information indicating the identified object;
A line-of-sight analysis program that causes a computer to execute processing.
(Appendix 18)
Identify at least one target object candidate based on the line-of-sight detection status of the target object candidate immediately before or immediately after the time when the selection event or selection prediction event is detected To
The line-of-sight analysis program according to
(Appendix 19)
When any one of the detection frequency or the number of detections of the line of sight for each of the plurality of objects is equal to or higher than a first determination start threshold, a selection prediction event for the first object is detected.
The line-of-sight analysis program according to
(Appendix 20)
The selection for the first object when the detection frequency or the number of detections of the line-of-sight for each predetermined time among the plurality of objects is equal to or less than a second determination start threshold value. Detect predictive events,
The line-of-sight analysis program according to any one of
(Appendix 21)
Based on the detection status of the line of sight for a plurality of objects, the object having a relatively high frequency of detection or the number of detections of the line of sight for each predetermined time for the plurality of objects is extracted as a candidate for the object,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the line-of-sight detection of the candidate for the object at the time before and after the time when the selection event or the selection prediction event is detected. Based on the situation, identify at least one object different from the first object from among the candidate objects,
Outputting information indicating the identified object;
A line-of-sight analysis method that the computer executes.
(Appendix 22)
Identify at least one target object candidate based on the line-of-sight detection status of the target object candidate immediately before or immediately after the time when the selection event or selection prediction event is detected To
(Appendix 23)
When any one of the detection frequency or the number of detections of the line of sight for each of the plurality of objects is equal to or higher than a first determination start threshold, a selection prediction event for the first object is detected.
23. The line-of-sight analysis method according to
(Appendix 24)
The selection for the first object when the detection frequency or the number of detections of the line-of-sight for each predetermined time among the plurality of objects is equal to or less than a second determination start threshold value. Detect predictive events,
The line-of-sight analysis method according to any one of appendices 21 to 23, characterized in that:
(Appendix 25)
An extraction unit that extracts, as candidates for objects, objects having a relatively high line-of-sight detection frequency or number of detections for each predetermined time based on the line-of-sight detection status of the plurality of objects. When,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the line-of-sight detection of the candidate for the object at the time before and after the time when the selection event or the selection prediction event is detected. A specifying unit for specifying at least one object different from the first object from among the candidates for the object based on a situation;
An output unit that outputs information indicating the identified object;
A line-of-sight analysis apparatus.
(Appendix 26)
The specifying unit is configured to select at least one of the object candidates based on a gaze detection state of the object candidate at least immediately before or immediately after the time when the selection event or the selection prediction event is detected. Identify one feature,
The line-of-sight analysis apparatus according to appendix 25, wherein:
(Appendix 27)
The extraction unit is configured to perform selection prediction for the first object when any of the line-of-sight detection frequency or the number of detections for the plurality of objects reaches or exceeds a first determination start threshold value. Detect events,
27. The line-of-sight analysis apparatus according to
(Appendix 28)
The selection for the first object when the detection frequency or the number of detections of the line-of-sight for each predetermined time among the plurality of objects is equal to or less than a second determination start threshold value. Detect predictive events,
The line-of-sight analysis apparatus according to any one of Supplementary Notes 25 to 27, characterized in that:
10 視線分析装置
11 記憶部
12 検出部
13 取得部
14 判定部
15 算出部
16 特定部
17 出力部
18 抽出部
30 視線情報DB
31 閾値テーブル
32 視線分析プログラム
33 対象物配置DB
34 迷った対象DB
DESCRIPTION OF
31 Threshold Table 32
34 Target DB lost
Claims (14)
特定した前記第2の対象物を示す情報を出力する、
処理をコンピュータに実行させることを特徴とする視線分析プログラム。 When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. Identify a second object that is different from
Outputting information indicating the identified second object;
A line-of-sight analysis program that causes a computer to execute processing.
ことを特徴とする請求項1に記載の視線分析プログラム。 The second object is an object that has a relatively large number of eye gaze detection frequencies or number of detections to be detected in the most recent time zone.
The line-of-sight analysis program according to claim 1.
ことを特徴とする請求項1又は2に記載の視線分析プログラム。 The second object is an object having a detection frequency or number of detections of the line of sight to be detected in the most recent time zone, which is equivalent to the first object.
The line-of-sight analysis program according to claim 1 or 2.
ことを特徴とする請求項1〜3のいずれか一項に記載の視線分析プログラム。 The most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or is obtained by dividing a period from the start of eye gaze detection to the detection of the selection event into a plurality of periods. Among the divided periods, it is a divided period that is relatively close to the selected event.
The line-of-sight analysis program according to any one of claims 1 to 3.
ことを特徴とする請求項4に記載の視線分析プログラム。 The second object is detected with respect to the line-of-sight detection frequency or the number of detections within a predetermined period from the start of line-of-sight detection, or within a divided period of the division period that is relatively close to the line-of-sight detection start. The object in which an increase in the detection frequency or the number of detections of the line of sight within the most recent time zone is detected.
The line-of-sight analysis program according to claim 4.
ことを特徴とする視線分析プログラム。 Based on the gaze detection status of a plurality of objects for each predetermined unit time, the gaze detection frequency or the number of detections of one unit time and the gaze detection of the unit time immediately after the one unit time Determine whether or not you are confused in selecting a product from the difference in frequency or number of detections,
Gaze analysis program characterized by that.
特定した前記第2の対象物を示す情報を出力する、
ことをコンピュータが実行する視線分析方法。 When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. Identify a second object that is different from
Outputting information indicating the identified second object;
A line-of-sight analysis method that the computer executes.
特定した前記第2の対象物を示す情報を出力する出力部と、
を有する視線分析装置。 When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. A specifying unit for specifying a second object different from
An output unit for outputting information indicating the identified second object;
A line-of-sight analysis apparatus.
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前又は後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定し、
特定した前記対象物を示す情報を出力する、
処理をコンピュータに実行させることを特徴とする視線分析プログラム。 Based on the detection status of the line of sight for a plurality of objects, the object having a relatively high frequency of detection or the number of detections of the line of sight for each predetermined time for the plurality of objects is extracted as a candidate for the object,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the object at the time at least either before or after the time when the selection event or the selection prediction event is detected Based on the line-of-sight detection status of the candidate, identify at least one object different from the first object from among the candidate objects,
Outputting information indicating the identified object;
A line-of-sight analysis program that causes a computer to execute processing.
ことを特徴とする請求項9に記載の視線分析プログラム。 Identify at least one target object candidate based on the line-of-sight detection status of the target object candidate immediately before or immediately after the time when the selection event or selection prediction event is detected To
The line-of-sight analysis program according to claim 9.
ことを特徴とする請求項9又は10に記載の視線分析プログラム。 When any one of the detection frequency or the number of detections of the line of sight for each of the plurality of objects is equal to or higher than a first determination start threshold, a selection prediction event for the first object is detected.
The line-of-sight analysis program according to claim 9 or 10.
ことを特徴とする請求項9〜11のいずれか一項に記載の視線分析プログラム。 The selection for the first object when the detection frequency or the number of detections of the line-of-sight for each predetermined time among the plurality of objects is equal to or less than a second determination start threshold value. Detect predictive events,
The line-of-sight analysis program according to any one of claims 9 to 11.
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前後の時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定し、
特定した前記対象物を示す情報を出力する、
ことをコンピュータが実行する視線分析方法。 Based on the detection status of the line of sight for a plurality of objects, the object having a relatively high frequency of detection or the number of detections of the line of sight for each predetermined time for the plurality of objects is extracted as a candidate for the object,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the line-of-sight detection of the candidate for the object at the time before and after the time when the selection event or the selection prediction event is detected. Based on the situation, identify at least one object different from the first object from among the candidate objects,
Outputting information indicating the identified object;
A line-of-sight analysis method that the computer executes.
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前後の時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定する特定部と、
特定した前記対象物を示す情報を出力する出力部と、
を有する視線分析装置。 An extraction unit that extracts, as candidates for objects, objects having a relatively high line-of-sight detection frequency or number of detections for each predetermined time based on the line-of-sight detection status of the plurality of objects. When,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the line-of-sight detection of the candidate for the object at the time before and after the time when the selection event or the selection prediction event is detected. A specifying unit for specifying at least one object different from the first object from among the candidates for the object based on a situation;
An output unit that outputs information indicating the identified object;
A line-of-sight analysis apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/985,796 US10719703B2 (en) | 2017-05-30 | 2018-05-22 | Non-transitory computer-readable storage medium for storing line-of-sight analysis program, line-of-sight analysis method, and line-of-sight analysis apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017106566 | 2017-05-30 | ||
JP2017106566 | 2017-05-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018206354A true JP2018206354A (en) | 2018-12-27 |
JP7087403B2 JP7087403B2 (en) | 2022-06-21 |
Family
ID=64957979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018007459A Active JP7087403B2 (en) | 2017-05-30 | 2018-01-19 | Gaze analysis program, gaze analysis method and gaze analyzer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7087403B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020118919A (en) * | 2019-01-28 | 2020-08-06 | 沖電気工業株式会社 | Display controller, method for controlling display, program, and display control system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007067740A (en) * | 2005-08-30 | 2007-03-15 | Sony Corp | Contents reproducing apparatus and contents reproducing method |
JP2009545051A (en) * | 2006-07-28 | 2009-12-17 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Gaze interaction for displaying information on the gazeed product |
JP2013114595A (en) * | 2011-11-30 | 2013-06-10 | Canon Inc | Information processor, information processing method, and program |
JP2013255168A (en) * | 2012-06-08 | 2013-12-19 | Toyota Infotechnology Center Co Ltd | Imaging apparatus and imaging method |
JP2014056356A (en) * | 2012-09-11 | 2014-03-27 | Toshiba Tec Corp | Sales promotion determination device and sales promotion determination method |
JP2015052879A (en) * | 2013-09-06 | 2015-03-19 | カシオ計算機株式会社 | Information processing device and program |
-
2018
- 2018-01-19 JP JP2018007459A patent/JP7087403B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007067740A (en) * | 2005-08-30 | 2007-03-15 | Sony Corp | Contents reproducing apparatus and contents reproducing method |
JP2009545051A (en) * | 2006-07-28 | 2009-12-17 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Gaze interaction for displaying information on the gazeed product |
JP2013114595A (en) * | 2011-11-30 | 2013-06-10 | Canon Inc | Information processor, information processing method, and program |
JP2013255168A (en) * | 2012-06-08 | 2013-12-19 | Toyota Infotechnology Center Co Ltd | Imaging apparatus and imaging method |
JP2014056356A (en) * | 2012-09-11 | 2014-03-27 | Toshiba Tec Corp | Sales promotion determination device and sales promotion determination method |
JP2015052879A (en) * | 2013-09-06 | 2015-03-19 | カシオ計算機株式会社 | Information processing device and program |
Non-Patent Citations (1)
Title |
---|
新井 勇夫: "本店改善と多店化で販売機会を増やす 9年連続で売上高2けた以上の伸び", 日経ネットマーケティング 第32号, JPN6021032873, 25 May 2010 (2010-05-25), pages 32, ISSN: 0004726410 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020118919A (en) * | 2019-01-28 | 2020-08-06 | 沖電気工業株式会社 | Display controller, method for controlling display, program, and display control system |
Also Published As
Publication number | Publication date |
---|---|
JP7087403B2 (en) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2636102C2 (en) | System and method for assistance in determination of location and selection of desired subject in storage | |
US8412656B1 (en) | Method and system for building a consumer decision tree in a hierarchical decision tree structure based on in-store behavior analysis | |
US20120327119A1 (en) | User adaptive augmented reality mobile communication device, server and method thereof | |
JP2015141572A (en) | Merchandise information providing method, merchandise information providing device, and merchandise information providing program | |
US20150215674A1 (en) | Interactive streaming video | |
JP6498900B2 (en) | Advertisement evaluation system, advertisement evaluation method | |
US9619707B2 (en) | Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium | |
JP2016076109A (en) | Device and method for predicting customers's purchase decision | |
JP6828383B2 (en) | Display control program, display control method and information processing device | |
JP7087403B2 (en) | Gaze analysis program, gaze analysis method and gaze analyzer | |
JP6740546B2 (en) | Customer service support device, customer service support method, and program | |
JP6775484B2 (en) | Calculation device, calculation method, and calculation program | |
US10719703B2 (en) | Non-transitory computer-readable storage medium for storing line-of-sight analysis program, line-of-sight analysis method, and line-of-sight analysis apparatus | |
JP2019175413A (en) | Determination program, determination method, and determination device | |
US20180313676A1 (en) | Information processing apparatus, information processing method, and program | |
WO2019176281A1 (en) | Display control device, vending machine, display control method, and display control program | |
JP7380839B2 (en) | Recognition level estimation device, recognition level estimation method, and program | |
JP6957926B2 (en) | Information processing equipment and programs | |
CN114967922A (en) | Information display method and device, electronic equipment and storage medium | |
WO2016189355A1 (en) | Advertising mobile equipment for readers | |
CN110610358A (en) | Commodity processing method and device and unmanned goods shelf system | |
WO2018144695A1 (en) | In-store display with selective display of products based on visibility metric | |
US20210065276A1 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP7010030B2 (en) | In-store monitoring equipment, in-store monitoring methods, and in-store monitoring programs | |
US20160098766A1 (en) | Feedback collecting system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210805 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220523 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7087403 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |