JP2018206354A - Visual line analysis program, visual line analysis method, and visual line analysis device - Google Patents

Visual line analysis program, visual line analysis method, and visual line analysis device Download PDF

Info

Publication number
JP2018206354A
JP2018206354A JP2018007459A JP2018007459A JP2018206354A JP 2018206354 A JP2018206354 A JP 2018206354A JP 2018007459 A JP2018007459 A JP 2018007459A JP 2018007459 A JP2018007459 A JP 2018007459A JP 2018206354 A JP2018206354 A JP 2018206354A
Authority
JP
Japan
Prior art keywords
line
sight
product
time
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018007459A
Other languages
Japanese (ja)
Other versions
JP7087403B2 (en
Inventor
裕太 増田
Yuta Masuda
裕太 増田
上村 拓也
Takuya Kamimura
拓也 上村
猛 大谷
Takeshi Otani
猛 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to US15/985,796 priority Critical patent/US10719703B2/en
Publication of JP2018206354A publication Critical patent/JP2018206354A/en
Application granted granted Critical
Publication of JP7087403B2 publication Critical patent/JP7087403B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To correctly specify an object that a user has hesitated to select by using visual line direction.SOLUTION: There is provided a visual line analysis program for causing a computer to execute processing for, when detecting a selection event for a first object among a plurality of objects, specifying a second object different from the first object on the basis of a detection state of a visual line about the plurality of objects in a time zone closest to the selection event, and for outputting information indicating the specified second object.SELECTED DRAWING: Figure 5

Description

本発明は、視線分析プログラム、視線分析方法及び視線分析装置に関する。   The present invention relates to a line-of-sight analysis program, a line-of-sight analysis method, and a line-of-sight analysis apparatus.

ユーザの購買行動の開始から終了までの間にユーザが注視した商品の回数を集計し、その回数が一定以上の商品を注視した商品と推定することが提案されている(例えば、特許文献1参照)。特許文献1では、注視した回数が一定以上の全商品について、ユーザがなんらかの関心を持った、又はその商品を購入するか迷ったと判定する。   It has been proposed to count the number of products that the user has watched from the start to the end of the purchase behavior of the user, and to estimate the product as a product of which the number of times has been fixed (see, for example, Patent Document 1). ). In Patent Document 1, it is determined that the user has some interest or is wondering whether to purchase the product for all products for which the number of gazes is a certain number or more.

特開2009−42956号公報JP 2009-42956 A

しかしながら、特許文献1では、ユーザが、商品の選択を開始してから選択を完了するまでのいずれのタイミングに商品を注視したかにより、商品を注視する意味が異なる場合があることを考慮していない。このため、選択を迷っていない対象物についても迷ったと誤って判定してしまうという課題がある。   However, in Patent Document 1, it is considered that the meaning of gazing at a product may differ depending on the timing at which the user gazed at the product after starting selection of the product until the selection is completed. Absent. For this reason, there is a problem in that it is erroneously determined that an object that has not been selected is lost.

そこで、1つの側面では、本発明は、視線情報を用いてユーザが選択を迷った対象物を正しく特定することを目的とする。   Therefore, in one aspect, an object of the present invention is to correctly specify an object for which a user is unsure of selection using line-of-sight information.

1つの実施態様では、複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定し、特定した前記第2の対象物を示す情報を出力する、処理をコンピュータに実行させることを特徴とする視線分析プログラムが提供される。   In one embodiment, when a selection event for the first object among a plurality of objects is detected, based on the gaze detection status of the plurality of objects in a time zone closest to the selection event, A line-of-sight analysis program characterized in that a second object different from the first object is specified, information indicating the specified second object is output, and processing is executed by a computer is provided. The

1つの側面では、本発明は、視線情報を用いてユーザが選択を迷った対象物を正しく特定することができる。   In one aspect, the present invention can correctly identify an object for which the user has made a selection using line-of-sight information.

視線と商品の選択との関係について説明する図。The figure explaining the relationship between eyes | visual_axis and selection of goods. 第1〜第5実施形態に係る視線分析装置の機能構成の一例を示す図。The figure which shows an example of a function structure of the visual axis analyzer which concerns on 1st-5th embodiment. 一実施形態に係る視線情報DB及び商品判定結果の一例を示す図。The figure which shows an example of the gaze information DB which concerns on one Embodiment, and a product determination result. 一実施形態に係る視線分析装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the gaze analysis apparatus which concerns on one Embodiment. 第1実施形態に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the visual line analysis process which concerns on 1st Embodiment. 第1実施形態に係る視線分析処理を説明する図。The figure explaining the visual line analysis process which concerns on 1st Embodiment. 第2実施形態に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the gaze analysis process which concerns on 2nd Embodiment. 第2実施形態に係る視線分析処理にて閾値を決定する方法の一例を示す図。The figure which shows an example of the method of determining a threshold value in the visual line analysis process which concerns on 2nd Embodiment. 第3実施形態に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the gaze analysis process which concerns on 3rd Embodiment. 第3実施形態に係る視線分析処理を説明する図。The figure explaining the gaze analysis process which concerns on 3rd Embodiment. 第3実施形態の変形例に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the gaze analysis process which concerns on the modification of 3rd Embodiment. 第4実施形態に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the gaze analysis process which concerns on 4th Embodiment. 第5実施形態に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the gaze analysis process which concerns on 5th Embodiment. 第5実施形態に係る視線分析処理を説明する図。The figure explaining the gaze analysis processing concerning a 5th embodiment. 第5実施形態に係る視線分析処理を説明する図。The figure explaining the gaze analysis processing concerning a 5th embodiment. 第5実施形態に係る視線分析処理を説明する図。The figure explaining the gaze analysis processing concerning a 5th embodiment. 第6〜第8実施形態に係る視線分析装置の機能構成の一例を示す図。The figure which shows an example of a function structure of the visual axis analyzer which concerns on 6th-8th embodiment. 一実施形態に係る対象物配置DBの一例を示す図。The figure which shows an example of target object arrangement | positioning DB which concerns on one Embodiment. 一実施形態に係る迷った対象DBの一例を示す図。The figure which shows an example of the lost target DB which concerns on one Embodiment. 第6実施形態に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the gaze analysis process which concerns on 6th Embodiment. 第6実施形態に係る視線分析処理を説明する図。The figure explaining the gaze analysis processing concerning a 6th embodiment. 第6実施形態に係る視線分析処理にて閾値を決定する方法の一例を示す図。The figure which shows an example of the method of determining a threshold value in the visual line analysis process which concerns on 6th Embodiment. 第7実施形態に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the gaze analysis process which concerns on 7th Embodiment. 第7実施形態に係る視線分析処理を説明する図。The figure explaining the gaze analysis processing concerning a 7th embodiment. 第8実施形態に係る視線分析処理の一例を示すフローチャート。The flowchart which shows an example of the gaze analysis process which concerns on 8th Embodiment. 第8実施形態に係る視線分析処理を説明する図。The figure explaining the gaze analysis processing concerning an 8th embodiment.

以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[はじめに]
「注視」とは、所定の平面領域に所定の時間以上、視線が留まることをいう。注視商品は、ユーザがなんらかの関心を持った、又はその商品を購入や選択を迷ったと考えられるため、注視商品を正しく推定できればの商品の販売促進等に利用できる。
[Introduction]
“Gaze” means that the line of sight stays in a predetermined plane area for a predetermined time or longer. The gaze product can be used for sales promotion of the product if the gaze product can be correctly estimated because the user is considered to have some interest or purchase or selection of the product.

例えば、図1(a)に示すように、ユーザが商品の選択開始から選択完了までの間に、商品A〜Dのいずれをどの順番で注視したかを集計し、注視回数が閾値以上の商品を注視商品と推定すると、図1(b)に示す全商品A〜Dが注視商品であると推定される。   For example, as shown in FIG. 1A, the number of products A to D in which order the user gazes between the start of product selection and the completion of selection, and the number of times of gazing is equal to or greater than a threshold value. Is estimated to be a watched product, all the products A to D shown in FIG.

しかしながら、図1(c)に示すように、人は、複数の商品を順に見た後に、買いたい商品を絞り込んでから、絞り込んだ商品のいずれを購入すべきかを迷う視線の送り方をする。つまり、ユーザは迷った対象物を、選択完了に近い時間に頻度高く見る。よって、一律に注視回数が閾値以上の商品を注視商品と推定すると、買うことを迷っていない対象物も迷ったと誤って判定してしまう。   However, as shown in FIG. 1C, after looking at a plurality of products in order, the person narrows down the products he / she wants to buy and then sends his / her line of sight as to which of the narrowed products should be purchased. That is, the user frequently views the lost object frequently at a time close to completion of selection. Therefore, if a product whose number of gazes is uniformly equal to or greater than the threshold value is estimated as a gaze product, an object that is not sure to buy is erroneously determined to be lost.

そこで、本実施形態に係る視線分析装置では、図1(d)に示すように、ユーザが対象物を見た回数の時間経過に伴う増加量に基づいて、購入や選択を迷った商品であるか否かを推定し、迷ったと推定された商品を出力する。このようにして視線データに基づき、購入や選択を迷った対象物を正しく推定することで、非購買の商品であっても注視された(迷った)商品の情報により、商品の販売促進等のマーケティングの分野で活用することができる。本実施形態に係る視線分析装置の詳細について、以下に説明する。   Therefore, in the line-of-sight analysis apparatus according to the present embodiment, as shown in FIG. 1 (d), the product is a product that is lost in purchase or selection based on an increase amount with the lapse of time of the number of times the user has viewed the object. Whether the product is estimated to be lost or not is output. In this way, based on the line-of-sight data, by correctly estimating the target for which purchase or selection has been lost, it is possible to promote sales of the product based on the information of the product that has been closely watched even if it is a non-purchased product. Can be used in the marketing field. Details of the line-of-sight analysis apparatus according to the present embodiment will be described below.

[視線分析装置の機能構成]
まず、本発明の一実施形態に係る視線分析装置10の機能構成の一例について、図2を参照しながら説明する。図2は、第1〜第5実施形態に係る視線分析装置10の機能構成の一例を示す。視線分析装置10は、デジタルサイネージ20の画面上に描画された複数の商品(ここでは、商品A〜D)や、店舗内に陳列された複数の商品に注がれる視線に関する情報をデジタルサイネージ20等に取り付けられた視線センサ22を用いて取得する。視線分析装置10は、デジタルサイネージ20や陳列棚の商品をユーザが見て選択するシーンにおいて、取得した視線データを用いて「迷った商品」を推定する。
[Functional structure of eye-gaze analyzer]
First, an example of a functional configuration of the line-of-sight analysis apparatus 10 according to an embodiment of the present invention will be described with reference to FIG. FIG. 2 shows an example of a functional configuration of the visual line analyzer 10 according to the first to fifth embodiments. The line-of-sight analysis apparatus 10 displays information on the line of sight poured into a plurality of products (here, products A to D) drawn on the screen of the digital signage 20 and a plurality of products displayed in the store. It acquires using the gaze sensor 22 attached to the above. The line-of-sight analysis apparatus 10 estimates a “lost product” using the acquired line-of-sight data in a scene where the user selects and views the products on the digital signage 20 or the display shelf.

視線センサ22は、店舗内の各棚の前又はデジタルサイネージ20を見る人に対向する位置に配置され、人の視線の動きを測定する。視線センサ22の一例としては、視線検知カメラが挙げられるが、これに限らない。例えば、特開第2015−192343号公報に一例を示すように、公知の視線センサを使用して視線の動きを取得することができる。また、本実施形態では、視線センサ22は1つとしているが、これに限らず、デジタルサイネージ20又は店舗内に1つまたは複数個設置されてもよい。   The line-of-sight sensor 22 is arranged in front of each shelf in the store or at a position facing the person who views the digital signage 20 and measures the movement of the line of sight of the person. An example of the line-of-sight sensor 22 is a line-of-sight detection camera, but is not limited thereto. For example, as shown in Japanese Patent Application Laid-Open No. 2015-192343, the movement of the line of sight can be acquired using a known line-of-sight sensor. In the present embodiment, the number of line-of-sight sensors 22 is one. However, the present invention is not limited to this, and one or a plurality of line-of-sight sensors 22 may be installed in the digital signage 20 or the store.

視線検知カメラを用いた視線検出の一例としては、基準点を目頭、動点を虹彩にして位置関係を使う方法と、基準点を角膜反射、動点を瞳孔にして位置関係を使う方法が挙げられる。基準点を目頭、動点を虹彩にして位置関係を使う方法では、視線検知カメラには可視光を撮影するカメラでユーザの動きを撮影する。基準点を角膜反射、動点を瞳孔にして位置関係を使う方法では、赤外線LEDでユーザの顔を照らして、赤外線カメラでユーザの目を撮影する。視線分析装置10は、視線センサ22から送られるユーザの目を撮影した画像について、画像処理を行い、目の動きを検出し、ユーザが見ている位置(平面座標)を解析する。   An example of gaze detection using a gaze detection camera is the method of using the positional relationship with the reference point as the eye and the moving point as the iris, and the method of using the positional relationship with the corneal reflection as the reference point and the moving point as the pupil. It is done. In the method of using the positional relationship with the reference point as the head and the moving point as the iris, the gaze detection camera captures the user's movement with a camera that captures visible light. In the method of using the positional relationship with the corneal reflection as the reference point and the moving point as the pupil, the user's face is illuminated with an infrared LED, and the user's eyes are photographed with an infrared camera. The line-of-sight analysis apparatus 10 performs image processing on the image captured by the user's eyes sent from the line-of-sight sensor 22, detects the movement of the eyes, and analyzes the position (plane coordinates) that the user is looking at.

視線分析装置10は、記憶部11、検出部12、取得部13、判定部14、算出部15、特定部16及び出力部17を有する。記憶部11は、視線情報DB30、閾値テーブル31及び視線分析プログラム32を含むプログラム及びデータを記憶している。   The line-of-sight analysis apparatus 10 includes a storage unit 11, a detection unit 12, an acquisition unit 13, a determination unit 14, a calculation unit 15, a specification unit 16, and an output unit 17. The storage unit 11 stores programs and data including a line-of-sight information DB 30, a threshold table 31, and a line-of-sight analysis program 32.

図3(a)に、視線情報DB30の一例を示す。視線情報DB30は、ユーザがデジタルサイネージ20に表示された商品や、店舗に陳列された商品に視線を向けたときの視線データ、つまり、視線の座標(x、y)を、記録時刻に対応付けて保存する。例えば、一秒に10回前後の視線データを記録してもよい。視線データは、デジタルサイネージ20の画素単位でもよいし、mm単位でもよい。   FIG. 3A shows an example of the line-of-sight information DB 30. The line-of-sight information DB 30 associates line-of-sight data when the user directs his / her line of sight to the product displayed on the digital signage 20 or the product displayed in the store, that is, the coordinates (x, y) of the line of sight to the recording time. And save. For example, line-of-sight data about 10 times per second may be recorded. The line-of-sight data may be a pixel unit of the digital signage 20 or a mm unit.

閾値テーブル31には、視線データを用いて商品を注視したか否かを判定するために用いる閾値が格納されている。   The threshold value table 31 stores threshold values that are used to determine whether or not a product is watched using line-of-sight data.

図2に戻り、検出部12は、複数の対象物のうちのある対象物(以下、「第1の対象物」とする。)に対する選択イベントを検出する。第1の対象物に対する選択イベントの検出の一例としては、デジタルサイネージ20に表示された商品A〜Dのいずれかを選択し、選択ボタン24を押下したことの検知が挙げられる。第1の対象物に対する選択イベントの検出の他の例としては、店舗に陳列されている商品を、ユーザが購入したときにPOSシステム(point of sales system)に登録されたことの検知が挙げられる。   Returning to FIG. 2, the detection unit 12 detects a selection event for a certain object (hereinafter referred to as a “first object”) among a plurality of objects. As an example of detection of the selection event for the first object, detection of selecting any of the products A to D displayed on the digital signage 20 and pressing the selection button 24 may be mentioned. As another example of the detection of the selection event for the first object, there is a detection that a product displayed in a store is registered in a POS system (point of sales system) when the user purchases it. .

視線分析プログラム32は、選択イベントを検出すると、該選択イベントの直近の時間帯における複数の対象物についての視線の検知状況に基づいて、第1の対象物とは異なる第2の対象物を迷った商品に特定するためのプログラムである。第1の対象物及び第2の対象物としては、実空間に存在する商品、仮想空間における商品の表示、商品のサムネイル画像の表示、商品の一部拡大表示、商品の特徴部分の表示等が挙げられる。   When the line-of-sight analysis program 32 detects the selection event, the line-of-sight analysis program 32 loses the second object that is different from the first object based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. It is a program for specifying the product. Examples of the first object and the second object include products existing in real space, display of products in a virtual space, display of thumbnail images of products, partial enlargement display of products, display of characteristic parts of products, and the like. Can be mentioned.

なお、以下に説明する「迷った商品」は、迷って選択又は購入した商品であってもよいし、迷ったが選択又は購入しなかった商品であってもよい。   Note that the “lost product” described below may be a product selected or purchased in doubt, or may be a product that has been selected but not purchased.

取得部13は、視線センサ22からユーザの視線の状態を含む画像を取得する。判定部14は、取得した画像を解析し、ユーザの視線が向かう座標を抽出し、視線の座標が含まれる領域から、ユーザが見た商品を判定する。判定部14は、例えば、図3(b)に示すように、商品Aの領域は左上座標(X,Y)、右下座標(X,Y)により定義される。このように商品毎に定義された領域情報と、視線情報DB30に記憶された時刻tの視線データの座標(t、x、y)から、t時にユーザがどの商品を見ていたかを判定し、視線情報DB30に記憶する。図3(c)には、見たと判定した商品を視線情報DB30の「見た商品」の欄に記憶する一例を示す。 The acquisition unit 13 acquires an image including the state of the user's line of sight from the line-of-sight sensor 22. The determination unit 14 analyzes the acquired image, extracts coordinates to which the user's line of sight is directed, and determines a product viewed by the user from an area including the coordinates of the line of sight. For example, as illustrated in FIG. 3B, the determination unit 14 defines the region of the product A by upper left coordinates (X 1 , Y 1 ) and lower right coordinates (X 2 , Y 2 ). In this way, from the area information defined for each product and the coordinates (t, x, y) of the line-of-sight data at time t stored in the line-of-sight information DB 30, it is determined which product the user was viewing at time t. It memorize | stores in eyes | visual_axis information DB30. FIG. 3C shows an example in which the product determined to be viewed is stored in the “product viewed” column of the line-of-sight information DB 30.

算出部15は、所定時間毎にユーザが各商品を見た回数を算出し、ユーザが対象物を見た回数の時間経過に伴う増加量を算出する。特定部16は、算出した増加量に基づいて、購入や選択において迷った商品を特定する。出力部17は、特定した迷った商品を出力する。   The calculation unit 15 calculates the number of times the user has viewed each product at predetermined time intervals, and calculates an increase amount with the passage of time of the number of times the user has viewed the target object. The specifying unit 16 specifies a product that is lost in purchase or selection based on the calculated increase amount. The output unit 17 outputs the specified lost product.

[視線分析装置のハードウェア構成]
次に、本実施形態に係る視線分析装置10のハードウェア構成の一例について、図4を参照して説明する。図4は、一実施形態に係る視線分析装置10のハードウェア構成の一例を示す。
[Hardware configuration of eye-gaze analyzer]
Next, an example of the hardware configuration of the visual line analyzer 10 according to the present embodiment will be described with reference to FIG. FIG. 4 shows an example of the hardware configuration of the line-of-sight analysis apparatus 10 according to an embodiment.

視線分析装置10は、入力装置101、出力装置102、外部I/F103、RAM(Random Access Memory)104、ROM(Read Only Memory)105、CPU(Central Processing Unit)106、通信I/F107、及びHDD(Hard Disk Drive)108を有する。視線分析装置10の各部はバスBにより相互に接続されている。   The line-of-sight analysis apparatus 10 includes an input device 101, an output device 102, an external I / F 103, a RAM (Random Access Memory) 104, a ROM (Read Only Memory) 105, a CPU (Central Processing Unit) 106, a communication I / F 107, and an HDD. (Hard Disk Drive) 108. Each part of the line-of-sight analysis apparatus 10 is connected to each other by a bus B.

入力装置101は、キーボードやマウスなどを含み、視線分析装置10に各操作信号を入力するために用いられる。出力装置102は、デジタルサイネージ、LCD(Liquid crystal Display)モニタ等のディスプレイ、プリンタ、CRT(Cathode Ray Tube)などを含み、各種の処理結果を出力する。通信I/F107は、視線分析装置10をネットワークに接続するインターフェースである。これにより、視線分析装置10は、通信I/F107を介して、クラウド上のサーバ等の機器とデータ通信を行うことができる。   The input device 101 includes a keyboard and a mouse, and is used to input each operation signal to the line-of-sight analysis device 10. The output device 102 includes a display such as digital signage, an LCD (Liquid crystal Display) monitor, a printer, a CRT (Cathode Ray Tube), and the like, and outputs various processing results. The communication I / F 107 is an interface that connects the line-of-sight analysis apparatus 10 to a network. Thereby, the line-of-sight analysis apparatus 10 can perform data communication with a device such as a server on the cloud via the communication I / F 107.

HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。格納されるプログラムやデータには、視線分析装置10の全体を制御する基本ソフトウェア及びアプリケーションソフトウェアがある。例えば、HDD108には、各種のデータベースや視線分析プログラム32等が格納されてもよい。   The HDD 108 is a non-volatile storage device that stores programs and data. The stored programs and data include basic software and application software that control the entire visual line analyzer 10. For example, the HDD 108 may store various databases, the line-of-sight analysis program 32, and the like.

外部I/F103は、外部装置とのインターフェースである。外部装置には、記録媒体103aなどがある。これにより、視線分析装置10は、外部I/F103を介して記録媒体103aの読み取り及び/又は書き込みを行うことができる。記録媒体103aには、CD(Compact Disk)、及びDVD(Digital Versatile Disk)、ならびに、SDメモリカード(SD Memory card)やUSBメモリ(Universal Serial Bus memory)等がある。   The external I / F 103 is an interface with an external device. The external device includes a recording medium 103a. Thereby, the line-of-sight analysis apparatus 10 can read and / or write to the recording medium 103a via the external I / F 103. The recording medium 103a includes a CD (Compact Disk), a DVD (Digital Versatile Disk), an SD memory card (SD Memory card), a USB memory (Universal Serial Bus memory), and the like.

ROM105は、電源を切っても内部データを保持することができる不揮発性の半導体メモリである。ROM105には、ネットワーク設定等のプログラム及びデータが格納されている。RAM104は、プログラムやデータを一時保持する揮発性の半導体メモリである。CPU106は、HDD108やROM105などの記憶装置から、プログラムやデータをRAM104上に読み出し、処理を実行することで、装置全体の制御や搭載機能を実現する演算装置である。   The ROM 105 is a nonvolatile semiconductor memory that can retain internal data even when the power is turned off. The ROM 105 stores programs and data such as network settings. The RAM 104 is a volatile semiconductor memory that temporarily stores programs and data. The CPU 106 is an arithmetic device that realizes control and mounting functions of the entire apparatus by reading programs and data from the storage device such as the HDD 108 and the ROM 105 onto the RAM 104 and executing processing.

かかる構成により、本実施形態に係る視線分析装置10では、CPU106が、例えばRAM104、ROM105、HDD108内に格納された視線分析プログラム32及びデータを用いて視線分析処理を実行する。なお、視線情報DB30及び閾値テーブル31に記憶された情報は、RAM104、HDD108、又はネットワークを介して視線分析装置10に接続されるクラウド上のサーバ等に格納され得る。   With this configuration, in the line-of-sight analysis apparatus 10 according to the present embodiment, the CPU 106 executes the line-of-sight analysis process using the line-of-sight analysis program 32 and data stored in the RAM 104, the ROM 105, and the HDD 108, for example. The information stored in the line-of-sight information DB 30 and the threshold value table 31 can be stored in the RAM 104, the HDD 108, or a server on the cloud connected to the line-of-sight analysis apparatus 10 via the network.

なお、図2は機能に着目したブロック図を描いており、これらの機能ブロックで示した各部のソフトウエアを実行するプロセッサはハードウェアである。例えば、図2の検出部12及び取得部13の機能は、例えば、入力装置101により実現可能である。判定部14、算出部15及び特定部16の各部の機能は、例えば、視線分析プログラム32がCPU106に実行させる処理により実現される。   FIG. 2 is a block diagram focusing on functions, and a processor that executes software of each unit indicated by these functional blocks is hardware. For example, the functions of the detection unit 12 and the acquisition unit 13 in FIG. 2 can be realized by the input device 101, for example. The function of each part of the determination part 14, the calculation part 15, and the specific | specification part 16 is implement | achieved by the process which the gaze analysis program 32 makes CPU106 perform, for example.

出力部17の機能は、例えば、出力装置102により実現可能である。記憶部11の機能は、RAM104、ROM105、HDD108又はネットワークを介して視線分析装置10に接続される情報処理装置、その他のクラウド上の記憶装置により実現可能である。   The function of the output unit 17 can be realized by the output device 102, for example. The function of the storage unit 11 can be realized by the RAM 104, the ROM 105, the HDD 108, an information processing device connected to the line-of-sight analysis device 10 via a network, or other storage devices on the cloud.

<第1実施形態>
[視線分析処理]
次に、上記構成の視線分析装置10が実行する第1実施形態に係る視線分析処理の一例について図5を参照して説明する。図5は、第1実施形態に係る視線分析処理の一例を示したフローチャートである。視線分析装置10は、デジタルサイネージ20に表示、又は陳列棚に配置された商品に対して、来店ユーザが選別の際に迷った商品を推定する。
<First Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the first embodiment executed by the line-of-sight analysis apparatus 10 having the above configuration will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a line-of-sight analysis process according to the first embodiment. The line-of-sight analysis apparatus 10 estimates the merchandise that the store visitor lost when sorting the merchandise displayed on the digital signage 20 or arranged on the display shelf.

本処理が開始されると、取得部13は、視線センサ22から視線データを取得する(ステップS12)。次に、判定部14は、取得した視線データの座標から、各商品領域に基づき「見た商品」を判定し、判定結果を視線情報DB30の「見た商品」の欄に保存する(ステップS14)。   When this process is started, the acquisition unit 13 acquires line-of-sight data from the line-of-sight sensor 22 (step S12). Next, the determination unit 14 determines the “seen product” based on each product area from the coordinates of the acquired line-of-sight data, and stores the determination result in the “seen product” column of the line-of-sight information DB 30 (step S14). ).

次に、判定部14は、商品の選択が完了したかを判定する(ステップS16)。商品の選択が完了するまで、ステップS12及びステップS14の処理が繰り返される。本実施形態では、図2に示すデジタルサイネージ20に表示された選択ボタン24が押下されたとき、判定部14は、商品の選択が完了したと判定し、ステップS18に進む。   Next, the determination part 14 determines whether selection of goods was completed (step S16). Until the selection of the product is completed, the processes of step S12 and step S14 are repeated. In the present embodiment, when the selection button 24 displayed on the digital signage 20 shown in FIG. 2 is pressed, the determination unit 14 determines that the selection of the product has been completed, and proceeds to step S18.

ステップS18では、算出部15は、商品選択に要する時間Tを3分割し、3分割した各経過時間において各商品を見た回数を算出する。商品選択に要する時間Tは、商品の選択を開始してから商品の選択を完了するまでの時間であり、カウントされている。商品選択に要する時間Tを3分割した次の3つの時間帯、開始(商品選択開始時刻)〜T/3の経過時間、T/3〜2T/3の経過時間、2T/3〜完了(商品選択完了時刻)の各経過時間における商品A〜Dの各商品を見た回数nの一例を図6に示す。商品選択に要する時間Tは、ユーザが商品の選択開始から選択完了までに要する合計時間であり、例えば単位は秒であってもよい。   In step S <b> 18, the calculation unit 15 divides the time T required for product selection into three, and calculates the number of times each product is viewed in each of the three elapsed times. The time T required for product selection is the time from the start of product selection to the completion of product selection, and is counted. The following three time zones that divide time T required for product selection into three: start (product selection start time) to T / 3 elapsed time, T / 3 to 2T / 3 elapsed time, 2T / 3 to completion (product FIG. 6 shows an example of the number of times n the products A to D are viewed at each elapsed time (selection completion time). The time T required for product selection is the total time required from the start of product selection to the completion of selection by the user. For example, the unit may be seconds.

図5に戻り、次に、算出部15は、各商品の見た回数nの増加量を算出する(ステップS20)。本実施形態では、各商品の見た回数nの増加量は、開始(商品選択開始時刻)〜T/3の経過時間内に商品を見た回数と比較した、2T/3〜完了(商品選択完了時刻)の経過時間内に商品を見た回数の増加量をいう。   Returning to FIG. 5, next, the calculation unit 15 calculates an increase amount of the number n of times each product is viewed (step S20). In this embodiment, the increase in the number of times n viewed for each product is 2T / 3 to completion (product selection) compared with the number of times the product was viewed within the elapsed time from start (product selection start time) to T / 3. The amount of increase in the number of times the product was viewed within the elapsed time.

具体的には、各商品の見た回数の増加量Dは、2T/3〜完了の経過時間に各商品を見た回数から開始〜T/3の経過時間に各商品を見た回数を減算することにより算出される。例えば、図6の例では、商品Aの見た回数の増加量Daは−3(=0−3)、商品Bの見た回数の増加量Dbは0(=1−1)、商品Cの見た回数の増加量Dcは1(=1−0)、商品Dの見た回数の増加量Ddは2(=2−0)と算出される。   Specifically, the increment D of the number of times each product is viewed is subtracted from the number of times each product is viewed in the elapsed time of T / 3 from the number of times that each product is viewed in the elapsed time of 2T / 3 to completion. It is calculated by doing. For example, in the example of FIG. 6, the increase amount Da of the number of times the product A is viewed is −3 (= 0-3), the increase amount Db of the number of times the product B is viewed is 0 (= 1−1), The increase Dc of the number of times of viewing is calculated as 1 (= 1-0), and the increase Dd of the number of times of viewing the product D is calculated as 2 (= 2-0).

図5に戻り、次に、特定部16は、商品の見た回数の増加量Dが閾値Sth以上であるかを判定する(ステップS22)。商品の見た回数の増加量Dが閾値Sthよりも小さいと判定された場合、特定部16は、対象とする商品は迷った商品ではないと判定し(ステップS24)、すべての商品が判定された場合(ステップS30)、本処理を終了する。一方、商品の見た回数の増加量が閾値Sth以上であると判定された場合、特定部16は、対象とする商品が迷った商品であると判定する(ステップS26)。図1(c)を参照すると、商品選択に要する時間Tを3分割した最後の時間帯は、選択イベントの直近の期間であり、商品の購買又は選択に迷っている時間である。よって、最初の時間帯に対して、最後の時間帯の商品の見た回数の増加量が多い程、迷った商品と推定できる。よって、商品の見た回数の増加量Dが閾値Sth以上であると判定された場合、本実施形態では、対象とする商品は迷った商品であると判定する。例えば、閾値以上の商品C及び商品Dが迷った商品であると判定される。 Returning to FIG. 5, next, the specifying unit 16 determines whether or not the increase D of the number of times the product has been viewed is equal to or greater than the threshold value Sth (step S22). When it is determined that the increase D in the number of times the product has been viewed is smaller than the threshold value S th , the specifying unit 16 determines that the target product is not a lost product (step S24), and all the products are determined. If so (step S30), the process ends. On the other hand, when it is determined that the increase in the number of times the product has been viewed is equal to or greater than the threshold value Sth , the specifying unit 16 determines that the target product is a lost product (step S26). Referring to FIG. 1C, the last time zone obtained by dividing the time T required for product selection into three is the most recent period of the selection event, and is the time when the purchase or selection of the product is lost. Therefore, it can be estimated that the product is lost as the increase in the number of times the product in the last time zone is viewed increases with respect to the first time zone. Therefore, when it is determined that the increase D in the number of times the product has been viewed is equal to or greater than the threshold value Sth , in the present embodiment, it is determined that the target product is a lost product. For example, it is determined that the product C and the product D that are equal to or higher than the threshold value are lost products.

図5に戻り、次に、出力部17は、ステップS26において特定された「迷った商品」を出力する(ステップS28)。次に、特定部16は、すべての商品について迷った商品か否かを判定したかを判定し(ステップS30)、すべての商品について迷った商品か否かを判定した場合、本処理を終了する。すべての商品について迷った商品か否かを判定していない場合、ステップS22に戻り、迷った商品か否かを判定していない商品がある間、ステップS22〜S30を繰り返し処理する。   Returning to FIG. 5, the output unit 17 then outputs the “stray product” identified in step S <b> 26 (step S <b> 28). Next, the identifying unit 16 determines whether it is determined whether or not all the products are a lost product (step S30), and if it is determined whether or not all the products are a lost product, the process ends. . If it is not determined whether or not all products are a lost product, the process returns to step S22, and while there are products that are not determined whether or not they are a lost product, steps S22 to S30 are repeatedly processed.

以上、第1実施形態に係る視線分析装置10によれば、ユーザが商品の選択開始から選択完了までに要する合計時間を例えばT秒間とし、T秒間に検出された視線データに基づいて迷った商品を推定する。   As described above, according to the line-of-sight analysis device 10 according to the first embodiment, the total time required for the user from the start of selection of the product to the completion of selection is, for example, T seconds, and the product is lost based on the line-of-sight data detected in T seconds. Is estimated.

ユーザは「迷った対象」を、選択完了(つまり、選択イベントを検出したとき)に近い時間に回数多く見る。よって、第1実施形態に係る視線分析処理では、各商品を見た回数の時間経過に対する増加量に基づいて、迷っている商品か否かを判定する。   The user views the “lost object” many times at a time close to completion of selection (that is, when a selection event is detected). Therefore, in the line-of-sight analysis process according to the first embodiment, it is determined whether or not the product is a lost product based on the increase in the number of times each product has been viewed over time.

例えば、図1(c)に示すように、第1実施形態に係る視線分析処理では、最初の経過時間はすべての商品を順に注視している期間であることと、最後に商品を選択したときに、その直近の経過期間はいくつかの商品で迷っている期間であることを利用して、選択を迷った商品を特定する。例えば、最後に商品Dを選択したときに、図1(d)に一例を示す、直近の期間と最初の期間の見た回数の増加量に基づき、商品C,Dを「迷った商品」と判定することができる。   For example, as shown in FIG. 1C, in the line-of-sight analysis process according to the first embodiment, the first elapsed time is a period in which all products are being watched in sequence, and the last product is selected. In addition, using the fact that the most recent elapsed period is a period in which some products are at a loss, a product for which selection has been lost is identified. For example, when the product D is finally selected, the products C and D are designated as “stray products” based on the increase in the number of times the last period and the first period are viewed, as shown in FIG. Can be determined.

<第2実施形態>
[視線分析処理]
次に、第2実施形態に係る視線分析処理の一例について図7を参照して説明する。図7は、第2実施形態に係る視線分析処理の一例を示したフローチャートである。第2実施形態では、迷いの判定基準となる閾値を可変にする点が、第1実施形態に係る視線分析処理と異なる。なお、図7の第2実施形態に係る視線分析処理において、図5の第1実施形態に係る視線分析処理と同一処理を行うステップには同一ステップ番号を付する。
Second Embodiment
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the second embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of a line-of-sight analysis process according to the second embodiment. The second embodiment is different from the line-of-sight analysis processing according to the first embodiment in that the threshold value serving as a determination criterion for hesitation is variable. In the line-of-sight analysis process according to the second embodiment in FIG. 7, the same step number is assigned to a step that performs the same process as the line-of-sight analysis process according to the first embodiment in FIG. 5.

本処理が開始されると、ステップS12〜S20が実行され、算出部15は、商品選択に要する時間Tに蓄積した視線データに基づいて各商品の見た回数の増加量を算出する。次に、算出部15は、デジタルサイネージ20に表示、又は陳列棚に配置された商品の個数に応じた閾値を決定する(ステップS32)。   When this process is started, steps S12 to S20 are executed, and the calculation unit 15 calculates the increase in the number of times each product is viewed based on the line-of-sight data accumulated during the time T required for the product selection. Next, the calculation part 15 determines the threshold value according to the number of the goods displayed on the digital signage 20 or arrange | positioned on the display shelf (step S32).

例えば、算出部15は、図8(a)に示す閾値テーブル31を参照して、商品の個数に応じた閾値を決定することができる。商品の選択肢が多い場合、商品同士の比較対象の組み合わせが増える。このため、商品の選択肢が少ない場合よりも相対的に各商品数を見る回数が増えるため、商品の迷い状態を判定するための閾値も大きくなる。図8(a)の例では、Sth2<Sth3<Sth4<Sth5となる。図7のステップS22の閾値Sthは、Sth2、Sth3、Sth4、Sth5のいずれかであり得る。 For example, the calculation unit 15 can determine a threshold according to the number of products with reference to the threshold table 31 illustrated in FIG. When there are many choices of goods, the combination of goods for comparison increases. For this reason, since the number of times of viewing each number of products is relatively increased as compared with the case where there are few product options, the threshold value for determining the lost state of the product is also increased. In the example of FIG. 8A, S th2 <S th3 <S th4 <S th5 . The threshold value S th in step S22 in FIG. 7 can be any one of S th2 , S th3 , S th4 , and S th5 .

他の例としては、算出部15は、図8(b)に示すように、Sth=an+b(a,bは、事前に設定される係数)により定められる数式から、商品個数に応じた閾値を算出してもよい。 As another example, as shown in FIG. 8 (b), the calculation unit 15 uses a threshold value corresponding to the number of products from a formula defined by S th = an + b (a and b are coefficients set in advance). May be calculated.

図7に戻り、特定部16は、商品を見た回数の増加量が、決定した閾値Sth以上であるかを判定する(ステップS22)。商品の見た回数の増加量が閾値Sthよりも小さいと判定された場合、特定部16は、対象とする商品は迷った商品ではないと判定する(ステップS24)。一方、商品の見た回数の増加量が閾値Sth以上であると判定された場合、特定部16は、対象とする商品は迷った商品であると判定する(ステップS26)。 Returning to FIG. 7, the specifying unit 16 determines whether the increase in the number of times the product has been viewed is equal to or greater than the determined threshold value S th (step S <b > 22). When it is determined that the increase in the number of times the product has been viewed is smaller than the threshold value S th , the specifying unit 16 determines that the target product is not a lost product (step S24). On the other hand, when it is determined that the increase in the number of times the product has been viewed is equal to or greater than the threshold value Sth , the specifying unit 16 determines that the target product is a lost product (step S26).

商品の選択肢が多い場合、商品同士の比較対象の組み合わせが増えるため、選択肢が少ない場合よりも相対的に各商品数を見る回数が増える。そこで、第2実施形態に係る視線分析装置10では、商品の数に応じて、迷っている商品を判定するための閾値を可変に設定する。これにより、視線データに基づき、ユーザが迷った商品を更に精度良く判定することができる。   When there are a lot of product choices, the number of combinations of products to be compared increases, so the number of times of viewing each product number is relatively greater than when there are few choices. Therefore, in the line-of-sight analysis apparatus 10 according to the second embodiment, a threshold for determining a lost product is variably set according to the number of products. Thereby, based on the line-of-sight data, it is possible to more accurately determine a product that the user has lost.

<第3実施形態>
[視線分析処理]
次に、第3実施形態に係る視線分析処理の一例について図9を参照して説明する。図9は、第3実施形態に係る視線分析処理の一例を示したフローチャートである。
<Third Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the third embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of a line-of-sight analysis process according to the third embodiment.

ユーザによっては、商品の選択完了直前の時間帯には、購入を決めた商品を手に取る、選択ボタン24を押すなどの作業に伴い、購入を決定した商品だけを見る、という視線の送り方をする場合があり得る。この場合、迷ったが購入しなかった商品を迷った商品として正しく判定できない可能性がある。   Depending on the user, in the time zone immediately before the selection of the product, the method of sending a line of sight that only the product that has been decided to be purchased is seen in response to the operation such as picking up the product that has been decided to purchase or pressing the selection button 24 It is possible that In this case, there is a possibility that a product that is lost but has not been purchased cannot be correctly determined as a lost product.

例えば、購入を決めた商品がDであった場合、商品C,Dで迷って見ていたうちの商品Cの視線データが、選択完了直前には収集されず、商品Cを迷った商品として正しく判定できない場合である。   For example, if the product decided to be purchased is D, the line-of-sight data of the product C that was wondering about the products C and D is not collected immediately before the selection is completed, and the product C is correctly regarded as a lost product. This is a case where it cannot be determined.

以上から、第3実施形態では、商品の選択開始から経過時間毎に見た回数に、時間経過の重みを考慮して積算することで、「選択完了直前にはあまり見なかったが、迷った商品」を判定できるようにする。なお、図9の第3実施形態に係る視線分析処理において、図5の第1実施形態に係る視線分析処理と同一処理を行うステップには同一ステップ番号を付する。   From the above, in the third embodiment, by adding the number of times seen every elapsed time from the start of the selection of the goods in consideration of the weight of time passage, "Product" can be determined. Note that, in the line-of-sight analysis process according to the third embodiment in FIG. 9, steps that perform the same process as the line-of-sight analysis process according to the first embodiment in FIG.

本処理が開始されると、ステップS12〜S16が実行され、視線データが蓄積される。次に、算出部15は、商品選択に要する時間Tを3分割し、3分割された各経過時間に対応する重みを、各商品を見た回数pに乗じた値を算出する(ステップS40)。例えば、図10には、各経過時間に対応する重み(重み係数α、β、γ)を、商品Aを見た回数nAに乗じた値pAが示されている。   When this process is started, steps S12 to S16 are executed, and line-of-sight data is accumulated. Next, the calculation unit 15 divides the time T required for product selection into three, and calculates a value obtained by multiplying the weight corresponding to each of the three elapsed times by the number p of times each product is viewed (step S40). . For example, FIG. 10 shows a value pA obtained by multiplying a weight n (the weighting coefficients α, β, γ) corresponding to each elapsed time by the number nA of times the product A is viewed.

重み係数α、β、γは、経過時間によって異なる。第1実施形態において商品Aを見た回数nが、経過時間(開始〜T/3)のときにnA1、経過時間(T/3〜2T/3)のときにnA2、経過時間(2T/3〜完了)のときにnA3と算出された場合、本実施形態では、実際に見た回数nに重み係数を乗算する。この結果、第3実施形態において商品Aを見た回数pは、経過時間(開始〜T/3)のときにpA1(=α×nA1)、経過時間(T/3〜2T/3)のときにpA2(=α×nA2)、経過時間(2T/3〜完了)のときにpA3(=α×nA3)と算出される。   The weighting factors α, β, and γ vary depending on the elapsed time. In the first embodiment, the number n of times when the product A is viewed is nA1 when the elapsed time (start to T / 3), nA2 when the elapsed time (T / 3 to 2T / 3), and the elapsed time (2T / 3). In the present embodiment, the number n actually viewed is multiplied by a weighting factor. As a result, in the third embodiment, the number of times p when the product A is viewed is pA1 (= α × nA1) at the elapsed time (start to T / 3) and at the elapsed time (T / 3 to 2T / 3). PA2 (= α × nA2) and pA3 (= α × nA3) at the elapsed time (2T / 3 to completion).

図9に戻り、次に、算出部15は、商品毎に見た回数の重み付け合計値pA〜pD(以下、「p合計値」ともいう。)を算出する(ステップS42)。例えば、商品Aのp合計値であるpAは、式(1)に示すように各経過時間において商品を見た回数に重みを乗算した値を加算して求められる。   Returning to FIG. 9, next, the calculation unit 15 calculates the weighted total values pA to pD (hereinafter, also referred to as “p total value”) of the number of times viewed for each product (step S42). For example, pA, which is the p total value of the product A, is obtained by adding a value obtained by multiplying the number of times the product is viewed at each elapsed time by a weight as shown in Expression (1).

pA=pA1+pA2+pA3=α×nA1+βnA2+γnA3・・(1)
他の商品B〜Dについても、商品B〜Dのそれぞれのp合計値であるpB〜pDが、式(2)〜式(4)に示すようにして算出される。
pA = pA1 + pA2 + pA3 = α × nA1 + βnA2 + γnA3 (1)
For other products B to D, pB to pD, which are p total values of the products B to D, are calculated as shown in Equations (2) to (4).

pB=pB1+pB2+pB3=α×nB1+βnB2+γnB3・・(2)
pC=pC1+pC2+pC3=α×nC1+βnC2+γnC3・・(3)
pD=pD1+pD2+pD3=α×nD1+βnD2+γnD3・・(4)
複数の商品で買うことを迷っていた場合、その複数の商品を見る回数が増えるが、複数の商品から一つの商品を選択又は購入することを決めた後の商品選択完了直前は選択する商品だけに視線を向ける。本実施形態では、ユーザのこの視線の使い方を考慮して経過時間の重みα、β、γをα≦β≦γの大小関係を有する値に設定することで、時間経過の重みを加味して、「選択完了直前にはあまり見なかったが、迷った商品」を精度良く特定できる。
pB = pB1 + pB2 + pB3 = α × nB1 + βnB2 + γnB3 (2)
pC = pC1 + pC2 + pC3 = α × nC1 + βnC2 + γnC3 (3)
pD = pD1 + pD2 + pD3 = α × nD1 + βnD2 + γnD3 (4)
If you are wondering about buying multiple products, the number of times you see the multiple products will increase, but only select the product you want to select immediately before completing the product selection after deciding to select or purchase one product from multiple products Turn your gaze on. In the present embodiment, considering the usage of the user's line of sight, the elapsed time weights α, β, and γ are set to values having a magnitude relationship of α ≦ β ≦ γ, so that the time elapsed weight is added. It is possible to accurately identify “a product that was rarely seen just before completion of selection but was lost”.

次に、特定部16は、経過時間の重みを考慮した商品毎の見た回数のp合計値が、閾値Zth以上であるかを判定する(ステップS44)。商品毎のp合計値が閾値Zthよりも小さいと判定された場合、特定部16は、対象とする商品は迷った商品ではないと判定する(ステップS24)。一方、商品毎のp合計値が閾値Zth以上であると判定された場合、特定部16は、対象とする商品は迷った商品であると判定し(ステップS26)、迷った商品を出力する(ステップS28)。すべての商品を判定するまで、ステップS52、S24〜S30の処理を繰り返し、すべての商品を判定した後、本処理を終了する。 Next, the specifying unit 16 determines whether the p total value of the number of times viewed for each product considering the weight of elapsed time is equal to or greater than the threshold value Zth (step S44). When it is determined that the p total value for each product is smaller than the threshold value Zth , the specifying unit 16 determines that the target product is not a lost product (step S24). On the other hand, when it is determined that the p total value for each product is equal to or greater than the threshold value Zth , the specifying unit 16 determines that the target product is a lost product (step S26), and outputs the lost product. (Step S28). Until all the products are determined, the processes in steps S52 and S24 to S30 are repeated. After all the products are determined, this process is terminated.

以上、第3実施形態に係る視線分析装置10によれば、経過時間の重みα、β、γ(α≦β≦γ)を考慮した商品毎のp合計値に基づき、「迷った商品」か否かを特定する。これにより、例えば、商品C、Dで迷っていた場合、商品C,Dのうちの選択した商品だけでなく、迷ったが選択しなかった商品を、時間経過の重みを加味して、「選択完了直前にはあまり見なかったが、迷った商品」として精度良く特定できる。   As described above, according to the line-of-sight analysis apparatus 10 according to the third embodiment, based on the p total value for each product considering the weights α, β, and γ (α ≦ β ≦ γ) of the elapsed time, is the “lost product”? Specify whether or not. Thus, for example, when the product C or D is lost, the product selected in the product C or D but also the product that has been lost but not selected is added with the weight of time. Although it was rarely seen just before completion, it can be accurately identified as a “lost product”.

<第3実施形態の変形例>
[視線分析処理]
次に、第3実施形態の変形例に係る視線分析処理の一例について図11を参照して説明する。図11は、第3実施形態の変形例に係る視線分析処理の一例を示したフローチャートである。第3実施形態の変形例に係る視線分析処理では、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)の上位から所定数内に含まれる商品を迷った商品と特定する点が、閾値と比較して迷った商品と特定する第3実施形態に係る視線分析処理と異なる。なお、図11の第3実施形態の変形例に係る視線分析処理において、第3実施形態に係る視線分析処理と同一処理を行うステップには同一ステップ番号を付する。
<Modification of Third Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to a modification of the third embodiment will be described with reference to FIG. FIG. 11 is a flowchart illustrating an example of a line-of-sight analysis process according to a modification of the third embodiment. In the line-of-sight analysis processing according to the modified example of the third embodiment, the product included in the predetermined number from the top of the weighted total values pA to pD (p total value) of the number of times viewed for each product is identified as a lost product. However, it is different from the line-of-sight analysis processing according to the third embodiment, in which the product is identified as being lost as compared with the threshold value. Note that, in the line-of-sight analysis process according to the modification of the third embodiment in FIG. 11, steps that perform the same process as the line-of-sight analysis process according to the third embodiment are assigned the same step numbers.

本処理が開始されると、ステップS12〜S16、S40、S42が実行され、第3実施形態と同様に、算出部15は、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)を算出する(ステップS42)。   When this process is started, steps S12 to S16, S40, and S42 are executed, and, similarly to the third embodiment, the calculation unit 15 calculates the weighted total value pA to pD (p total value) for each product. ) Is calculated (step S42).

次に、算出部15は、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)をスコアとして、スコアが高い順に各商品を順位付ける(ステップS50)。次に、特定部16は、各商品を順位付けた結果に応じて、上位から所定順位内に含まれる商品か否かを判定する(ステップS52)。上位から所定順位内の商品でないと判定された場合、特定部16は、対象とする商品は迷った商品ではないと判定する(ステップS24)。一方、上位から所定順位内の商品であると判定された場合、特定部16は、対象とする商品は迷った商品であると判定し(ステップS26)、迷った商品を出力する(ステップS28)。すべての商品を判定するまで、ステップS52、S24〜S30の処理を繰り返し、すべての商品を判定した後、本処理を終了する。   Next, the calculation unit 15 uses the weighted total values pA to pD (p total value) of the number of times viewed for each product as a score, and ranks each product in descending order of score (step S50). Next, the specifying unit 16 determines whether the product is included in the predetermined order from the top in accordance with the result of ranking each product (step S52). When it is determined that the product is not within the predetermined order from the top, the specifying unit 16 determines that the target product is not a lost product (step S24). On the other hand, when it is determined that the product is within the predetermined order from the top, the specifying unit 16 determines that the target product is a lost product (step S26), and outputs the lost product (step S28). . Until all the products are determined, the processes in steps S52 and S24 to S30 are repeated. After all the products are determined, this process is terminated.

以上、第3実施形態の変形例に係る視線分析装置10によれば、第3実施形態と同様に、経過時間の重みを考慮した商品毎のp合計値をスコアとし、「迷った商品」か否かを特定する。これにより、時間経過の重みを加味して、「選択完了直前にはあまり見なかったが、迷った商品」を精度良く特定できる。   As described above, according to the line-of-sight analysis device 10 according to the modification of the third embodiment, as in the third embodiment, the p total value for each product considering the weight of the elapsed time is used as a score, and the “lost product” is determined. Specify whether or not. Thereby, taking into account the weight of the passage of time, it is possible to accurately specify “a product that has not been seen very much immediately before completion of selection but is lost”.

<第4実施形態>
[視線分析処理]
次に、第4実施形態に係る視線分析処理の一例について図12を参照して説明する。図12は、第4実施形態に係る視線分析処理の一例を示したフローチャートである。第4実施形態では、図9の第3実施形態に係る視線分析処理に加えて、P合計値からその商品の迷った度合いを示す迷い度を算出し、迷った商品の出力時に迷い度も併せて出力する点が、第3実施形態と異なる。なお、図12の第4実施形態の変形例に係る視線分析処理において、図9の第3実施形態に係る視線分析処理と同一処理を行うステップには同一ステップ番号を付する。
<Fourth embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the fourth embodiment will be described with reference to FIG. FIG. 12 is a flowchart illustrating an example of a line-of-sight analysis process according to the fourth embodiment. In the fourth embodiment, in addition to the line-of-sight analysis processing according to the third embodiment of FIG. 9, a degree of ambiguity indicating the degree of ambiguity of the product is calculated from the P total value, and the degree of ambiguity is also calculated when the confused product is output. Is different from the third embodiment. In the line-of-sight analysis process according to the modification of the fourth embodiment in FIG. 12, steps that perform the same process as the line-of-sight analysis process according to the third embodiment in FIG.

本処理が開始されると、ステップS12〜S16、S40、S42が実行され、第3実施形態と同様に、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)が算出される。次に、算出部15は、商品毎に見た回数の重み付け合計値pA〜pD(p合計値)が最大となる商品のp合計値を1とし、各商品の比率を迷い度として算出する(ステップS54)。   When this process is started, steps S12 to S16, S40, and S42 are executed, and the weighted total values pA to pD (p total values) of the number of times viewed for each product are calculated as in the third embodiment. . Next, the calculation unit 15 sets the p total value of the products having the largest weighted total value pA to pD (p total value) of the number of times viewed for each product as 1, and calculates the ratio of each product as the degree of ambiguity ( Step S54).

次に、ステップS244、S24〜S28の処理を実行し、特定部16は、対象とする商品が迷った商品であると判定した場合(ステップS26)、迷った商品を、その商品の迷い度とともに出力する(ステップS28)。次に、特定部16は、すべての商品について迷った商品か否かを判定した後(ステップS30)、本処理を終了する。   Next, when the processing of steps S244 and S24 to S28 is executed, and the specifying unit 16 determines that the target product is a lost product (step S26), the lost product is displayed together with the level of doubt of the product. Output (step S28). Next, the identifying unit 16 determines whether or not all the products are lost products (step S30), and then ends the process.

以上、第4実施形態に係る視線分析装置10によれば、迷った商品の迷い度を出力することができる。これにより、ユーザが迷った商品だけでなく、どの程度強く迷った商品であるかを提示できる。   As described above, according to the line-of-sight analysis apparatus 10 according to the fourth embodiment, it is possible to output the degree of hesitation of a lost product. Thereby, it is possible to present not only the product for which the user is lost, but also how strongly the product is lost.

なお、第4実施形態は、P合計値から算出した迷い度を、第3実施形態に替えて、第3実施形態の変形例に係る視線分析処理の図11のステップS28において、迷った商品とともに出力してもよい。   In the fourth embodiment, the degree of ambiguity calculated from the P total value is replaced with the confused product in step S28 of FIG. 11 of the line-of-sight analysis process according to the modification of the third embodiment, instead of the third embodiment. It may be output.

<第5実施形態>
[視線分析処理]
次に、第5実施形態に係る視線分析処理の一例について図13を参照して説明する。図13は、第5実施形態に係る視線分析処理の一例を示したフローチャートである。第1実施形態〜第4実施形態では、使用した選択に要する時間Tを3分割して、経過時間毎の見た商品の見た回数に基づき、迷った商品を特定した。
<Fifth Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the fifth embodiment will be described with reference to FIG. FIG. 13 is a flowchart illustrating an example of a line-of-sight analysis process according to the fifth embodiment. In the first to fourth embodiments, the time T required for selection used is divided into three, and the lost product is specified based on the number of times the product viewed for each elapsed time.

しかしながら、使用した選択に要する時間Tが不明な場合、経過時間毎の商品を見た回数が、最初に対象物である商品を確認している状態に対応するのか、商品の選択完了間近に迷っている状態に対応するのか区別できず、迷っている商品の特定を誤ることがある。   However, if the time T required for selection used is unknown, the number of times the product has been viewed for each elapsed time corresponds to the state in which the product that is the target is being checked first, or the product selection is about to be completed. It may not be possible to distinguish whether the product corresponds to the current state, and the wrong product may be specified incorrectly.

図14に示すように、商品の選択時、ユーザの視線は、複数の商品のそれぞれを確認する状態、複数の商品からいくつかの商品を絞り込む状態を経て、商品の選択完了間近の迷っている状態に移行する。そして、ユーザは、迷っている状態のときに少ない個数の商品を見て、最終的に商品を選択する。   As shown in FIG. 14, when selecting a product, the user's line of sight is in the process of confirming each of the plurality of products and narrowing down some products from the plurality of products, and is confused soon after the product selection is completed. Transition to the state. Then, the user sees a small number of products when he / she is at a loss and finally selects a product.

そこで、第5実施形態に係る視線分析処理では、経過時間の単位時間をsとし、経過時間s毎に商品を見た回数nを算出し、見た回数nが閾値以上に高い商品の数mを算出する。例えば、時刻(t−3)から時刻(t−2)までの単位時間s、時刻(t−2)から時刻(t−1)までの単位時間sというように、単位時間s毎に閾値以上見た商品の数mを算出し、mの減少量に基づき、迷った商品を判定する。   Therefore, in the line-of-sight analysis processing according to the fifth embodiment, the unit time of elapsed time is set as s, and the number n of products viewed for each elapsed time s is calculated, and the number m of products for which the viewed number n is higher than the threshold value m. Is calculated. For example, a unit time s from time (t-3) to time (t-2), a unit time s from time (t-2) to time (t-1), or more than the threshold for each unit time s. The number m of the viewed products is calculated, and the lost product is determined based on the decrease amount of m.

具体的には、図13において本処理が開始され、取得部13は、視線センサ22から視線データを取得する(ステップS12)。次に、判定部14は、取得した視線データから見た商品を判定し、判定結果を視線情報DB30の見た商品の欄に保存する(ステップS14)。次に、取得部13は、単位時間sが経過したかを判定する(ステップS60)。取得部13は、単位時間sが経過するまで、ステップS12、S14、S60の処理を繰り返す。   Specifically, this processing is started in FIG. 13, and the acquisition unit 13 acquires line-of-sight data from the line-of-sight sensor 22 (step S12). Next, the determination unit 14 determines the product viewed from the acquired line-of-sight data, and stores the determination result in the column of the product viewed in the line-of-sight information DB 30 (step S14). Next, the acquisition unit 13 determines whether the unit time s has elapsed (step S60). The acquisition unit 13 repeats the processes of steps S12, S14, and S60 until the unit time s has elapsed.

単位時間sが経過したと判定されると、算出部15は、単位時間s毎の商品を見た回数nを算出する(ステップS62)。例えば、図15に、時刻(t−4)、時刻(t−3)、・・・、時刻t、時刻(t+1)の時間経過に応じた単位時間s毎の商品A〜Iを見た回数n(nA〜nI)の算出結果の一例を示す。   When it is determined that the unit time s has elapsed, the calculation unit 15 calculates the number n of times the product is viewed for each unit time s (step S62). For example, in FIG. 15, the number of times products A to I are viewed per unit time s corresponding to the passage of time (t−4), time (t−3),..., Time t, and time (t + 1). An example of the calculation result of n (nA-nI) is shown.

図13に戻り、次に、算出部15は、単位時間sに商品を見た回数nが、単位時間s当たりの見た回数の閾値U(例えば、3回)以上の条件を満たす商品数mを算出する(ステップS64)。見た回数が閾値U以上の条件を満たす商品数mは、見た回数が所定数よりも多い商品の数を示す。以下では、時刻(t−2),(t−1),t…の時間経過に対応する単位時間s毎の商品数mをそれぞれ、m(t−2),m(t−1),m(t)…とする。今回算出した商品数m(=mold)がm(t−1)の場合、前回算出した商品数m(=mnew)はm(t−2)となる。 Returning to FIG. 13, the calculation unit 15 then counts the number m of products that satisfy the condition that the number n of products viewed in the unit time s is equal to or greater than the threshold U (for example, 3 times) of the number of products viewed per unit time s. Is calculated (step S64). The number of products m that satisfies the condition that the number of times of viewing satisfies the threshold U or more indicates the number of products that are viewed more than a predetermined number. In the following, the number of products m per unit time s corresponding to the passage of time (t-2), (t-1), t... Is m (t-2), m (t-1), m. (T) ... When the product number m (= m old ) calculated this time is m (t−1), the product number m (= m new ) calculated last time is m (t−2).

次に、算出部15は、今回と前回の商品数の差分(=mold−mnew)が、予め定められたm減少量の閾値Wth以下であるかを判定する(ステップS66)。今回と前回の商品数の差分が閾値Wthよりも大きいと判定された場合、特定部16は、商品に迷っていない状態であると判定し(ステップS68)、ステップS12の処理に戻る。 Next, the calculation unit 15 determines whether or not the difference between the number of products at this time and the previous time (= m old −m new ) is equal to or smaller than a predetermined threshold value W th for m decrease (step S66). When it is determined that the difference between the current and previous product numbers is larger than the threshold value W th , the specifying unit 16 determines that the product is not lost (step S68), and returns to the process of step S12.

図15に示す例では、時刻(t−4)に商品の選択を開始し、単位時間s毎に、各商品の見た回数nが算出される。図16(a)には、図15の例において、時間経過(t−4)、(t−3)、(t−2)、・・・を経過する単位時間s毎に算出された、見た回数nが閾値U以上の条件を満たす商品数m(t−4),m(t−3),m(t−2)、・・・が示される。この場合、商品数mの減少量(=mold−mnew)は、図16(b)に示す通り、3→2→2→0→1と推移する。 In the example illustrated in FIG. 15, the selection of a product is started at time (t−4), and the number n of times each product is viewed is calculated for each unit time s. In FIG. 16A, in the example of FIG. 15, the calculation is performed for each unit time s that elapses over time (t−4), (t−3), (t−2),. The number of products m (t−4), m (t−3), m (t−2),. In this case, the decrease amount (= m old −m new ) of the number of products m changes from 3 → 2 → 2 → 0 → 1 as shown in FIG.

商品数mの減少量の閾値Wthが「1」に設定されている場合、図13のステップS66において、商品数mの減少量が「1」より大きいと判定されている間、特定部16は、商品の選択に迷っていないと判定する。つまり、本実施形態では、図16(b)に示すように、商品数mの減少量が1より大きい場合、商品の選択に迷っていない状態(図14の商品の確認状態や商品の絞り込み情報)であると判定される。 When the threshold value W th for the reduction amount of the number of products m is set to “1”, the specifying unit 16 while the reduction amount of the number of products m is determined to be larger than “1” in step S66 of FIG. Determines that he is not at a loss in selecting a product. That is, in this embodiment, as shown in FIG. 16 (b), when the reduction amount of the number of products m is larger than 1, the product selection state (the product confirmation state and product narrowing information in FIG. 14) is not lost. ).

一方、ステップS66において、商品数mの減少量が「1」以下であると判定されると、特定部16は、商品を見た回数nが「1」であるかを判定する(ステップS70)。商品を見た回数nが「1」でないと判定された場合、特定部16は、迷った商品であると判定する(ステップS26)。出力部17は、迷ったと判定した商品を出力し(ステップS28)、本処理を終了する。   On the other hand, when it is determined in step S66 that the reduction amount of the number of products m is “1” or less, the specifying unit 16 determines whether the number n of times the product is viewed is “1” (step S70). . When it is determined that the number n of times the product is viewed is not “1”, the specifying unit 16 determines that the product is a lost product (step S26). The output unit 17 outputs the product determined to be lost (step S28), and ends this process.

一方、ステップS70において、商品を見た回数nが「1」であると判定された場合、その単位時間に見た商品は一つであるから、特定部16は、商品の選択が完了したと判定し(ステップS72)、本処理を終了する。   On the other hand, if it is determined in step S70 that the number of times the product is viewed n is “1”, there is only one product viewed in that unit time, and therefore the specifying unit 16 has completed the selection of the product. Determination is made (step S72), and this process is terminated.

本実施形態では、商品数mの減少量が2以上である場合、商品の選択に迷っていない状態(商品の確認状態や商品の絞り込み情報)であると判定される。この結果、図14の例では、時刻(t−3)から時刻(t−2)までの単位時間s及び時刻(t−2)から時刻(t−1)までの単位時間sは、商品の選択に迷っていない状態と判定される。これに対して、商品数mの減少量が2よりも小さい場合、商品の選択に迷っている状態又は商品の選択が完了した状態と判定される。この結果。図14の例では、時刻(t−1)から時刻tまでの単位時間sに見た商品が迷った商品と特定される。また、時刻(t+1)は商品の選択完了時刻と判定される。   In the present embodiment, when the amount of decrease in the number of products m is 2 or more, it is determined that the product is not confused about the product selection (the product confirmation state or the product refinement information). As a result, in the example of FIG. 14, the unit time s from time (t-3) to time (t-2) and the unit time s from time (t-2) to time (t-1) are It is determined that the selection is not at a loss. On the other hand, when the reduction amount of the number of products m is smaller than 2, it is determined that the product is in a lost state or the product is completely selected. As a result. In the example of FIG. 14, the product viewed in the unit time s from time (t−1) to time t is identified as a lost product. Also, the time (t + 1) is determined as the product selection completion time.

以上、第5実施形態に係る視線分析装置10によれば、単位時間S毎の視線の検知状況に基づいて、一の単位時間の視線の検知頻度又は検知回数と、直後の単位時間の視線の検知頻度又は検知回数との差分から商品の選択に迷っているか否かが判定され、迷っていると特定された商品が出力される。これにより、商品の選択開始から選択完了までに要する時間Tが不明の場合であっても、商品の選択完了間近の商品の迷い状態を推定することができる。   As described above, according to the line-of-sight analysis apparatus 10 according to the fifth embodiment, based on the line-of-sight detection status for each unit time S, the line-of-sight detection frequency or the number of detections of one unit time and the line-of-sight of the unit time immediately after It is determined whether or not the user is at a loss in selecting a product from the difference between the detection frequency or the number of detections, and the product specified as being lost is output. Thereby, even if it is a case where time T required from the start of selection of goods to completion of selection is unknown, it is possible to presume a lost state of goods near completion of selection of goods.

以上に説明したように、第1〜第5実施形態に係る視線分析装置10によれば、視線データに基づいてユーザが選択を迷った対象物を正しく特定することができる。迷った対象物には、購入した物及び購入しなかった物が含まれる。これにより、迷って購入しなかった場合についても迷った商品の情報を得ることができる。   As described above, according to the line-of-sight analysis device 10 according to the first to fifth embodiments, it is possible to correctly specify the target object that the user has lost selection based on the line-of-sight data. Lost objects include purchased items and unpurchased items. Thereby, it is possible to obtain information on a lost product even when the purchase is lost.

これにより、商品を販売する側では、迷った商品の情報に基づき、購買状況だけでなく非購買状況を踏まえた商品の販売促進を図ることができる。また、商品を製造する側では、迷った商品の情報に基づき、購買状況だけでなく非購買状況を踏まえた商品の開発を行うことができる。   As a result, on the side of selling the product, it is possible to promote the sale of the product based on not only the purchase status but also the non-purchase status based on the information on the lost product. In addition, on the product manufacturing side, based on the information on the lost product, it is possible to develop a product based not only on the purchase status but also on the non-purchase status.

<第6〜第8実施形態>
次に、第6〜第8実施形態に係る視線分析装置10の機能構成について説明した後、第6〜第8実施形態に係る視線分析処理の一例について説明する。図17は、第6〜第8実施形態に係る視線分析装置10の機能構成の一例を示す。
<Sixth to eighth embodiments>
Next, after describing the functional configuration of the line-of-sight analysis apparatus 10 according to the sixth to eighth embodiments, an example of the line-of-sight analysis processing according to the sixth to eighth embodiments will be described. FIG. 17 shows an example of a functional configuration of the visual line analyzer 10 according to the sixth to eighth embodiments.

[視線分析装置の機能構成]
図2の第1〜第5実施形態に係る視線分析装置と比較して、図17の第6〜第8実施形態に係る視線分析装置10では、抽出部18が追加されている。また、記憶部11に対象物配置DB33及び迷った対象DB34が追加されている。
[Functional structure of eye-gaze analyzer]
Compared with the line-of-sight analysis apparatus according to the first to fifth embodiments of FIG. 2, an extraction unit 18 is added in the line-of-sight analysis apparatus 10 according to the sixth to eighth embodiments of FIG. 17. In addition, the object placement DB 33 and the lost target DB 34 are added to the storage unit 11.

抽出部18は、閾値以上見た回数の商品から迷った対象の商品を抽出する。図18は、一実施形態に係る対象物配置DB33の一例を示す図である。例えば、図18の下側の対象物配置例に示すように、商品A〜Fが配置される場合、対象物配置DB33には、対象物、すなわち、商品A〜Fの配置(列、段)及び商品の左上座標及び右下座標が記憶されている。図19は、一実施形態に係る迷った対象DB34の一例を示す図である。迷った対象DB34には、顧客毎に顧客IDと、購入した商品と、迷った商品とが記憶されている。迷った商品には、抽出部18が抽出した迷った商品(以下、「迷った対象商品」ともいう。)が記憶される。迷った商品が0個の場合、迷った対象商品の候補がない、または、迷った対象商品の候補のうち、購入対象商品の前後に見た商品がないことを示す。迷った商品が1個の場合、迷った対象商品の候補のうち、または、迷った対象候補のうち購入対象商品の前又は後に見た商品があることを示す。迷った商品が2個の場合、迷った対象商品の候補のうち購入対象商品の前後のそれぞれに見た商品があることを示す。購入対象商品は、第1の対象物の一例である。   The extraction unit 18 extracts the target product that is lost from the products that have been viewed more than the threshold. FIG. 18 is a diagram illustrating an example of the object arrangement DB 33 according to an embodiment. For example, as shown in the object arrangement example on the lower side of FIG. 18, when the products A to F are arranged, the object arrangement DB 33 has the objects, that is, the arrangement of the products A to F (rows, columns). In addition, the upper left coordinates and lower right coordinates of the product are stored. FIG. 19 is a diagram illustrating an example of the lost target DB 34 according to an embodiment. In the lost target DB 34, a customer ID, a purchased product, and a lost product are stored for each customer. The lost product stores the lost product extracted by the extraction unit 18 (hereinafter, also referred to as “lost target product”). When the number of lost products is 0, it indicates that there is no candidate for the lost target product, or among the candidates for the lost target product, there is no product viewed before or after the purchase target product. When there is one lost product, it indicates that there is a product seen before or after the purchase target product among the lost target product candidates or among the lost target candidates. If there are two lost products, it indicates that there are products seen before and after the purchase target product among the candidates for the lost target product. The purchase target product is an example of a first target object.

なお、図18の対象物配置DB33は、第1〜第5実施形態に係る視線分析装置10において、視線データの座標から各商品領域に基づき見た商品(図3(c)参照)を判定する際にも使用され得る。   Note that the object arrangement DB 33 in FIG. 18 determines a product (see FIG. 3C) viewed based on each product area from the coordinates of the line-of-sight data in the line-of-sight analysis apparatus 10 according to the first to fifth embodiments. Can also be used.

<第6実施形態>
[視線分析処理]
次に、第6実施形態に係る視線分析処理の一例について図20及び図21を参照して説明する。図20は、第6実施形態に係る視線分析処理の一例を示したフローチャートである。図21は、第6実施形態に係る視線分析処理を説明する図である。
<Sixth Embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the sixth embodiment will be described with reference to FIGS. FIG. 20 is a flowchart illustrating an example of a line-of-sight analysis process according to the sixth embodiment. FIG. 21 is a diagram for explaining line-of-sight analysis processing according to the sixth embodiment.

本処理が開始されると、取得部13は、視線センサ22から視線データを取得する(ステップS12)。取得方法は、第1実施形態〜第5実施形態で説明した方法と同様である。   When this process is started, the acquisition unit 13 acquires line-of-sight data from the line-of-sight sensor 22 (step S12). The acquisition method is the same as the method described in the first to fifth embodiments.

次に、判定部14は、取得した視線データの座標から、各商品領域に基づき「見た商品」を判定し、判定結果を図3(c)に示す視線情報DB30の「見た商品」の欄に保存し、算出部15は、見た商品を対象商品として対象商品毎の見た回数を計測する(ステップS80)。ただし、見た回数に替えて、対象商品毎の見た合計時間を計測してもよい。視線データの座標から、各商品領域に基づき「見た商品」を判定する方法は、第1実施形態等で説明した方法と同様である。   Next, the determination unit 14 determines the “seen product” based on each product area from the coordinates of the acquired line-of-sight data, and the determination result is the “seen product” in the line-of-sight information DB 30 illustrated in FIG. The calculation unit 15 counts the number of times of viewing for each target product with the viewed product as the target product (step S80). However, instead of the number of times of viewing, the total time of viewing for each target product may be measured. The method of determining “seen product” based on each product region from the coordinates of the line-of-sight data is the same as the method described in the first embodiment.

対象商品の見た回数は、対象商品の所定時間毎の視線の検知回数の一例である。対象商品の見た合計時間又は各対象商品の見た時間の割合は、対象商品の所定時間毎の視線の検知頻度の一例である。   The number of times the target product is viewed is an example of the number of times that the target product detects the line of sight every predetermined time. The ratio of the total time viewed by the target products or the time viewed by each target product is an example of the line-of-sight detection frequency for each predetermined time of the target products.

なお、商品を「見た」又は「注視した」の定義は、同一エリア内(半径50mm)で連続して0.4秒以上視線データを計測したことを表してもよい。ただし、「見た」又は「注視した」の定義はこれに限らない。   Note that the definition of “see” or “gazed” at a product may indicate that line-of-sight data was measured continuously for 0.4 seconds or more within the same area (radius 50 mm). However, the definition of “seen” or “watched” is not limited to this.

次に、抽出部18は、購入対象商品を規定する(ステップS82)。例えば、ユーザが店舗に陳列されている商品を購入したときに、POSシステムに登録された商品をPOS情報から抽出し、該商品を購入対象商品にしてもよい。また、購入対象商品は、見た回数が最大の対象商品等を購入対象商品として規定してもよいし、購入ボタン(自販機、タッチサイネージ)の操作から購入対象商品を規定してもよい。   Next, the extraction unit 18 defines a purchase target product (step S82). For example, when a user purchases a product displayed in a store, the product registered in the POS system may be extracted from the POS information, and the product may be a purchase target product. In addition, as for the purchase target product, the target product or the like that has been viewed most often may be defined as the purchase target product, or the purchase target product may be defined from the operation of the purchase button (vending machine, touch signage).

次に、抽出部18は、購入対象商品を最後に見た時間Tbuyを設定する(ステップS84)。本実施形態では、図3(c)に示すように、来客が立ち寄って、購入する商品の選択開始から選択完了までに要する合計時間をTとする。たとえば、記録時間が図3(c)の下から2番目の「20160728-134026-659」の単位時間に購入対象商品を最後に見た場合、「20160728-134026-659」の時間をTbuyで示す。また、その直前の単位時間、すなわち、「20160728-134026-527」の時間を(Tbuy−1)で示し、その直後の単位時間、すなわち、「20160728-134026-790」の時間帯を(Tbuy+1)で示す。 Next, the extraction unit 18 sets a time T buy when the purchase target product is last viewed (step S84). In the present embodiment, as shown in FIG. 3C, T is the total time required from the start of the selection of the product to be purchased to the completion of the selection by the visitor. For example, when the last purchase item is viewed in the unit time of “20160728-134026-659”, which is the second from the bottom of FIG. 3C, the time of “20160728-134026-659” is T buy . Show. Further, the unit time immediately before that, that is, the time of “20160728-134026-527” is indicated by (T buy −1), and the unit time immediately after that, that is, the time zone of “20160728-134026-790” is represented by (T buy +1).

図20に戻り、次に、抽出部18は、変数nに1を設定する(ステップS86)。変数nは、1〜N(N≧1)の整数を取る。Nは、合計時間Tの間に見た商品である対象商品の数である。   Returning to FIG. 20, next, the extraction unit 18 sets 1 to the variable n (step S86). The variable n takes an integer from 1 to N (N ≧ 1). N is the number of target products that are products viewed during the total time T.

次に、抽出部18は、対象商品(n)を見た回数が閾値以上であるかを判定する(ステップS88)。抽出部18は、対象商品(n)を見た回数が閾値よりも少ないと判定した場合、特定部16は、対象商品(n)は迷った対象商品ではないと判定し(ステップS90)、変数nに1を加算して(ステップS98)、ステップS100に進む。ステップS100において、特定部16は、変数nが対象商品の数N以下と判定した場合、ステップS88に戻り、ステップS88以降の処理を繰り返す。   Next, the extraction part 18 determines whether the frequency | count of seeing object goods (n) is more than a threshold value (step S88). When the extraction unit 18 determines that the number of times of viewing the target product (n) is less than the threshold, the specifying unit 16 determines that the target product (n) is not a lost target product (step S90), and a variable 1 is added to n (step S98), and the process proceeds to step S100. In step S100, when the determining unit 16 determines that the variable n is equal to or less than the number N of the target products, the specifying unit 16 returns to step S88 and repeats the processing after step S88.

一方、ステップS88において、抽出部18は、対象商品(n)を見た回数が閾値以上であると判定した場合、対象商品(n)は迷った対象商品の候補であると判定し、対象商品(n)を迷った対象候補の商品に設定する(ステップS92)。次に、特定部16は、購入対象商品を最後に見た時間Tbuyの直前の時間(Tbuy−1)又は購入対象商品を最後に見た時間Tbuyの直後の時間(Tbuy+1)に対象商品(n)を見たかを判定する(ステップS94)。 On the other hand, if the extraction unit 18 determines in step S88 that the number of times the target product (n) has been viewed is equal to or greater than the threshold value, the extraction unit 18 determines that the target product (n) is a candidate for the lost target product, and the target product. (N) is set as the target candidate product that has been lost (step S92). Then, the specifying unit 16, the purchase time saw target item to the end T buy just before the time (T buy -1) or purchased Last Viewed time the goods T buy immediately after the time (T buy +1) It is determined whether or not the target product (n) has been viewed (step S94).

特定部16は、購入対象商品を最後に見た時間Tbuyの直前の時間(Tbuy−1)又は購入対象商品を最後に見た時間Tbuyの直後の時間(Tbuy+1)に対象商品(n)を見ていないと判定すると、対象商品(n)は迷った対象商品ではないと判定する(ステップS90)。次に、特定部16は、変数nに1を加算して(ステップS98)、ステップS100に進み、変数nが対象商品の数N以下と判定した場合、ステップS88に戻り、ステップS88以降の処理を繰り返す。 The specifying unit 16 applies the target product at a time immediately before the time T buy when the last purchase target product is viewed (T buy -1) or a time immediately after the time T buy when the last purchase target product is viewed (T buy +1). If it is determined that (n) is not viewed, it is determined that the target product (n) is not a lost target product (step S90). Next, the specifying unit 16 adds 1 to the variable n (step S98), and proceeds to step S100. When the variable n is determined to be equal to or less than the number N of target products, the process returns to step S88, and the processing after step S88 is performed. repeat.

ステップS94において、抽出部18は、購入対象商品を最後に見た時間Tbuyの直前の時間(Tbuy−1)又は時間Tbuyの直後の時間(Tbuy+1)に対象商品(n)を見たと判定すると、対象商品(n)を、図19の迷った対象DB34の迷った商品に設定する(ステップS96)。次に、抽出部18は、変数nに1を加算して(ステップS98)、ステップS100に進み、変数nが対象商品の数N以下と判定した場合、ステップS88に戻り、ステップS88以降の処理を繰り返す。 In step S94, the extraction unit 18, purchased items last seen time T buy just before the time of the (T buy -1) or time T of the time immediately after the buy (T buy +1) in Shipping (n) If it is determined that the product has been viewed, the target product (n) is set to the lost product in the lost target DB 34 in FIG. 19 (step S96). Next, the extraction unit 18 adds 1 to the variable n (step S98), and proceeds to step S100. If the variable n is determined to be equal to or less than the number N of the target products, the extraction unit 18 returns to step S88, and the processing after step S88. repeat.

ステップS100において、抽出部18が、変数nが対象商品の数Nよりも大きいと判定した場合、出力部17は、迷った対象商品を推定結果として出力し(ステップS102)、本処理を終了する。   In step S100, when the extraction unit 18 determines that the variable n is larger than the number N of target products, the output unit 17 outputs the lost target product as an estimation result (step S102), and ends this process. .

以上、第6実施形態に係る視線分析処理では、複数の対象商品についての視線の検知状況に基づいて、前記複数の対象商品についての所定時間毎の検知回数が相対的に多い対象商品を、迷った対象商品の候補として抽出する。本実施形態では、所定時間毎の検知回数が相対的に多い対象商品として、見た回数が閾値以上の商品を抽出する。ただし、これに限らず、前記複数の対象商品についての所定時間毎の視線の検知頻度又は視線の合計時間が相対的に多い対象商品を、迷った対象商品の候補として抽出してもよい。   As described above, in the line-of-sight analysis processing according to the sixth embodiment, based on the line-of-sight detection status for a plurality of target products, the target product with a relatively large number of detections per predetermined time for the plurality of target products is lost. As a candidate for the target product. In the present embodiment, as the target product having a relatively large number of detections per predetermined time, a product whose number of times of viewing is equal to or greater than a threshold is extracted. However, the present invention is not limited to this, and target products with a relatively large line-of-sight detection frequency or total line-of-sight time for each of the plurality of target products may be extracted as lost target product candidates.

本実施形態では、まず、複数の対象商品のうちの購入対象商品又は後述する購入対象予測商品に対する選択イベント(POS情報又は購入ボタンの押下等から検知)又は選択予測イベント(見た回数が最大の対象商品等から検知)を検出する。そして、選択イベント又は選択予測イベントを検出した時間の前又は後の少なくともいずれかの時間における迷った対象商品の候補に対する視線の検知状況に基づいて、該対象商品の候補のうちから少なくとも一つの対象商品を特定する。そして、特定した対象商品の情報を迷った商品として出力する。   In the present embodiment, first, a selection event (detected from pressing of POS information or a purchase button or the like) or a selection prediction event (the number of times seen is the maximum) for a purchase target product or a purchase target prediction product described later among a plurality of target products. Detect from the target product). And at least one target among the candidates for the target product based on the detection status of the line of sight with respect to the candidate for the target product lost at least one time before or after the time when the selection event or the selection prediction event is detected Identify the product. Then, the information on the identified target product is output as a lost product.

購入対象商品の前後に見たかどうかだけでは、購入直前に偶然見た商品を誤判定する場合がある。このため、本実施形態では、まず、対象商品を見た回数が多いものを迷った対象商品の候補として抽出する。つまり、閾値以上見た商品を、ユーザが関心を持った商品であるとし、迷った対象商品の候補とする。迷った対象商品の候補の抽出方式は、閾値以上見た商品を抽出してもよいし、見た回数が多い上位所定個の商品を抽出してもよい。   There is a case where a product accidentally seen just before the purchase is erroneously determined based on whether the product is viewed before or after the purchase target product. For this reason, in the present embodiment, first, a candidate with a large number of times of viewing the target product is extracted as a candidate for the target product. That is, the product viewed over the threshold is determined to be a product that the user is interested in, and is a candidate for the lost target product. As a method for extracting a candidate for a target product that has been lost, a product that has been viewed above a threshold value may be extracted, or a predetermined upper number of products that have been viewed many times may be extracted.

そして、迷った対象商品の候補が、購入対象商品ではなく、かつ購入対象商品を選んだ時間の直前又は直後の時間に見られているかによって、迷った商品の絞り込みを行う。つまり、迷った対象商品の候補が、購入対象商品を選んだ時間の直前又は直後の時間に見られた場合に「迷った商品」と特定する。   Then, the lost products are narrowed down depending on whether the candidate for the lost target product is not the purchase target product and is seen immediately before or after the time when the purchase target product is selected. That is, when a candidate for a lost target product is seen at a time immediately before or immediately after a time when a purchase target product is selected, it is specified as a “lost product”.

つまり、ユーザは「迷った商品」を選択(購入)完了間際に、「購入対象商品」と見比べる。複数の対象商品から購入対象商品を決定するとき、ユーザの上記動作によれば、徐々に購入対象商品の候補を絞り込んでいく。購入対象商品の候補は、迷った商品の候補でもあり、最後に購入した対象商品と迷った対象商品とを見比べる見方に起因して、迷った商品を抽出することで、買うことを「迷った商品」をより正しく推定することができる。   In other words, the user compares the “lost product” with the “purchase target product” immediately after the selection (purchase) is completed. When a purchase target product is determined from a plurality of target products, according to the above-described operation of the user, the purchase target product candidates are gradually narrowed down. The candidate for the purchase target product is also a candidate for the lost product. By extracting the lost product due to the way of comparing the last purchased target product with the lost target product, The product "can be estimated more correctly.

例えば、図21の例では、迷った対象商品の候補として商品B、Dが抽出される。そのうち、購入対象商品Cを選んだ時間の直前又は直後の時間に見られた商品Bは迷った商品に設定され、購入対象商品を選んだ時間の直前又は直後の時間に見られなかった商品Dは、迷った商品には設定されない。これにより、ユーザが対象商品を見る視線データに基づいて、購入には至らなかったが、買うことを「迷った商品」をより正しく推定することができる。これにより、ユーザが購入対象商品の次に興味を持っていた対象商品の判定精度をより向上させることができる。   For example, in the example of FIG. 21, the products B and D are extracted as candidates for the lost target product. Of these, the product B found at the time immediately before or immediately after the time when the purchase target product C is selected is set as a lost product, and the product D that is not seen at the time immediately before or immediately after the time when the purchase target product is selected. Is not set for lost products. Thereby, based on the line-of-sight data in which the user looks at the target product, it is possible to more accurately estimate the “lost product” that has not been purchased but has been purchased. Thereby, the determination accuracy of the target product that the user is interested in next to the purchase target product can be further improved.

本実施形態では、購入対象商品を選んだ時間の直前又は直後(購入対象商品を選んだ時間の直前及び直後を(前後±1)とも記載する。)に迷った対象商品の候補がユーザにより見られたかを判定した。しかしながら、これに限らず、購入対象商品を選んだ時間の前後の少なくともいずれかに迷った対象商品の候補が見られたかを判定してもよい。   In the present embodiment, the user sees a candidate for the target product that is lost immediately before or immediately after the time when the purchase target product is selected (before and after the time when the purchase target product is selected is also described as (before and after ± 1)). I was judged. However, the present invention is not limited to this, and it may be determined whether or not a candidate for the target product is found at least before or after the time when the target product is selected.

例えば、購入対象商品を選んだ時間の(前後±2)の範囲で迷った対象商品の候補がユーザにより見られたかを判定してもよいし、購入対象商品を選んだ時間の(前後±3)の範囲で迷った対象商品の候補が見られたかを判定してもよい。また、見た対象商品数Nに応じてよって、購入対象商品を選んだ時間の前後を可変にしてもよい。例えば、商品数が少なければ購入対象商品を選んだ時間の前後±1に限って迷った対象商品の候補が見られたかを判定し、商品数が多ければ購入対象商品を選んだ時間の前後±2又は前後±3の範囲で迷った対象商品の候補が見られたかを判定してもよい。   For example, it may be determined whether the user has seen a candidate for the target product that is lost within the range of the time when the purchase target product is selected (before and after ± 2), or the time when the purchase target product is selected (before and after ± 3 ), It may be determined whether a candidate for the target product is lost. Further, the time before and after the time when the purchase target product is selected may be varied according to the number N of target product viewed. For example, if the number of products is small, it is determined whether or not the candidate for the target product is lost only before and after the time when the purchase target product is selected. If the number of products is large, before and after the time when the purchase target product is selected. It may be determined whether a candidate for the target product that is lost in the range of 2 or ± 3 is seen.

また、図20のステップS88にて使用する閾値は、図22(a)及び図22(b)に一例を示すように、対象商品(見た商品)の数Nの個数に応じて変えてもよい。図22(a)の例では、商品個数が2〜5のときの閾値Sth2〜Sth5を異なる値に設定している。このとき、商品個数が少ない程、閾値は高くなり、Sth2>Sth3>Sth4>Sth5となる。 Further, the threshold value used in step S88 of FIG. 20 may be changed according to the number N of the target products (the products seen) as shown in FIG. 22 (a) and FIG. 22 (b). Good. In the example of FIG. 22A, the thresholds S th2 to S th5 when the number of products is 2 to 5 are set to different values. At this time, the smaller the number of products, the higher the threshold, and S th2 > S th3 > S th4 > S th5 .

図22(b)の例では、商品を購入するまでに要した時間Tに応じて、閾値SthがSth=aT+bの式から設定される。このとき、a、bは事前に設定される係数である。ただし、閾値Sthを求める式は一時直線に限らない。なお、図22の例では、閾値は回数で示されるが、商品の見た回数に替えて、商品の見た合計時間を計測した場合には、閾値は見た時間又は見た頻度で示されてもよい。 In the example of FIG. 22B, the threshold value S th is set from the formula S th = aT + b according to the time T required until the product is purchased. At this time, a and b are coefficients set in advance. However, the formula for obtaining the threshold value S th is not limited to a temporary straight line. In the example of FIG. 22, the threshold value is indicated by the number of times. However, when the total time the product is viewed is measured instead of the number of times the product is viewed, the threshold value is indicated by the time or frequency of viewing. May be.

なお、nが購入対象商品を示す値に設定された場合、ステップS88〜S96の処理をスキップしてもよい。   When n is set to a value indicating the purchase target product, the processing in steps S88 to S96 may be skipped.

<第7実施形態>
[視線分析処理]
次に、第7実施形態に係る視線分析処理の一例について図23及び図24を参照して説明する。図23は、第7実施形態に係る視線分析処理の一例を示したフローチャートである。図24は、第7実施形態に係る視線分析処理を説明する図である。
<Seventh embodiment>
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the seventh embodiment will be described with reference to FIGS. FIG. 23 is a flowchart illustrating an example of a line-of-sight analysis process according to the seventh embodiment. FIG. 24 is a diagram for explaining line-of-sight analysis processing according to the seventh embodiment.

第6実施形態では、例えば、実際に商品を購入したときを選択イベントの検出時とし、迷った商品の判定処理(図20のステップS88〜S100)の開始のトリガとした。   In the sixth embodiment, for example, the time when the product is actually purchased is set as the detection time of the selection event, and the start of the lost product determination process (steps S88 to S100 in FIG. 20).

これに対して、第7実施形態に係る視線分析処理では、複数の対象商品のいずれかの単位時間毎の視線の検知回数が第1の判定開始閾値以上となったとき、実際に商品を購入していない場合であっても、視線の検知回数が第1の判定開始閾値以上となった当該商品を購入対象商品と予測する。予測した購入対象商品は、購入対象予測商品ともいう。そして、複数の対象商品のいずれかの単位時間毎の視線の検知回数が第1の判定開始閾値以上となったときを選択予測イベントの検出時とし、迷った商品の判定処理の開始のトリガとする。以下の説明では、第6実施形態と異なる点を説明する。   In contrast, in the line-of-sight analysis processing according to the seventh embodiment, when the number of line-of-sight detections per unit time of a plurality of target products becomes equal to or greater than the first determination start threshold, the product is actually purchased. Even if not, the product for which the number of line-of-sight detection is equal to or greater than the first determination start threshold is predicted as a purchase target product. The predicted purchase target product is also referred to as a purchase target prediction product. And when the selection prediction event is detected when the number of line-of-sight detections per unit time of a plurality of target products is equal to or greater than the first determination start threshold, To do. In the following description, differences from the sixth embodiment will be described.

本処理が開始されると、取得部13は、ステップS12の処理を実行し、判定部14は、取得した視線データの座標から、各商品領域に基づき「見た商品」を判定し、算出部15は、対象商品毎の見た回数を計測する(ステップS80)。   When this process is started, the acquisition unit 13 executes the process of step S12, and the determination unit 14 determines “seen product” based on each product region from the coordinates of the acquired line-of-sight data, and the calculation unit 15 measures the number of times of viewing for each target product (step S80).

次に、判定部14は、対象商品のうち、見た回数の最大値が第1の判定開始閾値以上であるか否かを判定する(ステップS110)。図24に、第1の判定開始閾値の一例を示す。図24の例では、第1の判定開始閾値は、迷った商品の候補を抽出するための閾値よりも大きい値を持つ。判定部14は、対象商品のうち、見た回数の最大値が第1の判定開始閾値以上の商品がないと判定すると、ステップS80、S110を繰り返す。判定部14は、見た回数の最大値が第1の判定開始閾値以上であると判定すると、ステップS112に進む。なお、ステップS110において、見た回数の最大値が第1の判定開始閾値以上であると判定したときは、選択予測イベントが検出されたときの一例である。   Next, the determination part 14 determines whether the maximum value of the frequency | count of seeing among target goods is more than a 1st determination start threshold value (step S110). FIG. 24 shows an example of the first determination start threshold. In the example of FIG. 24, the first determination start threshold has a value larger than the threshold for extracting a candidate for a lost product. If it determines with the determination part 14 not having the goods whose maximum value of the frequency | count of seeing is more than a 1st determination start threshold value among object goods, it will repeat step S80 and S110. If the determination unit 14 determines that the maximum value of the number of times of viewing is greater than or equal to the first determination start threshold, the process proceeds to step S112. In step S110, when it is determined that the maximum value of the number of times of viewing is greater than or equal to the first determination start threshold, this is an example when a selection prediction event is detected.

ステップS112では、特定部16は、見た回数の最大値が第1の判定開始閾値以上の商品を最も購入される可能性が高い商品(購入対象予測商品)に設定し、ステップS84に進む。   In step S112, the specifying unit 16 sets a product having a maximum value of the number of times of viewing as a product most likely to be purchased (predicted product to be purchased) having the first determination start threshold value or more, and proceeds to step S84.

ステップS84〜S102の処理は、第6実施形態の同一番号のステップの処理と同一であるため、説明を省略する。   Since the processes of steps S84 to S102 are the same as the processes of the steps with the same numbers in the sixth embodiment, the description thereof is omitted.

本処理の結果、図24の例では商品Cが購入対象予測商品に設定される。そして、迷った商品の候補である商品B及び商品Fのうち、選択予測イベントが検出されたときの時間の直前又は直後の少なくともいずれかの時間に見た商品が迷った商品として特定される。   As a result of this processing, the product C is set as the purchase target predicted product in the example of FIG. Then, among the products B and F that are candidates for the lost product, the product viewed at least one time immediately before or immediately after the time when the selection prediction event is detected is identified as the lost product.

これによれば、見た回数が最大の商品を購入対象予測商品に設定する。購入対象予測商品は、第1の対象物の一例である。つまり、購入対象予測商品は、購入意識が最も高い商品として購入対象商品と同等に扱うことで、視線データの計測中にリアルタイムに迷った商品を特定することができる。これにより、特定した迷った商品に関する情報を、商品購入前のタイミングでユーザにレコメンドすることができる。   According to this, the product with the largest number of times of viewing is set as the purchase target prediction product. The purchase target prediction product is an example of a first target object. That is, the purchase target prediction product can be identified as a product with the highest purchase awareness in the same manner as the purchase target product, so that a product lost in real time during the measurement of the line-of-sight data can be specified. Thereby, the information regarding the specified lost product can be recommended to the user at the timing before the product purchase.

なお、複数の対象商品のいずれかの単位時間毎の視線の検知回数が第1の判定開始閾値以上となったときに替えて、複数の対象商品のいずれかの単位時間毎の視線の検知頻度が第1の判定開始閾値に替わる閾値以上となったとき又は単位時間毎の視線の合計時間が第1の判定開始閾値に替わる閾値以上となったときを、選択予測イベントの検出時としてもよい。   In addition, instead of when the number of line-of-sight detections per unit time of a plurality of target products is equal to or greater than the first determination start threshold, the line-of-sight detection frequency for any unit time of the plurality of target products May be the time when the selected prediction event is detected, when the threshold value for the first determination start threshold value is exceeded or when the total line-of-sight time per unit time becomes equal to or more than the threshold value for the first determination start threshold value. .

[視線分析処理]
次に、第8実施形態に係る視線分析処理の一例について図25及び図26を参照して説明する。図25は、第8実施形態に係る視線分析処理の一例を示したフローチャートである。図26は、第8実施形態に係る視線分析処理を説明する図である。
[Gaze analysis processing]
Next, an example of a line-of-sight analysis process according to the eighth embodiment will be described with reference to FIGS. FIG. 25 is a flowchart illustrating an example of a line-of-sight analysis process according to the eighth embodiment. FIG. 26 is a diagram for explaining line-of-sight analysis processing according to the eighth embodiment.

第7実施形態に係る視線分析処理では、複数の対象商品のいずれかの単位時間毎の視線の検知回数が第1の判定開始閾値以上となったとき、実際に商品を購入していない場合であっても、視線の検知回数が第1の判定開始閾値以上となった当該商品を購入対象予測商品に設定した。そして、このときを選択予測イベントの検出時とし、迷った商品の判定処理の開始のトリガとした。   In the line-of-sight analysis processing according to the seventh embodiment, when the number of line-of-sight detections per unit time of a plurality of target products is equal to or greater than the first determination start threshold, the product is not actually purchased. Even if it exists, the said goods in which the frequency | count of eyes | visual_axis detection became more than the 1st determination start threshold value were set to purchase object prediction goods. And this time was set as the time of the detection of a selection prediction event, and it was set as the trigger of the start of the determination process of the lost goods.

これに対して、第8実施形態では、複数の対象商品のうち、単位時間毎の視線の検知回数が所定回数以上の対象商品の数(本実施形態では所定回数は0、すなわち、見た回数が計測された対象商品の数)が第2の判定開始閾値以下となったときを選択予測イベントの検出時とし、迷った商品の判定処理の開始のトリガとする。以下の説明では、第7実施形態と異なる点を説明する。   On the other hand, in the eighth embodiment, among a plurality of target products, the number of target products whose line-of-sight detection count per unit time is equal to or greater than a predetermined number (in this embodiment, the predetermined number is 0, that is, the number of times of viewing Is the time when the selection prediction event is detected, and is a trigger for starting the determination process of the lost product. In the following description, differences from the seventh embodiment will be described.

本処理が開始されると、取得部13は、ステップS12の処理を実行し、判定部14は、取得した視線データの座標から、各商品領域に基づき「見た商品」を判定し、算出部15は、対象商品毎の見た回数を計測する(ステップS80)。   When this process is started, the acquisition unit 13 executes the process of step S12, and the determination unit 14 determines “seen product” based on each product region from the coordinates of the acquired line-of-sight data, and the calculation unit 15 measures the number of times of viewing for each target product (step S80).

次に、判定部14は、対象商品のうち、見た回数が計測された対象商品の数が第2の判定開始閾値以下であるか否かを判定する(ステップS120)。図26(a)に、第2の判定開始閾値の一例を示す。   Next, the determination unit 14 determines whether or not the number of target products for which the number of times of viewing has been measured among the target products is equal to or less than a second determination start threshold (step S120). FIG. 26A shows an example of the second determination start threshold.

判定部14は、対象商品の見た回数が計測された対象商品の数が第2の判定開始閾値よりも大きいと判定する間、ステップS80、S120を繰り返す。一方、判定部14は、対象商品の見た回数が計測された対象商品の数が第2の判定開始閾値以下であると判定すると、ステップS122に進む。なお、ステップS120において、対象商品の見た回数が計測された対象商品の数が第2の判定開始閾値以下のときは、選択予測イベントが検出されたときの一例である。また、図26(b)に、単位時間T1〜T5の一例を示す。   The determination unit 14 repeats Steps S80 and S120 while determining that the number of target products for which the number of times the target product has been viewed is measured is greater than the second determination start threshold. On the other hand, when the determination unit 14 determines that the number of target products for which the number of times the target product is viewed is measured is equal to or less than the second determination start threshold, the process proceeds to step S122. In step S120, when the number of target products for which the number of times the target product has been viewed is equal to or smaller than the second determination start threshold value, this is an example when a selection prediction event is detected. FIG. 26B shows an example of unit times T1 to T5.

図25のステップS122では、特定部16は、見た回数が最大の対象商品を最も購入される可能性が高い商品(購入対象予測商品)に設定し、ステップS84に進む。   In step S122 of FIG. 25, the specifying unit 16 sets the target product with the largest number of times of viewing as a product most likely to be purchased (prediction target purchase product), and proceeds to step S84.

ステップS84〜S102の処理は、第7実施形態の同一番号のステップの処理と同一であるため、説明を省略する。   Since the processing of steps S84 to S102 is the same as the processing of the step with the same number in the seventh embodiment, the description thereof is omitted.

これによれば、見た回数が最大のものを購入対象予測商品に設定する。つまり、購入対象予測商品は、購入意識が最も高い商品として購入対象商品と同等に扱うことで、視線データの計測中にリアルタイムで迷った商品を特定することができる。これにより、特定した迷った商品に関する情報を、商品購入前のタイミングでユーザにレコメンドすることができる。   According to this, the item with the largest number of times of viewing is set as the purchase target prediction product. That is, the purchase target prediction product can be identified as a product with the highest purchase consciousness in the same manner as the purchase target product, thereby identifying a product lost in real time during the measurement of the line-of-sight data. Thereby, the information regarding the specified lost product can be recommended to the user at the timing before the product purchase.

なお、単位時間の対象商品の見た回数が計測された対象商品の数が第2の判定開始閾値以下であるときに替えて、単位時間の視線の合計時間、検知頻度又は検知回数がそれぞれ、所定時間、所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったときを、選択予測イベントの検出時としてもよい。   In addition, instead of when the number of target products for which the number of target products per unit time was measured is less than or equal to the second determination start threshold, the total time of the line of sight of unit time, the detection frequency, or the number of detections, The time when the number of objects equal to or less than the predetermined time, the predetermined frequency, or the predetermined number of times is equal to or less than the second determination start threshold may be set as the detection time of the selection prediction event.

以上に説明した第6〜第8実施形態及び第1〜第5実施形態に係る視線分析処理において、視線計測の開始のトリガとなるイベントとしては、視線センサ22が設置された棚又はサイネージ等の前にユーザが来て、顔(または視線)が検出されたときであってもよい。また、カメラ画像、3Dセンサ等を用いた身体や骨格の位置検出によって、ユーザが商品棚の前に立ち止まったと判定されたときであってもよい。また、モバイル端末のWi−FiやGPSを用いたユーザ位置の検出によって、ユーザが商品棚の前に立ち止まったと判定されたときであってもよい。   In the line-of-sight analysis processing according to the sixth to eighth embodiments and the first to fifth embodiments described above, as an event that triggers the start of line-of-sight measurement, an event such as a shelf or a signage where the line-of-sight sensor 22 is installed It may be when the user comes in front and a face (or line of sight) is detected. Moreover, it may be when it is determined that the user has stopped in front of the product shelf by detecting the position of the body or the skeleton using a camera image, a 3D sensor, or the like. Moreover, it may be when it is determined that the user has stopped in front of the product shelf by detecting the user position using Wi-Fi or GPS of the mobile terminal.

また、視線計測の終了のトリガとなるイベントとしては、視線センサ22が設置された棚又はサイネージ等の前からユーザが立ち去り、顔(または視線)が所定時間検出されなかったときであってもよい。また、カメラ画像、3Dセンサ等を用いた身体や骨格の位置検出によって、ユーザが商品棚の前から立ち去ったと判定されたときであってもよい。また、視線データのリアルタイム分析により、迷った商品が特定されたときであってもよい。また、ユーザがサイネージ等の購入ボタンを押したときであってもよい。また、事前に設定した視線データの計測時間が経過したときであってもよい。   In addition, the event that triggers the end of the line-of-sight measurement may be when the user leaves the front of the shelf or signage where the line-of-sight sensor 22 is installed and the face (or line of sight) is not detected for a predetermined time. . Alternatively, it may be determined that the user has left the product shelf by detecting the position of the body or skeleton using a camera image, a 3D sensor, or the like. Further, it may be when a lost product is specified by real-time analysis of the line-of-sight data. It may also be when the user presses a purchase button such as signage. Moreover, it may be when the measurement time of eye-gaze data set in advance has elapsed.

上記第1〜第8実施形態に係る視線分析処理を単独又は組み合わせて以下のように利用することができる。例えば、陳列棚の商品をユーザが見て選択するシーンでは、購入した商品と比較して迷った商品の情報を蓄積することで、自社製品がどのような商品と比較されているかを元に、パッケージデザイン等の商品開発に活用することができる。   The line-of-sight analysis processing according to the first to eighth embodiments can be used alone or in combination as follows. For example, in a scene where the user selects and displays products on the display shelf, by accumulating information on products that are lost compared to purchased products, based on what products the company's products are compared with, It can be used for product development such as package design.

また、デジタルサイネージ20に表示した商品をユーザが見て選択するシーンでは、顧客が商品を購入しようとタッチ操作した際に、購入対象商品と比較して迷った商品に対するレコメンド(付加情報、クーポン情報)を行い、顧客への購買を促すことができる。   In addition, in a scene where the user views and selects a product displayed on the digital signage 20, when a customer touches the product to make a purchase, a recommendation (additional information, coupon information) for the product that is lost compared to the product to be purchased. ) To encourage customers to purchase.

陳列棚の商品をユーザが見て選択するシーン及びデジタルサイネージ20に表示した商品をユーザが見て選択するシーンのいずれにおいても、分析のタイミングは、商品購入後であってもよいし、商品購入前の迷っている時間帯にリアルタイムに行ってもよい。   In both the scene where the user views and selects the products on the display shelf and the scene where the user views and selects the products displayed on the digital signage 20, the timing of analysis may be after the product purchase, You may go in real time during the previous lost time.

以上、視線分析プログラム、視線分析方法及び視線分析装置を上記実施形態により説明したが、本発明に係る視線分析プログラム、視線分析方法及び視線分析装置は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。また、上記実施形態及び変形例が複数存在する場合、矛盾しない範囲で組み合わせることができる。   As described above, the line-of-sight analysis program, the line-of-sight analysis method, and the line-of-sight analysis apparatus have been described in the above embodiment, but the line-of-sight analysis program, the line-of-sight analysis method, and the line-of-sight analysis apparatus according to the present invention are not limited to the above-described embodiment. Various modifications and improvements are possible within the scope of the invention. In addition, when there are a plurality of the above-described embodiments and modifications, they can be combined within a consistent range.

例えば、各実施形態では、商品を見た回数に基づき、迷った商品を特定した。しかしながら、本発明は、これに限らず、例えば、商品を見た合計時間に基づき、迷った商品を特定してもよい。   For example, in each embodiment, the lost product is specified based on the number of times the product is viewed. However, the present invention is not limited to this. For example, the lost product may be specified based on the total time of viewing the product.

また、各実施形態では、商品選択に要する時間Tを3分割し、分割された各経過時間の視線の回数を算出した。しかしながら、本発明は、これに限らず、例えば、商品選択に要する時間Tをn分割し、n分割された各経過時間の視線の回数を算出してもよい。nは、2以上の数であればよい。   In each embodiment, the time T required for product selection is divided into three, and the number of lines of sight for each divided elapsed time is calculated. However, the present invention is not limited to this. For example, the time T required for product selection may be divided into n, and the number of lines of sight for each elapsed time divided into n may be calculated. n may be a number of 2 or more.

上記実施形態において選択ボタンを押す等により、商品の選択(購入)を示す選択イベントが検出されると、選択イベントの直近の時間帯における、複数の商品についての視線の検知状況に基づき迷った商品が特定された。このとき、直近の時間帯は、選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から選択イベントの検出までの対象物の選択に要した期間Tを複数の期間に分割して得られる分割期間のうち、相対的に選択イベントに近い分割期間であってもよい。   In the above embodiment, when a selection event indicating selection (purchase) of a product is detected by pressing a selection button or the like, the product is lost based on the line-of-sight detection status for a plurality of products in the time zone closest to the selection event Was identified. At this time, the most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or a plurality of periods T required for selection of the object from the start of the detection of the line of sight until the detection of the selection event. Of the divided periods obtained by dividing the period, a divided period relatively close to the selected event may be used.

また、迷った対象物は、視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物であってもよい。   Further, the lost object is in a predetermined period from the start of the detection of the line of sight, or the detection frequency or the number of detections of the line of sight in the divided period that is relatively close to the detection start of the line of sight in the divided period. It may be an object in which an increase in the eye gaze detection frequency or the number of detections in the latest time zone is detected.

また、例えば、各実施形態に係る視線分析装置10の構成は一例であり、本発明の範囲を限定するものではなく、用途や目的に応じて様々な構成例にすることができる。例えば、本発明に係る視線分析装置の一の部機能は、ネットワークに接続された情報処理装置やクラウド上の各種の処理装置において実施してもよい。   Further, for example, the configuration of the line-of-sight analysis apparatus 10 according to each embodiment is merely an example, and does not limit the scope of the present invention, and various configuration examples can be made according to applications and purposes. For example, one part function of the line-of-sight analysis apparatus according to the present invention may be implemented in an information processing apparatus connected to a network or various processing apparatuses on the cloud.

以上の説明に関し、更に以下の項を開示する。
(付記1)
複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定し、
特定した前記第2の対象物を示す情報を出力する、
処理をコンピュータに実行させることを特徴とする視線分析プログラム。
(付記2)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が相対的に多い対象物である、
ことを特徴とする付記1に記載の視線分析プログラム。
(付記3)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が前記第1の対象物と同等の対象物である、
ことを特徴とする付記1又は2に記載の視線分析プログラム。
(付記4)
前記直近の時間帯は、前記選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から前記選択イベントの検出までの期間を複数の期間に分割して得られる分割期間のうち、相対的に前記選択イベントに近い分割期間である、
ことを特徴とする付記1〜3のいずれか一項に記載の視線分析プログラム。
(付記5)
前記第2の対象物は、前記視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物である、
ことを特徴とする付記4に記載の視線分析プログラム。
(付記6)
予め定められた単位時間毎の複数の対象物についての視線の検知状況に基づいて、一の単位時間の視線の検知頻度又は検知回数と、該一の単位時間の直後の単位時間の視線の検知頻度又は検知回数との差分から商品の選択に迷っているか否かを判定する、
ことを特徴とする視線分析プログラム。
(付記7)
複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定し、
特定した前記第2の対象物を示す情報を出力する、
ことをコンピュータが実行する視線分析方法。
(付記8)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が相対的に多い対象物である、
ことを特徴とする付記7に記載の視線分析方法。
(付記9)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が前記第1の対象物と同等の対象物である、
ことを特徴とする付記7又は8に記載の視線分析方法。
(付記10)
前記直近の時間帯は、前記選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から前記選択イベントの検出までの期間を複数の期間に分割して得られる分割期間のうち、相対的に前記選択イベントに近い分割期間である、
ことを特徴とする付記7〜9のいずれか一項に記載の視線分析方法。
(付記11)
前記第2の対象物は、前記視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物である、
ことを特徴とする付記10に記載の視線分析方法。
(付記12)
複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定する特定部と、
特定した前記第2の対象物を示す情報を出力する出力部と、
を有する視線分析装置。
(付記13)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が相対的に多い対象物である、
ことを特徴とする付記12に記載の視線分析装置。
(付記14)
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が前記第1の対象物と同等の対象物である、
ことを特徴とする付記12又は13に記載の視線分析装置。
(付記15)
前記直近の時間帯は、前記選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から前記選択イベントの検出までの期間を複数の期間に分割して得られる分割期間のうち、相対的に前記選択イベントに近い分割期間である、
ことを特徴とする付記12〜14のいずれか一項に記載の視線分析装置。
(付記16)
前記第2の対象物は、前記視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物である、
ことを特徴とする付記15に記載の視線分析装置。
(付記17)
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出し、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前又は後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定し、
特定した前記対象物を示す情報を出力する、
処理をコンピュータに実行させることを特徴とする視線分析プログラム。
(付記18)
前記選択イベント又は選択予測イベントを検出した時間の直前又は直後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補の少なくとも一つの対象物を特定する、
ことを特徴とする付記17に記載の視線分析プログラム。
(付記19)
前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数のうちのいずれかが第1の判定開始閾値以上となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記17又は18に記載の視線分析プログラム。
(付記20)
前記複数の対象物のうち、所定時間毎の視線の検知頻度又は検知回数が所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記17〜19のいずれか一項に記載の視線分析プログラム。
(付記21)
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出し、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前後の時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定し、
特定した前記対象物を示す情報を出力する、
ことをコンピュータが実行する視線分析方法。
(付記22)
前記選択イベント又は選択予測イベントを検出した時間の直前又は直後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補の少なくとも一つの対象物を特定する、
ことを特徴とする付記21に記載の視線分析方法。
(付記23)
前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数のうちのいずれかが第1の判定開始閾値以上となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記21又は22に記載の視線分析方法。
(付記24)
前記複数の対象物のうち、所定時間毎の視線の検知頻度又は検知回数が所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記21〜23のいずれか一項に記載の視線分析方法。
(付記25)
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出する抽出部と、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前後の時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定する特定部と、
特定した前記対象物を示す情報を出力する出力部と、
を有する視線分析装置。
(付記26)
前記特定部は、前記選択イベント又は選択予測イベントを検出した時間の直前又は直後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補の少なくとも一つの対象物を特定する、
ことを特徴とする付記25に記載の視線分析装置。
(付記27)
前記抽出部は、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数のうちのいずれかが第1の判定開始閾値以上となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記25又は26に記載の視線分析装置。
(付記28)
前記複数の対象物のうち、所定時間毎の視線の検知頻度又は検知回数が所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする付記25〜27のいずれか一項に記載の視線分析装置。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. Identify a second object that is different from
Outputting information indicating the identified second object;
A line-of-sight analysis program that causes a computer to execute processing.
(Appendix 2)
The second object is an object that has a relatively large number of eye gaze detection frequencies or number of detections to be detected in the most recent time zone.
The line-of-sight analysis program according to supplementary note 1, wherein:
(Appendix 3)
The second object is an object having a detection frequency or number of detections of the line of sight to be detected in the most recent time zone, which is equivalent to the first object.
The line-of-sight analysis program according to Supplementary Note 1 or 2, characterized by:
(Appendix 4)
The most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or is obtained by dividing a period from the start of eye gaze detection to the detection of the selection event into a plurality of periods. Among the divided periods, it is a divided period that is relatively close to the selected event.
The line-of-sight analysis program according to any one of Supplementary notes 1 to 3, characterized in that:
(Appendix 5)
The second object is detected with respect to the line-of-sight detection frequency or the number of detections within a predetermined period from the start of line-of-sight detection, or within a divided period of the division period that is relatively close to the line-of-sight detection start. The object in which an increase in the detection frequency or the number of detections of the line of sight within the most recent time zone is detected.
The line-of-sight analysis program according to supplementary note 4, characterized by:
(Appendix 6)
Based on the gaze detection status of a plurality of objects for each predetermined unit time, the gaze detection frequency or the number of detections of one unit time and the gaze detection of the unit time immediately after the one unit time Determine whether or not you are confused in selecting a product from the difference in frequency or number of detections,
Gaze analysis program characterized by that.
(Appendix 7)
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. Identify a second object that is different from
Outputting information indicating the identified second object;
A line-of-sight analysis method that the computer executes.
(Appendix 8)
The second object is an object that has a relatively large number of eye gaze detection frequencies or number of detections to be detected in the most recent time zone.
The line-of-sight analysis method according to appendix 7, wherein:
(Appendix 9)
The second object is an object having a detection frequency or number of detections of the line of sight to be detected in the most recent time zone, which is equivalent to the first object.
The line-of-sight analysis method according to appendix 7 or 8, wherein
(Appendix 10)
The most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or is obtained by dividing a period from the start of eye gaze detection to the detection of the selection event into a plurality of periods. Among the divided periods, it is a divided period that is relatively close to the selected event.
The line-of-sight analysis method according to any one of appendices 7 to 9, characterized in that:
(Appendix 11)
The second object is detected with respect to the line-of-sight detection frequency or the number of detections within a predetermined period from the start of line-of-sight detection, or within a divided period of the division period that is relatively close to the line-of-sight detection start. The object in which an increase in the detection frequency or the number of detections of the line of sight within the most recent time zone is detected.
The line-of-sight analysis method according to appendix 10, characterized by:
(Appendix 12)
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. A specifying unit for specifying a second object different from
An output unit for outputting information indicating the identified second object;
A line-of-sight analysis apparatus.
(Appendix 13)
The second object is an object that has a relatively large number of eye gaze detection frequencies or number of detections to be detected in the most recent time zone.
Item 13. The line-of-sight analysis device according to appendix 12.
(Appendix 14)
The second object is an object having a detection frequency or number of detections of the line of sight to be detected in the most recent time zone, which is equivalent to the first object.
The line-of-sight analysis apparatus according to appendix 12 or 13, characterized in that.
(Appendix 15)
The most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or is obtained by dividing a period from the start of eye gaze detection to the detection of the selection event into a plurality of periods. Among the divided periods, it is a divided period that is relatively close to the selected event.
The line-of-sight analysis apparatus according to any one of appendices 12 to 14, characterized in that:
(Appendix 16)
The second object is detected with respect to the line-of-sight detection frequency or the number of detections within a predetermined period from the start of line-of-sight detection, or within a divided period of the division period that is relatively close to the line-of-sight detection start. The object in which an increase in the detection frequency or the number of detections of the line of sight within the most recent time zone is detected.
The line-of-sight analysis apparatus according to appendix 15, characterized in that.
(Appendix 17)
Based on the detection status of the line of sight for a plurality of objects, the object having a relatively high frequency of detection or the number of detections of the line of sight for each predetermined time for the plurality of objects is extracted as a candidate for the object,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the object at the time at least either before or after the time when the selection event or the selection prediction event is detected Based on the line-of-sight detection status of the candidate, identify at least one object different from the first object from among the candidate objects,
Outputting information indicating the identified object;
A line-of-sight analysis program that causes a computer to execute processing.
(Appendix 18)
Identify at least one target object candidate based on the line-of-sight detection status of the target object candidate immediately before or immediately after the time when the selection event or selection prediction event is detected To
The line-of-sight analysis program according to supplementary note 17, characterized by:
(Appendix 19)
When any one of the detection frequency or the number of detections of the line of sight for each of the plurality of objects is equal to or higher than a first determination start threshold, a selection prediction event for the first object is detected.
The line-of-sight analysis program according to appendix 17 or 18, characterized in that.
(Appendix 20)
The selection for the first object when the detection frequency or the number of detections of the line-of-sight for each predetermined time among the plurality of objects is equal to or less than a second determination start threshold value. Detect predictive events,
The line-of-sight analysis program according to any one of supplementary notes 17 to 19, characterized in that:
(Appendix 21)
Based on the detection status of the line of sight for a plurality of objects, the object having a relatively high frequency of detection or the number of detections of the line of sight for each predetermined time for the plurality of objects is extracted as a candidate for the object,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the line-of-sight detection of the candidate for the object at the time before and after the time when the selection event or the selection prediction event is detected. Based on the situation, identify at least one object different from the first object from among the candidate objects,
Outputting information indicating the identified object;
A line-of-sight analysis method that the computer executes.
(Appendix 22)
Identify at least one target object candidate based on the line-of-sight detection status of the target object candidate immediately before or immediately after the time when the selection event or selection prediction event is detected To
Item 22. The line-of-sight analysis method according to appendix 21.
(Appendix 23)
When any one of the detection frequency or the number of detections of the line of sight for each of the plurality of objects is equal to or higher than a first determination start threshold, a selection prediction event for the first object is detected.
23. The line-of-sight analysis method according to appendix 21 or 22,
(Appendix 24)
The selection for the first object when the detection frequency or the number of detections of the line-of-sight for each predetermined time among the plurality of objects is equal to or less than a second determination start threshold value. Detect predictive events,
The line-of-sight analysis method according to any one of appendices 21 to 23, characterized in that:
(Appendix 25)
An extraction unit that extracts, as candidates for objects, objects having a relatively high line-of-sight detection frequency or number of detections for each predetermined time based on the line-of-sight detection status of the plurality of objects. When,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the line-of-sight detection of the candidate for the object at the time before and after the time when the selection event or the selection prediction event is detected. A specifying unit for specifying at least one object different from the first object from among the candidates for the object based on a situation;
An output unit that outputs information indicating the identified object;
A line-of-sight analysis apparatus.
(Appendix 26)
The specifying unit is configured to select at least one of the object candidates based on a gaze detection state of the object candidate at least immediately before or immediately after the time when the selection event or the selection prediction event is detected. Identify one feature,
The line-of-sight analysis apparatus according to appendix 25, wherein:
(Appendix 27)
The extraction unit is configured to perform selection prediction for the first object when any of the line-of-sight detection frequency or the number of detections for the plurality of objects reaches or exceeds a first determination start threshold value. Detect events,
27. The line-of-sight analysis apparatus according to appendix 25 or 26, wherein
(Appendix 28)
The selection for the first object when the detection frequency or the number of detections of the line-of-sight for each predetermined time among the plurality of objects is equal to or less than a second determination start threshold value. Detect predictive events,
The line-of-sight analysis apparatus according to any one of Supplementary Notes 25 to 27, characterized in that:

10 視線分析装置
11 記憶部
12 検出部
13 取得部
14 判定部
15 算出部
16 特定部
17 出力部
18 抽出部
30 視線情報DB
31 閾値テーブル
32 視線分析プログラム
33 対象物配置DB
34 迷った対象DB
DESCRIPTION OF SYMBOLS 10 Eye-gaze analyzer 11 Memory | storage part 12 Detection part 13 Acquisition part 14 Determination part 15 Calculation part 16 Specification part 17 Output part 18 Extraction part 30 Eye-gaze information DB
31 Threshold Table 32 Gaze Analysis Program 33 Object Placement DB
34 Target DB lost

Claims (14)

複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定し、
特定した前記第2の対象物を示す情報を出力する、
処理をコンピュータに実行させることを特徴とする視線分析プログラム。
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. Identify a second object that is different from
Outputting information indicating the identified second object;
A line-of-sight analysis program that causes a computer to execute processing.
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が相対的に多い対象物である、
ことを特徴とする請求項1に記載の視線分析プログラム。
The second object is an object that has a relatively large number of eye gaze detection frequencies or number of detections to be detected in the most recent time zone.
The line-of-sight analysis program according to claim 1.
前記第2の対象物は、前記直近の時間帯において検出する視線の検知頻度又は検知回数が前記第1の対象物と同等の対象物である、
ことを特徴とする請求項1又は2に記載の視線分析プログラム。
The second object is an object having a detection frequency or number of detections of the line of sight to be detected in the most recent time zone, which is equivalent to the first object.
The line-of-sight analysis program according to claim 1 or 2.
前記直近の時間帯は、前記選択イベントの検出から遡って所定時間内の時間帯であるか、または、視線の検出開始から前記選択イベントの検出までの期間を複数の期間に分割して得られる分割期間のうち、相対的に前記選択イベントに近い分割期間である、
ことを特徴とする請求項1〜3のいずれか一項に記載の視線分析プログラム。
The most recent time zone is a time zone within a predetermined time retroactively from the detection of the selection event, or is obtained by dividing a period from the start of eye gaze detection to the detection of the selection event into a plurality of periods. Among the divided periods, it is a divided period that is relatively close to the selected event.
The line-of-sight analysis program according to any one of claims 1 to 3.
前記第2の対象物は、前記視線の検出開始から所定期間内、又は、前記分割期間のうち、相対的に前記視線の検知開始に近い分割期間内における視線の検知頻度又は検知回数に対して、前記直近の時間帯内における視線の検知頻度又は検知回数の増加が検出された対象物である、
ことを特徴とする請求項4に記載の視線分析プログラム。
The second object is detected with respect to the line-of-sight detection frequency or the number of detections within a predetermined period from the start of line-of-sight detection, or within a divided period of the division period that is relatively close to the line-of-sight detection start. The object in which an increase in the detection frequency or the number of detections of the line of sight within the most recent time zone is detected.
The line-of-sight analysis program according to claim 4.
予め定められた単位時間毎の複数の対象物についての視線の検知状況に基づいて、一の単位時間の視線の検知頻度又は検知回数と、該一の単位時間の直後の単位時間の視線の検知頻度又は検知回数との差分から商品の選択に迷っているか否かを判定する、
ことを特徴とする視線分析プログラム。
Based on the gaze detection status of a plurality of objects for each predetermined unit time, the gaze detection frequency or the number of detections of one unit time and the gaze detection of the unit time immediately after the one unit time Determine whether or not you are confused in selecting a product from the difference in frequency or number of detections,
Gaze analysis program characterized by that.
複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定し、
特定した前記第2の対象物を示す情報を出力する、
ことをコンピュータが実行する視線分析方法。
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. Identify a second object that is different from
Outputting information indicating the identified second object;
A line-of-sight analysis method that the computer executes.
複数の対象物のうちの第1の対象物に対する選択イベントを検出すると、該選択イベントの直近の時間帯における、前記複数の対象物についての視線の検知状況に基づいて、前記第1の対象物とは異なる第2の対象物を特定する特定部と、
特定した前記第2の対象物を示す情報を出力する出力部と、
を有する視線分析装置。
When a selection event for the first object among the plurality of objects is detected, the first object is determined based on the line-of-sight detection status of the plurality of objects in the time zone closest to the selection event. A specifying unit for specifying a second object different from
An output unit for outputting information indicating the identified second object;
A line-of-sight analysis apparatus.
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出し、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前又は後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定し、
特定した前記対象物を示す情報を出力する、
処理をコンピュータに実行させることを特徴とする視線分析プログラム。
Based on the detection status of the line of sight for a plurality of objects, the object having a relatively high frequency of detection or the number of detections of the line of sight for each predetermined time for the plurality of objects is extracted as a candidate for the object,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the object at the time at least either before or after the time when the selection event or the selection prediction event is detected Based on the line-of-sight detection status of the candidate, identify at least one object different from the first object from among the candidate objects,
Outputting information indicating the identified object;
A line-of-sight analysis program that causes a computer to execute processing.
前記選択イベント又は選択予測イベントを検出した時間の直前又は直後の少なくともいずれかの時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補の少なくとも一つの対象物を特定する、
ことを特徴とする請求項9に記載の視線分析プログラム。
Identify at least one target object candidate based on the line-of-sight detection status of the target object candidate immediately before or immediately after the time when the selection event or selection prediction event is detected To
The line-of-sight analysis program according to claim 9.
前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数のうちのいずれかが第1の判定開始閾値以上となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする請求項9又は10に記載の視線分析プログラム。
When any one of the detection frequency or the number of detections of the line of sight for each of the plurality of objects is equal to or higher than a first determination start threshold, a selection prediction event for the first object is detected.
The line-of-sight analysis program according to claim 9 or 10.
前記複数の対象物のうち、所定時間毎の視線の検知頻度又は検知回数が所定頻度又は所定回数以下の対象物の数が第2の判定開始閾値以下となったとき、前記第1の対象物に対する選択予測イベントを検出する、
ことを特徴とする請求項9〜11のいずれか一項に記載の視線分析プログラム。
The selection for the first object when the detection frequency or the number of detections of the line-of-sight for each predetermined time among the plurality of objects is equal to or less than a second determination start threshold value. Detect predictive events,
The line-of-sight analysis program according to any one of claims 9 to 11.
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出し、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前後の時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定し、
特定した前記対象物を示す情報を出力する、
ことをコンピュータが実行する視線分析方法。
Based on the detection status of the line of sight for a plurality of objects, the object having a relatively high frequency of detection or the number of detections of the line of sight for each predetermined time for the plurality of objects is extracted as a candidate for the object,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the line-of-sight detection of the candidate for the object at the time before and after the time when the selection event or the selection prediction event is detected. Based on the situation, identify at least one object different from the first object from among the candidate objects,
Outputting information indicating the identified object;
A line-of-sight analysis method that the computer executes.
複数の対象物についての視線の検知状況に基づいて、前記複数の対象物についての所定時間毎の視線の検知頻度又は検知回数が相対的に多い対象物を、対象物の候補として抽出する抽出部と、
前記複数の対象物のうちの第1の対象物に対する選択イベント又は選択予測イベントを検出すると、該選択イベント又は選択予測イベントを検出した時間の前後の時間における前記対象物の候補についての視線の検知状況に基づいて、前記対象物の候補のうちから前記第1の対象物と異なる少なくとも一つの対象物を特定する特定部と、
特定した前記対象物を示す情報を出力する出力部と、
を有する視線分析装置。
An extraction unit that extracts, as candidates for objects, objects having a relatively high line-of-sight detection frequency or number of detections for each predetermined time based on the line-of-sight detection status of the plurality of objects. When,
When the selection event or the selection prediction event for the first object among the plurality of objects is detected, the line-of-sight detection of the candidate for the object at the time before and after the time when the selection event or the selection prediction event is detected. A specifying unit for specifying at least one object different from the first object from among the candidates for the object based on a situation;
An output unit that outputs information indicating the identified object;
A line-of-sight analysis apparatus.
JP2018007459A 2017-05-30 2018-01-19 Gaze analysis program, gaze analysis method and gaze analyzer Active JP7087403B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/985,796 US10719703B2 (en) 2017-05-30 2018-05-22 Non-transitory computer-readable storage medium for storing line-of-sight analysis program, line-of-sight analysis method, and line-of-sight analysis apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017106566 2017-05-30
JP2017106566 2017-05-30

Publications (2)

Publication Number Publication Date
JP2018206354A true JP2018206354A (en) 2018-12-27
JP7087403B2 JP7087403B2 (en) 2022-06-21

Family

ID=64957979

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018007459A Active JP7087403B2 (en) 2017-05-30 2018-01-19 Gaze analysis program, gaze analysis method and gaze analyzer

Country Status (1)

Country Link
JP (1) JP7087403B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020118919A (en) * 2019-01-28 2020-08-06 沖電気工業株式会社 Display controller, method for controlling display, program, and display control system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007067740A (en) * 2005-08-30 2007-03-15 Sony Corp Contents reproducing apparatus and contents reproducing method
JP2009545051A (en) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Gaze interaction for displaying information on the gazeed product
JP2013114595A (en) * 2011-11-30 2013-06-10 Canon Inc Information processor, information processing method, and program
JP2013255168A (en) * 2012-06-08 2013-12-19 Toyota Infotechnology Center Co Ltd Imaging apparatus and imaging method
JP2014056356A (en) * 2012-09-11 2014-03-27 Toshiba Tec Corp Sales promotion determination device and sales promotion determination method
JP2015052879A (en) * 2013-09-06 2015-03-19 カシオ計算機株式会社 Information processing device and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007067740A (en) * 2005-08-30 2007-03-15 Sony Corp Contents reproducing apparatus and contents reproducing method
JP2009545051A (en) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Gaze interaction for displaying information on the gazeed product
JP2013114595A (en) * 2011-11-30 2013-06-10 Canon Inc Information processor, information processing method, and program
JP2013255168A (en) * 2012-06-08 2013-12-19 Toyota Infotechnology Center Co Ltd Imaging apparatus and imaging method
JP2014056356A (en) * 2012-09-11 2014-03-27 Toshiba Tec Corp Sales promotion determination device and sales promotion determination method
JP2015052879A (en) * 2013-09-06 2015-03-19 カシオ計算機株式会社 Information processing device and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
新井 勇夫: "本店改善と多店化で販売機会を増やす 9年連続で売上高2けた以上の伸び", 日経ネットマーケティング 第32号, JPN6021032873, 25 May 2010 (2010-05-25), pages 32, ISSN: 0004726410 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020118919A (en) * 2019-01-28 2020-08-06 沖電気工業株式会社 Display controller, method for controlling display, program, and display control system

Also Published As

Publication number Publication date
JP7087403B2 (en) 2022-06-21

Similar Documents

Publication Publication Date Title
RU2636102C2 (en) System and method for assistance in determination of location and selection of desired subject in storage
US8412656B1 (en) Method and system for building a consumer decision tree in a hierarchical decision tree structure based on in-store behavior analysis
US20120327119A1 (en) User adaptive augmented reality mobile communication device, server and method thereof
JP2015141572A (en) Merchandise information providing method, merchandise information providing device, and merchandise information providing program
US20150215674A1 (en) Interactive streaming video
JP6498900B2 (en) Advertisement evaluation system, advertisement evaluation method
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
JP2016076109A (en) Device and method for predicting customers&#39;s purchase decision
JP6828383B2 (en) Display control program, display control method and information processing device
JP7087403B2 (en) Gaze analysis program, gaze analysis method and gaze analyzer
JP6740546B2 (en) Customer service support device, customer service support method, and program
JP6775484B2 (en) Calculation device, calculation method, and calculation program
US10719703B2 (en) Non-transitory computer-readable storage medium for storing line-of-sight analysis program, line-of-sight analysis method, and line-of-sight analysis apparatus
JP2019175413A (en) Determination program, determination method, and determination device
US20180313676A1 (en) Information processing apparatus, information processing method, and program
WO2019176281A1 (en) Display control device, vending machine, display control method, and display control program
JP7380839B2 (en) Recognition level estimation device, recognition level estimation method, and program
JP6957926B2 (en) Information processing equipment and programs
CN114967922A (en) Information display method and device, electronic equipment and storage medium
WO2016189355A1 (en) Advertising mobile equipment for readers
CN110610358A (en) Commodity processing method and device and unmanned goods shelf system
WO2018144695A1 (en) In-store display with selective display of products based on visibility metric
US20210065276A1 (en) Information processing apparatus and non-transitory computer readable medium
JP7010030B2 (en) In-store monitoring equipment, in-store monitoring methods, and in-store monitoring programs
US20160098766A1 (en) Feedback collecting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R150 Certificate of patent or registration of utility model

Ref document number: 7087403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150