JP2012022589A - Method of supporting selection of commodity - Google Patents

Method of supporting selection of commodity Download PDF

Info

Publication number
JP2012022589A
JP2012022589A JP2010161214A JP2010161214A JP2012022589A JP 2012022589 A JP2012022589 A JP 2012022589A JP 2010161214 A JP2010161214 A JP 2010161214A JP 2010161214 A JP2010161214 A JP 2010161214A JP 2012022589 A JP2012022589 A JP 2012022589A
Authority
JP
Japan
Prior art keywords
product
user
image
gaze
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010161214A
Other languages
Japanese (ja)
Inventor
Asako Miyamoto
麻子 宮本
Takuya Akashi
卓也 赤司
Shotaro Tamayama
尚太朗 玉山
Maiko Kaneda
麻衣子 金田
Takashi Hoshino
剛史 星野
Yukinobu Maruyama
幸伸 丸山
Takeru Minemoto
長 峯元
Mika Masuko
未佳 増子
Shigeo Yuyama
茂男 柚山
Akira Honda
明 本田
Tomoaki Yoshinaga
智明 吉永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010161214A priority Critical patent/JP2012022589A/en
Publication of JP2012022589A publication Critical patent/JP2012022589A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To feed back what a user who uses a commodity screen has gazed in a commodity screen, to a display mode in the commodity screen, and show a proper screen image to the user.SOLUTION: When there is no one who gazes at a screen in front of the screen, a commodity list screen 70a is displayed where images 71 of commodities are randomly arranged in the screen and scrolled. When a user approaches and gazes at a specific commodity image in the commodity list screen 70a, the commodity list screen 70a is displayed where the images 71 of the specific commodities in a gaze area 73 including a gaze point are displayed with a gaze area 73a set at the center, the commodity list screen 70a being positioned within the gaze area 73a. If the user continues gazing at the image 71 of the commodity in the gaze area 73a, the image 71 of the commodity is highlighted.

Description

本発明は、自動販売機や施設内の広告表示板などに設けられてIPネットワークからダウンロードされた商品などの商品情報を表示するデジタルサイネージに関し、特に、表示される表示情報に対する顧客の注視度を商品情報の表示形態にフィードバックして利用できるようにした商品選択支援方法に関する。   The present invention relates to digital signage that is provided on a vending machine or an advertisement display board in a facility and displays product information such as a product downloaded from an IP network, and in particular, the degree of customer's attention to the displayed display information. The present invention relates to a product selection support method that can be used by feeding back to a display form of product information.

店舗などにおいて、設置された表示装置に通信システムから受信した商品に関するコンテンツを表示し、来店した顧客に商品の宣伝や広告を行なうことができるようにしたデジタルサイネージを用いたシステムが知られている(例えば、特許文献1参照)。   There is known a system using digital signage that displays contents related to products received from a communication system on a display device installed in a store, etc., and can advertise and advertise products to customers who visit the store. (For example, refer to Patent Document 1).

かかるシステムとしては、各場所に設置される自動販売機やコンビニエンスストアといった店舗などの施設内に設置される広告表示板にデジタルサイネージを用い、ダウンロードされた商品の広告情報(例えば、商品の画像など)を表示画面に表示し、商品の宣伝・広告を行なうことが考えられる。ところで、商品の広告,宣伝を行なう場合には、店舗側としては、その広告,宣伝の効果がどのようなものであるか知ることが必要であり、このため、広告,宣伝される各商品に対する顧客の注視度(各商品に対する顧客の注目の度合い)を検出するような技術も提案されている。   As such a system, digital signage is used for an advertisement display board installed in a facility such as a vending machine or a convenience store installed in each place, and advertisement information of downloaded products (for example, product images, etc.) ) May be displayed on the display screen to promote or advertise the product. By the way, when advertising or promoting a product, it is necessary for the store side to know what the effect of the advertisement or advertising is. Techniques have also been proposed that detect the degree of customer attention (the degree of customer attention for each product).

その一例として、商品の陳列棚に陳列されている商品の人物による注目度を算出し、夫々の商品の注目度を画面で表示するようにした技術が提案されている(例えば、特許文献2参照)。   As an example, a technique has been proposed in which the degree of attention by a person of a product displayed on a display shelf of the product is calculated and the degree of attention of each product is displayed on a screen (see, for example, Patent Document 2). ).

この特許文献2に記載の技術では、陳列棚にカメラと位置計測装置とを設け、陳列棚の商品に注目する人物(顧客)をカメラで撮像して人物の画像を取得するとともに、位置計測装置でこの人物の位置を検出し、この人物の画像から顔が向いている方向(顔方向)と眼が向いている視線の方向とを検出し、検出したこの人物の位置と顔方向と視線の方向とから陳列棚でのこの人物が注目している商品を検出するものであって、陳列棚での各商品毎に注目された回数を集計し、表示画面上に各商品毎に注目された回数を棒グラフで、あるいは単位時間当りの注目回数の変化をヒストグラフで表示するなど、かかる注目回数を注目度として、注目度を表わすグラフックスを商品の画像と重ね合わせて表示するものである。   In the technique described in Patent Document 2, a camera and a position measurement device are provided on a display shelf, and a person (customer) who pays attention to a product on the display shelf is captured by the camera to acquire an image of the person. The position of this person is detected, and the direction of the face (face direction) and the direction of the line of sight facing the eye are detected from the image of this person, and the detected position, face direction and line of sight of the person are detected. The product that the person on the display shelf is interested in is detected from the direction, and the number of times each product on the display shelf is noticed is counted, and the product is noticed on the display screen for each product. For example, the number of times of attention is displayed as a degree of attention, such as displaying the number of times as a bar graph or a change in the number of times of attention per unit time as a degree of attention.

また、他の例として、表示画面に大きいサイズの主表示領域と1以上の小さいサイズの副表示領域とを設定し、主表示領域と副表示領域とに別々のカメラで撮影した映像を表示し、これら主表示領域と副表示領域とで映像が表示される表示画面を観る視聴者のこれら画像毎の表示要求度を検出し、表示要求度も最も高い映像を主表示領域で表示するようにし、夫々の表示要求度が変化して副表示領域に表示されている映像の表示要求度が最大となると、この映像を、これまで主表示領域で表示されていた映像に代えて、主表示領域で表示させるようにした技術も提案されている(例えば、特許文献3参照)。   As another example, a large-size main display area and one or more small-size sub-display areas are set on the display screen, and images captured by separate cameras are displayed in the main display area and the sub-display area. Detecting the display request level for each of these images of the viewer watching the display screen on which the video is displayed in the main display area and the sub display area, and displaying the video with the highest display request level in the main display area. When the display request level of each video is changed and the display request level of the video displayed in the sub display area is maximized, this video is replaced with the video displayed in the main display area until now. There is also proposed a technique for displaying the image (see, for example, Patent Document 3).

特許文献3に記載の技術において、視聴者による表示要求度を求める場合も、カメラで表示画面の近くにいる人物を撮像してその顔画像を取得し、この顔画像から表示画面に顔を向けている人物を視聴者としてを認識し、これら視聴者の顔画像の位置座標を検出するとともに、これら視聴者の顔の方向と眼球の方向とを認識して視聴者毎に視線方向を検出し、検出した顔画像の位置座標と視線方向とから表示画面中の注視している視線の位置座標を検出し、この視線の位置座標に基づいて、視聴者毎に、注目している映像を判定する。そして、上記の顔画像の位置座標を基に、視聴者の顔がどの程度静止しているか、従って、ある映像をどのくらい続けて観ているかを検出して満足度を算出し、この満足度と上記の注目している映像と判定した映像とを基に、映像毎に視聴者全員についての満足度を加算することにより、映像毎の表示要求度を求めるものである。   In the technique described in Patent Document 3, even when the display request level by the viewer is obtained, a person who is in the vicinity of the display screen is imaged with a camera to acquire the face image, and the face is directed from the face image to the display screen. The viewer is recognized as a viewer, and the position coordinates of the viewer's face image are detected, and the direction of the viewer's face and the direction of the eyeball are recognized to detect the gaze direction for each viewer. Detecting the position coordinates of the gaze line on the display screen from the detected face image position coordinates and the line-of-sight direction, and determining the video of interest for each viewer based on the position coordinates of the line-of-sight To do. Then, based on the position coordinates of the face image, the degree of stillness of the viewer's face is detected, and thus how long the viewer is watching a certain video is calculated to calculate the satisfaction level. The degree of display request for each video is obtained by adding satisfaction for all the viewers for each video based on the video of interest and the determined video.

なお、人物の視線の方向を計測する方法として、この人物の顔の水平方向(左右方向)の向きと垂直方向(上下方向)の向きとから求めるようにした他の方法が提案されている(例えば、特許文献4参照)。   As a method for measuring the direction of the person's line of sight, another method has been proposed in which the human face is obtained from the horizontal direction (left-right direction) and the vertical direction (up-down direction) of the person's face ( For example, see Patent Document 4).

この特許文献4に記載の技術では、カメラで撮像した人物の映像からその顔画像を取得し、顔画像の領域である顔領域の垂直方向の中心位置に対して、この顔画像でのこの顔領域の中心位置にあるべき箇所(顔器官中心位置)が水平方向にずれている場合、これを顔の水平方向の向きとして検出し、顔画像での肩から予め決められた高さの位置での部位の位置を基準位置とし、この基準位置にあるべき部位が上下方向に位置ずれた測定点にあるときには、推定される頭部の中心位置とこの測定点とを結ぶ直線のこの頭部の中心点を含む水平面からの角度を顔の垂直方向の向きとして検出する。そして、これらの検出した水平方向の向きと垂直方向の向きとから、顔の向きを求める。   In the technique described in Patent Document 4, the face image is acquired from the video of a person captured by a camera, and the face in the face image is obtained with respect to the center position in the vertical direction of the face area that is the face image area. If the location (facial organ center position) that should be at the center position of the region is shifted in the horizontal direction, this is detected as the horizontal orientation of the face, and at a position at a predetermined height from the shoulder in the face image If the position of this part is the reference position and the part that should be at this reference position is at a measurement point that is displaced in the vertical direction, the straight line connecting the estimated center position of this head and this measurement point The angle from the horizontal plane including the center point is detected as the vertical orientation of the face. Then, the orientation of the face is obtained from the detected horizontal direction and vertical direction.

このようにして、顔の向きが求まると、顔の向きに対する眼球の中心の向き(頭部の想定される中心位置と眼球の中心の位置とを結ぶ直線の方向)が求められ、この眼球の中心の向きが視線の方向となる。そして、このようにして求めた左右両目の視線の方向となり、これら視線の方向を重み付けして足し合わせることにより、この人物が観ている視線の方向が得られることになる。   When the orientation of the face is determined in this way, the orientation of the center of the eyeball relative to the orientation of the face (the direction of the straight line connecting the assumed center position of the head and the center position of the eyeball) is obtained. The direction of the center is the direction of the line of sight. And it becomes the direction of the line of sight of the left and right eyes obtained in this way, and the direction of the line of sight seen by this person can be obtained by weighting and adding the directions of these lines of sight.

特開2009−194480号公報JP 2009-194480 A 特開2007−286995号公報JP 2007-286995 A 特開2006−119408号公報JP 2006-119408 A 特開2009−104524号公報JP 2009-104524 A

上記の特許文献1に記載のように、デジタルサイネージを用いて商品の宣伝,広告を行なうようにした技術は既に知られており、また、特許文献2に記載のように、配列される商品に対する顧客の注目度を計測する技術も知られている。人物のかかる注目度を計測する方法としては、例えば、上記の特許文献4にも、その一例が紹介されている。   As described in Patent Document 1 above, a technology for advertising and advertising a product using digital signage is already known. Techniques for measuring customer attention are also known. As a method for measuring the attention level of a person, for example, Patent Document 4 described above also introduces an example thereof.

ところで、このように、顧客の商品に対する注目度を計測しても、この計測結果は商品を販売する店舗側にのみ利用されるものであって、顧客としては、陳列される商品や表示画面に表示される商品の画像を、同じ表示状態のままで、見るだけのものである。   By the way, even if the degree of attention to a customer's product is measured in this way, the measurement result is used only at the store side that sells the product. The image of the displayed product is only to be viewed while keeping the same display state.

顧客側としては、自動販売機や広告サイネージに表示されている商品の配列を見て商品を購入する場合、羅列された多くの商品の画像の中からから希望する商品を選択することになるが、表示される商品の画像が多くなるほど、表示される商品の画像のサイズは小さくなり、利用者がその中から希望する商品を見つけ出すことは手間と時間がかかるものであるし、また、誤った選択をする可能性もある。   On the customer side, when purchasing a product by looking at the arrangement of products displayed on the vending machine or advertising signage, the customer will select the desired product from the images of many products listed. , The larger the number of displayed product images, the smaller the size of the displayed product image, and it would be time consuming and time consuming for users to find the desired product. There is also the possibility of making a choice.

また、表示画面のサイズを大きくし、夫々の商品の画像を大きく表示することも考えられが、装置が大型化して高価なものとなるし、表示画面のサイズが大きくなると、利用者は希望する商品を見つけ出すために、表示画面の前で動きまわるような事態も生じかねない。   In addition, it is possible to increase the size of the display screen and display a large image of each product, but the device becomes larger and expensive, and the user desires that the size of the display screen increases. In order to find a product, there may be a situation where the user moves around in front of the display screen.

なお、上記特許文献3には、視聴者の視線方向を計測して最も注目している映像を主表示領域で拡大して表示するようにした技術が提案されているが、商品を販売するための自動販売機や広告サイネージでは、複数の商品の画像がすべて同じサイズで表示されているものであり、常に1つの商品の画像を拡大して表示されるようなことは行なわれないものである。   In Patent Document 3, a technique has been proposed in which the viewer's line-of-sight direction is measured and the most noticeable video is enlarged and displayed in the main display area. In vending machines and advertising signage, images of a plurality of products are all displayed at the same size, and an image of one product is not always enlarged and displayed. .

本発明は、以上のような点に鑑みとなされたものであって、その目的は、表示画面で表示される商品画面を利用する利用者の商品画面への注視結果をこの画面での表示形態にフィードバックし、利用者に好適な画面表示を提供することが可能とした商品選択支援方法を提供することにある。   The present invention has been made in view of the above points, and its purpose is to display a result of gazing on a product screen of a user who uses a product screen displayed on the display screen on this screen. And providing a product selection support method that can provide a user with a suitable screen display.

上記目的を達成するために、本発明は、商品情報を格納した商品情報記録部と、商品の画像を表わす商品画面を表示画面に表示する表示部と、商品画面を利用する利用者を撮影する撮像部と、撮像部で撮影された利用者の画像から利用者の視線方向を検出する視線方向計測部と、表示部に対する利用者の位置を計測する利用者位置計測部と、利用者による商品画面での商品画像に対する注視度を算出する注視度算出部とを備えた装置を用い、利用者位置計測部によって所定の領域内の利用者を検出されると、視線方向計測部により、利用者の表示画面への視線方向を検出し、利用者の位置と視線方向とから利用者の表示画面に表示される商品画面での商品の画像に対する注視度を算出し、表示画面のうちの注視度の高い商品の画像が含まれる注視領域を特定して、注視領域に含まれる商品の画像を強調表示し、利用者の商品の画像に対する注視度と強調表示した注視領域に含まれる商品の画像とにより、商品の画像に該当する商品毎の注視度を算出し、商品情報記録部に記録することを特徴とする。   To achieve the above object, the present invention photographs a product information recording unit that stores product information, a display unit that displays a product screen representing an image of the product on a display screen, and a user who uses the product screen. An imaging unit, a gaze direction measuring unit that detects a user's gaze direction from a user image captured by the imaging unit, a user position measuring unit that measures the user's position with respect to the display unit, and a product by the user When a user within a predetermined area is detected by the user position measuring unit using a device including a gaze degree calculating unit that calculates a gaze degree for a product image on the screen, the gaze direction measuring unit detects the user within the predetermined area. The direction of gaze on the display screen is detected, the gaze degree for the product image on the product screen displayed on the user's display screen is calculated from the user's position and gaze direction, and the gaze degree in the display screen Images of high-quality products are included Identify the viewing area, highlight the image of the product included in the gaze area, and correspond to the product image based on the degree of gaze on the product image of the user and the product image included in the highlighted gaze area A gaze degree for each product is calculated and recorded in a product information recording unit.

また、本発明は、強調表示が、注視度が高い商品の画像の拡大表示、または、商品の画像の近傍での当該商品の詳細情報の表示であることを特徴とする。   Further, the present invention is characterized in that the highlighting is an enlarged display of an image of a product with a high gaze degree or a display of detailed information of the product in the vicinity of the image of the product.

また、本発明は、強調表示が、注視度が高い商品の画像の拡大表示であって、拡大表示された商品の画像に対する利用者の視線方向と利用者の位置とを検出して、拡大表示された商品の画像に対する利用者の注視度を算出し、商品の画像を拡大表示中の表示画面のうち注視度の高い商品の画像を含む注視領域を特定し、注視領域に含まれる商品の画像をさらに拡大表示することを特徴とする。   Further, according to the present invention, the highlighted display is an enlarged display of an image of a product with a high gaze degree, and detects the user's line-of-sight direction and the position of the user with respect to the image of the enlarged product, Calculate the degree of user's gaze for the product image, identify the gaze area that contains the image of the product with high gaze degree on the display screen displaying the product image, and view the product image included in the gaze area Is further enlarged and displayed.

また、本発明は、強調表示が、注視度が高い商品の画像での当該商品の詳細情報の表示であって、表示された詳細情報のうち特定の詳細情報が選択されると、選択された詳細情報に該当する商品情報を検索して、表示部に選択可能に表示することを特徴とする。   Further, according to the present invention, the highlighting is a display of the detailed information of the product in the image of the product with a high gaze degree, and is selected when specific detailed information is selected from the displayed detailed information Product information corresponding to the detailed information is searched and displayed on the display section so as to be selectable.

また、本発明は、表示画面には、タッチパネルが設けられ、商品画面に表示される商品の画像がタッチ操作されることにより、タッチ操作された商品の画像に該当する商品の購入決定処理を行なうことを特徴とする。   Further, according to the present invention, the display screen is provided with a touch panel, and a purchase determination process of a product corresponding to the touched product image is performed by touching the product image displayed on the product screen. It is characterized by that.

また、本発明は、商品画面は、複数の商品の画像をスクロール表示し、利用者がサイネージに対する所定の領域内に検出されると、利用者の位置と利用者の視線方向とから、スクロール表示する商品画面での商品の画像に対する利用者の注視度を算出し、スクロール表示する商品画面での商品の画像のうち、注視度の高い商品の画像を商品画面の中心に停止して表示することを特徴とする。   Further, according to the present invention, the product screen scrolls and displays images of a plurality of products, and when the user is detected within a predetermined area with respect to the signage, the product screen is scrolled from the position of the user and the direction of the user's line of sight. Calculate the user's gaze degree for the product image on the product screen to be displayed, and stop and display the product image with the high gaze degree among the product images on the product screen to scroll display at the center of the product screen It is characterized by.

また、本発明は、商品情報記録部には、各商品毎の注視度及び各商品の販売履歴が記録され、商品の注視度及び販売実績のランキングを表示部で表示可能とすることを特徴とする。   Further, the present invention is characterized in that the merchandise information recording unit records the degree of gazing for each product and the sales history of each product, and enables the display unit to display the degree of gazing and sales performance of the product. To do.

また、本発明は、商品情報記録部には、詳細情報の選択履歴が記録され、選択された詳細情報のランキングを表示部で表示可能とすることを特徴とする。   Further, the present invention is characterized in that a selection history of detailed information is recorded in the product information recording unit, and the ranking of the selected detailed information can be displayed on the display unit.

本発明によると、複数の商品の画像が表示された商品画面での所定の商品の画像を注視するという動作だけでもって、商品画面での表示形態を利用者に好適なものとすることができ、利用者に手間をかけずに、この商品画面での希望する商品の選択を容易にかつ確実なものとする。   According to the present invention, it is possible to make the display form on the product screen suitable for the user only by the operation of gazing at the image of the predetermined product on the product screen on which a plurality of product images are displayed. Therefore, it is possible to easily and surely select a desired product on the product screen without taking time and effort for the user.

本発明による商品選択支援方法を実行するサイネージの一具体例としてのサイネージ自販機を示す外観斜視図である。It is an external appearance perspective view which shows the signage vending machine as a specific example of the signage which performs the goods selection assistance method by this invention. 本発明による商品選択支援方法を実行するサネージの一具体例としての広告サイネージとその設置状態とを示す外観斜視図である。It is an external appearance perspective view which shows the advertisement signage as a specific example of the signage which performs the goods selection assistance method by this invention, and its installation state. 図1に示すサイネージ自販機の動作の概略説明図である。It is a schematic explanatory drawing of operation | movement of the signage vending machine shown in FIG. 図2に示す広告サイネージの動作の概略説明図である。It is a schematic explanatory drawing of operation | movement of the advertisement signage shown in FIG. 図2に示す広告サイネージのブロック構成の一具体例を示す構成図である。It is a block diagram which shows a specific example of the block configuration of the advertisement signage shown in FIG. 図1に示すサイネージ自販機1のブロック構成の一具体例を示す構成図である。It is a block diagram which shows one specific example of the block configuration of the signage vending machine 1 shown in FIG. 図5,図6における空間情報記録部35に格納されている商品の注視データの一具体例を示す図である。It is a figure which shows an example of the gaze data of the goods stored in the spatial information recording part 35 in FIG. 5, FIG. サイネージに対する人物の位置に応じたサイネージの動作を概念的に示す図である。It is a figure which shows notionally the operation | movement of the signage according to the position of the person with respect to signage. 本発明による商品選択支援方法の第1の実施形態の処理の流れの一部を示す図である。It is a figure which shows a part of process flow of 1st Embodiment of the goods selection assistance method by this invention. 図9Aの処理に続いて実行される処理の流れの一具体例を示す図である。It is a figure which shows one specific example of the flow of the process performed following the process of FIG. 9A. 本発明による商品選択支援方法の第2の実施形態の処理の流れの一部を示す図である。It is a figure which shows a part of process flow of 2nd Embodiment of the goods selection assistance method by this invention. 本発明による商品選択支援方法の第3の実施形態の処理の流れに対する表示画面21での画面の流れ一部を示す図である。It is a figure which shows a part of screen flow on the display screen 21 with respect to the processing flow of 3rd Embodiment of the goods selection assistance method by this invention. 本発明による商品選択支援方法の第4の実施形態の処理の流れに対する図2における表示画面21での画面の流れ一部を示す図である。It is a figure which shows a part of screen flow on the display screen 21 in FIG. 2 with respect to the processing flow of 4th Embodiment of the goods selection assistance method by this invention. 本発明による商品選択支援方法の第5の実施形態の処理の流れに対する図2における表示画面21での画面の流れの一部を示す図である。It is a figure which shows a part of screen flow on the display screen 21 in FIG. 2 with respect to the processing flow of 5th Embodiment of the goods selection assistance method by this invention. 本発明による商品選択支援方法の第6の実施形態の処理の流れに対する図2における表示画面21での画面の流れの一部を示す図である。It is a figure which shows a part of screen flow on the display screen 21 in FIG. 2 with respect to the processing flow of 6th Embodiment of the goods selection assistance method by this invention. 本発明による商品選択支援方法の第7の実施形態での図2における表示画面21での画面の他の具体例を示す図である。It is a figure which shows the other specific example of the screen on the display screen 21 in FIG. 2 in 7th Embodiment of the goods selection assistance method by this invention. 本発明による商品選択支援方法の第8の実施形態での図2における表示画面21での画面の他の具体例を示す図である。It is a figure which shows the other specific example of the screen on the display screen 21 in FIG. 2 in 8th Embodiment of the goods selection assistance method by this invention. 本発明による商品選択支援方法の第9の実施形態の処理の流れに対する図2における表示画面21での画面の流れの一部を示す図である。It is a figure which shows a part of screen flow on the display screen 21 in FIG. 2 with respect to the processing flow of 9th Embodiment of the goods selection assistance method by this invention.

以下、本発明の実施形態を図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明による商品選択支援方法を実行するサイネージの一具体例としての自動販売機であるサイネージ自販機を示す外観斜視図であって、1はサイネージ自販機、2は表示画面、3はカメラ、4は操作部、5は現金投入口、6はカードタッチ部、7は釣銭取り出し口、8は商品取り出し口、9,10はスピーカ、11は利用者である。   FIG. 1 is an external perspective view showing a signage vending machine which is a vending machine as a specific example of a signage for executing a product selection support method according to the present invention, wherein 1 is a signage vending machine, 2 is a display screen, 3 is a camera, Reference numeral 4 is an operation unit, 5 is a cash slot, 6 is a card touch unit, 7 is a change outlet, 8 is a product outlet, 9 and 10 are speakers, and 11 is a user.

同図において、サイネージ自販機1は、その筐体の前面に、複数の商品の画像(図示せず)が配列されて表示される表示画面2が設けられており、その表示画面2の上側中央部にカメラ3が設けられ、また、表示画面2の下側に操作部4が夫々設けられており、さらに、この操作部4の下側の左右両側にスピーカ9,10が設けられている。   In the figure, the signage vending machine 1 is provided with a display screen 2 on which a plurality of product images (not shown) are arranged and displayed on the front surface of the casing. A camera 3 is provided, and an operation unit 4 is provided below the display screen 2, and speakers 9 and 10 are provided on both the left and right sides below the operation unit 4.

表示画面2は、その前に平均的な身長の利用者11が正面を向いてこの表示画面2の前に立ったとき、この利用者11の視線が表示画面2のほぼ中央の高さ位置を指すように、その高さ位置が設定されている。この表示画面2には、タッチパネル(図示せず)が設けられており、そこに表示されている商品の画像のうちのいずれかをタッチ操作でもって選択指定することができ、これにより、利用者11は、表示画面2で画像が表示される商品のうちから希望する商品を選択して購入することができる。   In the display screen 2, when a user 11 having an average height stands in front of the display screen 2 and stands in front of the display screen 2, the line of sight of the user 11 indicates the height position at the center of the display screen 2. The height position is set to point. The display screen 2 is provided with a touch panel (not shown), and any one of the images of the products displayed on the display screen 2 can be selected and specified by a touch operation. 11 can select and purchase a desired product from among products whose images are displayed on the display screen 2.

カメラ3は、この表示画面2の上側中央部の位置から、この表示画面2に表示された商品の画像を見るために、この表示画面2の前に立ち止まった利用者11やこの表示画面2の前をこの表示画面2を見ながら通り過ぎる利用者11の少なくとも顔を含む範囲を撮影できるように、その撮影範囲(視野範囲)が設定されている。カメラ3で撮影された利用者11の顔の画像は、表示画面2で画像が表示される商品の注視度を求めるのに用いられるものである。カメラ3は、この撮影範囲内に居るいずれの人物も撮影するが、このサイネージ自販機1から所定距離以上離れていてカメラ3で撮影して得られた顔の画像で眼や鼻,口などの顔の各部位を判別できないような場合には、かかる人物は表示画面2で表示される商品の画像を注視している利用者11とはせず、その顔の画像は注視度の算出に用いない。   In order to view the product image displayed on the display screen 2 from the position of the upper center portion of the display screen 2, the camera 3 stops the user 11 in front of the display screen 2 and the display screen 2. The shooting range (field of view range) is set so that the range including at least the face of the user 11 passing by while viewing the display screen 2 in the front can be shot. The image of the face of the user 11 photographed by the camera 3 is used to obtain the gaze degree of the product on which the image is displayed on the display screen 2. The camera 3 shoots any person within the shooting range, but the face, such as the eyes, nose, and mouth, is a face image obtained by shooting with the camera 3 at a predetermined distance or more away from the signage vending machine 1. In such a case, the person does not become the user 11 who is gazing at the product image displayed on the display screen 2, and the face image is not used for calculating the gaze degree. .

カメラ3で撮影された画像を画像認識処理することにより、利用者11とサイネージ自販機1との距離を検知し、その位置を検出するものであって、利用者11のサイネージ自販機1からの距離に応じて表示画面2での表示形態を変化される。   The image captured by the camera 3 is subjected to image recognition processing to detect the distance between the user 11 and the signage vending machine 1 and detect the position thereof. The distance of the user 11 from the signage vending machine 1 is detected. Accordingly, the display form on the display screen 2 is changed.

操作部4は、表示画面2でタッチ操作によって指定した商品を購入するためのものであって、現金投入口5とカードタッチ部6と釣銭取り出し口7と商品取り出し口8とを備えている。現金投入口5は、紙幣や貨幣を投入するためのものであって、ここで、図示しないが、紙幣の投入口と貨幣の投入口とからなる。カードタッチ部6は、クレジットカードなどのICカードを備えて商品の購入などに電子マネーを扱うカード(以下、電子マネーカードという)で購入商品の料金を支払うためのものであって、かかるカードをカードタッチ部6に触れさせることにより、購入商品の料金の支払いが行なわれる。現金投入口5で現金を投入することにより、あるいはカードタッチ部6にカードを触れさせることにより、表示画面2で指定された商品の画像の料金が支払われることになり、商品取り出し口8の内側にこの商品が排出されて、この商品取り出し口8から利用者11がこの商品を取り出すことができるし、お釣りがある場合には、その釣銭を釣銭取り出し口7で受け取ることができる。   The operation unit 4 is for purchasing a product specified by a touch operation on the display screen 2, and includes a cash insertion slot 5, a card touch unit 6, a change outlet 7, and a product outlet 8. The cash slot 5 is for inserting banknotes and money, and is composed of a banknote slot and a coin slot, although not shown. The card touch unit 6 is an IC card that is equipped with an IC card such as a credit card and handles electronic money for the purchase of goods (hereinafter referred to as an electronic money card). When the card touch unit 6 is touched, the price of the purchased product is paid. By inserting cash at the cash insertion slot 5 or by touching the card touch unit 6 with the card, the charge for the image of the product designated on the display screen 2 is paid, and the inside of the product withdrawal slot 8 When the product is discharged, the user 11 can take out the product from the product takeout port 8, and when there is a change, the change can be received at the change takeout port 7.

操作部4の下側の左右に設けられているスピーカ9,10は、表示画面2に画像が表示される商品の説明などをステレオ音声で出力する。   Speakers 9 and 10 provided on the left and right sides on the lower side of the operation unit 4 output a description of a product whose image is displayed on the display screen 2 in stereo sound.

図2は本発明による商品選択支援方法を実行するサイネージの一具体例としての広告表示板である広告サイネージとその設置状態とを示す外観斜視図であって、20は広告表示板、21は表示画面、22はカメラ、23,24はスピーカ、25は制御部、26は店舗のレジ(料金の支払をする場所)、26aはキャッシュレジスタ(料金の支払をする機械)、27は壁で、28はレジ係、29は利用者である。   FIG. 2 is an external perspective view showing an advertisement signage, which is an advertisement display board as a specific example of a signage for executing the product selection support method according to the present invention, and its installation state, wherein 20 is an advertisement display board, and 21 is a display. Screen, 22 is a camera, 23 and 24 are speakers, 25 is a control unit, 26 is a store cash register (a place for paying charges), 26a is a cash register (a machine for paying charges), 27 is a wall, 28 Is a cashier and 29 is a user.

同図において、ここでは、広告サイネージ20が、店舗内でのキャッシャレジスタ26aが設けられていて利用者29が料金の支払をするレジ29の前やその近くに居る利用者29が見ることができるように、レジ29の後ろの壁27の上部に取り付けられている。但し、これに限るものではなく、広告サイネージ20は店舗内の任意の場所の壁に取り付けられていてもよい。   In this figure, the advertisement signage 20 can be seen by the user 29 in front of or near the cash register 29 where the cashier register 26a in the store is provided and the user 29 pays the fee. Thus, it is attached to the upper part of the wall 27 behind the cash register 29. However, the present invention is not limited to this, and the advertising signage 20 may be attached to a wall at an arbitrary place in the store.

この広告サイネージ20は、複数の商品の画像を表示する表示画面21と、その上側中央に設けられたカメラ22と、表示画面21の裏側に取り付けられている制御部25とからなり、レジ係28で表示画面21が見えなくならないように、比較的高い位置に設置されており、このため、やや下向きの傾斜した状態で設置されている。これとともに、カメラ22も、この表示画面21の下向きの傾きに応じて、下向きに傾いており、その撮影範囲(視野範囲)も、レジ26の前やその近くに居るこの広告サイネージ20の利用者29の少なくとも顔を含む範囲を撮影できるように設定されている。   This advertising signage 20 includes a display screen 21 for displaying images of a plurality of products, a camera 22 provided at the upper center thereof, and a control unit 25 attached to the back side of the display screen 21. Therefore, the display screen 21 is installed at a relatively high position so as not to be invisible. For this reason, the display screen 21 is installed in a slightly inclined state. At the same time, the camera 22 is also tilted downward in accordance with the downward tilt of the display screen 21, and the shooting range (field of view range) is also in front of or near the cash register 26. 29 is set so that a range including at least the face can be photographed.

カメラ22の近くには、その左右両側にスピーカ23,24も設けられており、表示画面2に商品の画像が表示される商品の説明などをする音声が出力される。また、カメラ22で撮影された画像を画像認識処理することにより、利用者29と広告サイネージ20との距離を検知するものであって、この利用者29のレジ26からの距離に応じて広告サイネージ20の表示画面21での表示形態を変化させる。   Near the camera 22, speakers 23 and 24 are also provided on the left and right sides of the camera 22, and sound for explaining the product on which the product image is displayed on the display screen 2 is output. Further, the image captured by the camera 22 is subjected to image recognition processing to detect the distance between the user 29 and the advertisement signage 20, and the advertisement signage according to the distance of the user 29 from the cash register 26. The display form on the 20 display screens 21 is changed.

図3は図1に示すサイネージ自販機1の動作の概略説明図であって、11aは利用者11の視線であり、図1に対応する部分には同一符号をつけて重複する説明を省略する。   FIG. 3 is a schematic explanatory diagram of the operation of the signage vending machine 1 shown in FIG. 1, in which 11a is the line of sight of the user 11, and the same reference numerals are given to the portions corresponding to those in FIG.

同図において、カメラ3はその撮影範囲(なお、ここでは、左右方向について破線で示しているが、上下方向にも範囲がある。なお、一点鎖線は、カメラ3の視野の中心の方向を示すものである)内の撮影を常時行なっており、利用者11がサイネージ自販機1に近づいてカメラ3の撮影範囲内に入ると、上記のように、カメラ3が撮影したこの利用者11の顔の画像を基に、この利用者11の表示画面2への注視方向としての表示画面2に向かう視線11aの方向を検出し、これを基に、この利用者11が注視している表示画面2に表示されている商品の画像(図示せず)を判定する。この判定を基に、利用者11によって注視された商品の画像に該当する商品の注視度が求められる。   In the same figure, the camera 3 has its shooting range (here, it is indicated by a broken line in the left-right direction, but there is also a range in the up-down direction. The alternate long and short dash line indicates the direction of the center of the field of view of the camera 3. When the user 11 approaches the signage vending machine 1 and enters the shooting range of the camera 3, as described above, the face of the user 11 taken by the camera 3 is captured. Based on the image, the direction of the line of sight 11a toward the display screen 2 as the gaze direction on the display screen 2 of the user 11 is detected, and based on this, the display screen 2 on which the user 11 is gazing is displayed. An image (not shown) of the displayed product is determined. Based on this determination, the gaze degree of the product corresponding to the image of the product watched by the user 11 is obtained.

このようにして、表示画面2に画像が表示される商品の注視度が求められ、かかる注視度に応じて表示画面2での表示形態が変更され、利用者11の表示画面2への注視結果が表示画面21での表示にフィードバックされる。   In this way, the gaze degree of the product whose image is displayed on the display screen 2 is obtained, the display form on the display screen 2 is changed according to the gaze degree, and the gaze result of the user 11 on the display screen 2 Is fed back to the display on the display screen 21.

図4は図2に示す広告サイネージ20の動作の概略説明図であって、29aは利用者29の視線であり、図1に対応する部分には同一符号をつけて重複する説明を省略する。   FIG. 4 is a schematic explanatory diagram of the operation of the advertisement signage 20 shown in FIG. 2, where 29 a is the line of sight of the user 29, and parts corresponding to those in FIG.

この広告サイネージ20についても、図3に示すサイネージ自販機1と同様であるが、図4において、カメラ22はその撮影範囲(なお、ここでは、左右方向について破線で示しているが、上下方向にも範囲がある。なお、一点鎖線は、カメラ22の視野の中心の方向を示すものである)内の撮影を常時行なっており、利用者29がレジ26に近づいてカメラ22の撮影範囲内に入ると、上記のように、カメラ22が撮影したこの利用者29の顔の画像を基に、この利用者29の表示画面21への注視方向としての表示画面21に向かう視線29aの方向を検出し、これを基に、この利用者29が注視している表示画面21に表示されている商品の画像(図示せず)を判定する。この判定を基に、利用者29によって注視された商品の画像に該当する商品の注視度が求められる。   This advertising signage 20 is also the same as the signage vending machine 1 shown in FIG. 3, but in FIG. 4, the camera 22 is shown in the shooting range (here, the horizontal direction is indicated by a broken line, but also in the vertical direction) (The alternate long and short dash line indicates the direction of the center of the field of view of the camera 22), and the user 29 approaches the register 26 and enters the shooting range of the camera 22 at all times. As described above, the direction of the line of sight 29a toward the display screen 21 as the gaze direction of the user 29 on the display screen 21 is detected based on the face image of the user 29 captured by the camera 22. Based on this, an image (not shown) of the product displayed on the display screen 21 that the user 29 is gazing at is determined. Based on this determination, the gaze degree of the product corresponding to the image of the product watched by the user 29 is obtained.

このようにして、表示画面21に画像が表示される商品の注視度が求められ、かかる注視度に応じて表示画面21での表示形態が変更されるものであり、利用者29の表示画面21への注視結果が表示画面21での表示にフィードバックされる。   In this way, the gaze degree of the product whose image is displayed on the display screen 21 is obtained, and the display form on the display screen 21 is changed according to the gaze degree, and the display screen 21 of the user 29 is displayed. The result of gazing at is fed back to the display on the display screen 21.

次に、図1に示すサイネージ自販機1と図2に示す広告サイネージ20とのブロック構成について説明するが、サイネージ自販機1のブロック構成はその一部を広告サイネージ20のブロック構成とするものであるから、まず、広告サイネージ20のブロック構成について説明する。   Next, the block configuration of the signage vending machine 1 shown in FIG. 1 and the advertising signage 20 shown in FIG. 2 will be described. The block configuration of the signage vending machine 1 is a part of the block configuration of the advertising signage 20. First, the block configuration of the advertisement signage 20 will be described.

図5は図2に示す広告サイネージ20のブロック構成の一具体例を示す構成図であって、30は注目度計測部、31は撮像部、32は人物位置計測部、33は視線方向計測部、34は注視位置情報算出部、35は空間情報記録部、36は注視度算出部、37は集計部、38は入力部、39は出力制御部、40は出力部、41は表示フィードバック部、42は表示装置、43は表示集計部、44はスピーカ部、45は端末記憶部、46は端末制御部、47は履歴DB(データベース)サーバ、48は端末通信部、49は電源部である。   FIG. 5 is a block diagram showing a specific example of the block configuration of the advertisement signage 20 shown in FIG. 2, wherein 30 is an attention level measurement unit, 31 is an imaging unit, 32 is a person position measurement unit, and 33 is a gaze direction measurement unit. , 34 is a gaze position information calculation unit, 35 is a spatial information recording unit, 36 is a gaze degree calculation unit, 37 is a totaling unit, 38 is an input unit, 39 is an output control unit, 40 is an output unit, 41 is a display feedback unit, Reference numeral 42 denotes a display device, 43 denotes a display tabulation unit, 44 denotes a speaker unit, 45 denotes a terminal storage unit, 46 denotes a terminal control unit, 47 denotes a history DB (database) server, 48 denotes a terminal communication unit, and 49 denotes a power supply unit.

同図において、広告サイネージ20は、その内部に注視度計測部30と表示フィードバック部41とを備えている。注視度計測部30は、先に挙げた特許文献2(特開2007ー286995号公報)に記載の注目度計測装置と同様の構成をなすものであるが、まず、注視度計測部30について説明する。   In the figure, the advertisement signage 20 includes a gaze degree measuring unit 30 and a display feedback unit 41 therein. The gaze degree measurement unit 30 has the same configuration as the attention level measurement device described in Patent Document 2 (Japanese Patent Application Laid-Open No. 2007-28695) described above. First, the gaze degree measurement unit 30 will be described. To do.

注視度計測部30は、カメラ22(図2)を備えた撮像部31と、人物位置計測部32と、視線方向計測部33と、注視位置情報算出部34と、空間情報記録部35と、注視度算出部36と、集計部37と、入力部38と、出力制御部39と、出力部40とから構成されている。   The gaze degree measurement unit 30 includes an imaging unit 31 provided with a camera 22 (FIG. 2), a person position measurement unit 32, a gaze direction measurement unit 33, a gaze position information calculation unit 34, a spatial information recording unit 35, The gaze degree calculating unit 36, the totaling unit 37, the input unit 38, the output control unit 39, and the output unit 40 are included.

撮像部31では、図4で示すように、カメラ22(図2)が利用者29(図2)を撮像し、その撮像によって得られた動画の画像信号を処理して視線方向計測部33に供給する。また、人物位置計測部32は、カメラ22で得られる画像信号から利用者19までの距離を計測することにより、利用者29の位置を表わす位置情報を取得し、視線方向計測部33に供給する。視線方向計測部33は、撮像部31から供給された画像信号から利用者29の肩の部分も含めた顔の部分の画像(顔画像)を抽出するとともに、この利用者29の顔での眼の位置を抽出し、この顔の画像から利用者29の表示画面21(図2)に対する顔の左右方向,上下方向の向きを計測して、この顔の画像での瞳の位置などを基に、この利用者29の視線方向を計測する。   In the imaging unit 31, as shown in FIG. 4, the camera 22 (FIG. 2) images the user 29 (FIG. 2), processes the image signal of the moving image obtained by the imaging, and sends it to the gaze direction measuring unit 33. Supply. The person position measurement unit 32 measures the distance from the image signal obtained by the camera 22 to the user 19, thereby acquiring position information indicating the position of the user 29 and supplies the position information to the gaze direction measurement unit 33. . The line-of-sight direction measurement unit 33 extracts an image (face image) of the face portion including the shoulder portion of the user 29 from the image signal supplied from the image pickup unit 31, and the eyes on the face of the user 29. The position of the face is extracted from the face image, and the horizontal and vertical directions of the face with respect to the display screen 21 (FIG. 2) of the user 29 are measured. Based on the position of the pupil in the face image, etc. The line-of-sight direction of the user 29 is measured.

空間情報記録部35には、表示画面21上の座標系の情報や広告サイネージ20の表示画面21で表示される各商品の画像の座標範囲を示す情報が格納されている。この商品の画像の表示画面21上での表示位置座標は、この表示画面21上の座標系での座標で表わされている。また、空間情報記録部35には、表示画面21で表示された各商品毎の注視度のデータ(以下、商品別注視データという)や、現在広告サイネージ20の前で表示画面21を見ている利用者11の各商品に対する注視度の商品別注視データ(以下、利用者別注視データという)が格納されており、視線方向計測部33の計測結果や注視位置情報算出部34,注視度算出部36での算出結果に応じてこれらは更新される。   The spatial information recording unit 35 stores information on the coordinate system on the display screen 21 and information indicating the coordinate range of each product image displayed on the display screen 21 of the advertisement signage 20. The display position coordinates of the product image on the display screen 21 are represented by coordinates in the coordinate system on the display screen 21. In addition, the spatial information recording unit 35 looks at the display screen 21 in front of the data of the degree of gazing for each product displayed on the display screen 21 (hereinafter referred to as product-specific gazing data) or the current advertisement signage 20. Product-specific gaze data (hereinafter referred to as user-specific gaze data) for each product of the user 11 is stored, and the measurement result of the gaze direction measurement unit 33, the gaze position information calculation unit 34, and the gaze degree calculation unit These are updated according to the calculation result at 36.

注視位置情報算出部34は、視線方向計測部33で得られた視線方向と利用者29の眼の位置と人物位置計測部32から供給される利用者29の位置情報とに基づき、また、空間情報記録部35に格納している表示画面上の座標系を用いて、図4で説明したように、利用者29の視線と表示画面21とが交差する点、即ち、注視点(注目点)の位置座標を算出する。   The gaze position information calculation unit 34 is based on the gaze direction obtained by the gaze direction measurement unit 33, the eye position of the user 29, and the position information of the user 29 supplied from the person position measurement unit 32. Using the coordinate system on the display screen stored in the information recording unit 35, as described with reference to FIG. 4, the point where the line of sight of the user 29 intersects the display screen 21, that is, the point of interest (attention point). The position coordinates of are calculated.

注視度算出部36は、注視位置情報算出部34で算出された注視点が含まれる座標範囲の商品の画像を空間情報記録部35で検索し、検索した商品の画像に対する注視度を算出する。また、注視度算出部36は、算出した注視度を空間情報記録部35に供給し、この空間情報記録部35に記憶されている該当する商品の商品別注視データや利用者別注視データを更新する。   The gaze degree calculation unit 36 searches the spatial information recording unit 35 for an image of the product in the coordinate range including the gaze point calculated by the gaze position information calculation unit 34, and calculates the gaze degree for the searched product image. The gaze degree calculation unit 36 supplies the calculated gaze degree to the spatial information recording unit 35, and updates the product-specific gaze data and the user-specific gaze data of the corresponding product stored in the spatial information recording unit 35. To do.

ここで、かかる注視データ(商品別注視データや利用者別注視データの総称)は、後述するように、この商品の画像が表示開始されてからの注視人数や注視回数,注視時間などで表わされるものであり、商品の注視度はかかる注視回数や注視時間などであらわされる。商品別注視データに基づく注視度は、その商品の注視人数の合計や注視回数の累計,注視時間の累計などで表わされ、利用者別注視データに基づく商品の注視度は、この利用者29が広告サイネージ20で認識されてから認識されなくなるまでの商品に対する注視回数や注視時間などで表わされる。かかる注目度は、利用者が商品を注視している限り、時間の経過とともに、空間情報記録部35での注視データの更新に伴って更新される。   Here, the gaze data (generic name of product-specific gaze data and user-specific gaze data) is expressed by the number of gazes, the number of times of gaze, the gaze time, etc. since the display of the product image, as will be described later. The degree of gazing of the product is expressed by the number of gazing times and the gazing time. The gaze degree based on the product-specific gaze data is represented by the total number of gazes of the product, the total number of gazes, the total gaze time, etc. The gaze degree of the product based on the user-specific gaze data is the user 29 Is represented by the number of times of gazing and the gazing time for the product from when it is recognized by the advertisement signage 20 until it is no longer recognized. As long as the user is gazing at the product, the degree of attention is updated as time passes and the gaze data is updated in the spatial information recording unit 35.

このようにして、新たに注視された商品の画像に対しては、注視度が更新されるので、空間情報記録部35には、夫々の商品の画像に対して、常に最新の注視データが保存されていることになる。   In this way, since the degree of gaze is updated for the image of the newly watched product, the latest gaze data is always stored in the spatial information recording unit 35 for each product image. Will be.

空間情報記録部35に保存されているこのときの利用者29の利用者別注視データから、表示画面21(図2)に表示されている商品の画像毎に所定のデータが出力制御部39によって読み出され、この利用者29による商品毎の注目度として、出力部40から表示フィードバック部41に出力される。   From the user-specific gaze data of the user 29 stored in the spatial information recording unit 35 at this time, predetermined data is output by the output control unit 39 for each product image displayed on the display screen 21 (FIG. 2). This is read and output from the output unit 40 to the display feedback unit 41 as the degree of attention of each product by the user 29.

なお、商品別注視データによる商品の注目度としては、その注視データでの注目人数の合計,注目回数の合成,注目時間の合計のいずれ可であってもよいし、また、これらに基づいて算出された値(例えば、各利用者毎の注目回数と注目時間とを乗算した値を合計した値など)であってもよい。利用者別注視データによる商品の注目度についても、同様である。かかる計算は、出力制御部39で行なわれる。   Note that the degree of product attention based on the product-specific gaze data may be any of the total number of people in the gaze data, the composition of the number of times of attention, or the total time of interest. It may be a value (for example, a value obtained by summing values obtained by multiplying the number of times of attention and the time of attention for each user). The same applies to the degree of product attention based on the user-specific gaze data. Such calculation is performed by the output control unit 39.

入力部38では、表示フィードバック部41から表示画面21に表示されている商品の画像に関する情報(IDや表示画面21上での位置座標など)が入力され、集計部37を介して空間記録部35に供給される。集計部37では、かかる商品の画像に関する情報が保持されており、出力制御部39は、集計部37での商品の画像に関する情報を基に、現在表示画面21で表示されている商品の画像の注視度を検索する。   In the input unit 38, information related to the image of the product displayed on the display screen 21 (ID, position coordinates on the display screen 21, etc.) is input from the display feedback unit 41, and the spatial recording unit 35 via the counting unit 37. To be supplied. The totaling unit 37 holds information related to the product image. The output control unit 39 stores the product image currently displayed on the display screen 21 based on the information related to the product image in the totaling unit 37. Search for gaze degree.

かかる注視データは、注視度算出部36が注視位置情報算出部34で算出された注視点が含まれる座標範囲の商品の画像を空間情報記録部35で検索し、検索した商品の画像に該当する商品に対して算出したものであり、かかる注視データは空間情報記録部35に記録され、利用者29がその商品の画像を注視する毎に、このときの注視データが作成されて空間情報記録部35に追加記録される。   The gaze data corresponds to the image of the product searched by the spatial information recording unit 35 by searching the image of the product in the coordinate range including the gaze point calculated by the gaze position information calculation unit 34 by the gaze degree calculation unit 36. The gaze data is calculated for the product, and the gaze data is recorded in the spatial information recording unit 35. Every time the user 29 gazes the image of the product, the gaze data at this time is generated and the spatial information recording unit 35 is additionally recorded.

次に、表示フィードバック部41は、表示画面21(図2)を有する表示装置42と、表示集計部43と、スピーカ24(図2)を備えたスピーカ部44と、端末記憶部45と端末制御部46とから構成される。   Next, the display feedback unit 41 includes a display device 42 having a display screen 21 (FIG. 2), a display totaling unit 43, a speaker unit 44 having a speaker 24 (FIG. 2), a terminal storage unit 45, and terminal control. Part 46.

端末制御部46は、端末通信部48を介して、履歴DBサーバ47と接続されており、この履歴DBサーバ47には、表示画面21で表示された商品の画像の情報や表示されている商品の画像の情報が蓄積されている。また、この端末制御部46は表示画面21での各商品の画像の表示位置を指定し、表示画面21では、各商品の画像がこの指定された表示位置に表示される。この各商品の画像の表示位置は、また、表示集計部43で集計され、注視度計測部20の入力部38に供給される。これにより、注視度計測部20での出力制御部39は、その集計部37を介して、表示画面21で現在表示されている商品の画像を確認することができる。   The terminal control unit 46 is connected to the history DB server 47 via the terminal communication unit 48, and the history DB server 47 stores information on the image of the product displayed on the display screen 21 and the displayed product. Image information is stored. Further, the terminal control unit 46 designates the display position of each product image on the display screen 21, and on the display screen 21, the image of each product is displayed at the designated display position. The display position of the image of each product is also aggregated by the display aggregation unit 43 and supplied to the input unit 38 of the gaze degree measurement unit 20. Thereby, the output control unit 39 in the gaze degree measurement unit 20 can confirm the image of the product currently displayed on the display screen 21 via the totaling unit 37.

また、新たな商品を表示画面21に表示させる場合には、その画像情報が履歴DBサーバ47に格納され、これとともに、その画像情報が端末通信部48を介して端末制御部46に供給される。端末制御部46は、その商品の画像を、表示画面21での表示位置を指定して、表示装置42の表示画面21に表示させる。表示集計部43では、この新たに表示画面21で表示させる商品の画像に関する情報が追加集計される。   Further, when a new product is displayed on the display screen 21, the image information is stored in the history DB server 47 and the image information is supplied to the terminal control unit 46 via the terminal communication unit 48. . The terminal control unit 46 displays the product image on the display screen 21 of the display device 42 by designating the display position on the display screen 21. In the display totaling unit 43, information relating to the product image to be newly displayed on the display screen 21 is additionally totalized.

なお、表示画面21では、そこでスクロール表示されて各商品の画像が表示されたり、表示されなかったりする場合もあるので、図示しない入力部から商品の画像の表示を中止するとの指示がない限り、注視度計測部30での空間情報記録部では、商品の画像の削除は行なわれない。ある商品の画像の表示を中止するとの指示があった場合には、その表示中止の指示があった商品の画像に関する情報が空間情報記録部35から削除される。   On the display screen 21, there may be a case where the image of each product is displayed by scrolling there, or it may not be displayed. Therefore, unless there is an instruction to stop displaying the product image from an input unit (not shown), The spatial information recording unit in the diopter measurement unit 30 does not delete the product image. When there is an instruction to cancel the display of an image of a certain product, information regarding the image of the product for which the display stop instruction has been issued is deleted from the spatial information recording unit 35.

端末記憶部45には、注視度計測部30の出力部40から出力される表示画面21に表示されている商品の画像の注視度が格納される。端末制御部46は、この端末記憶部45に格納された商品の画像の注視度を取得し、夫々の商品の画像の注視度に応じて、表示画面21での商品の画像の表示の仕方を制御する。即ち、表示画面21に対する利用者26の注視結果が、この表示画面21の表示にフィードバックされることになる。   The terminal storage unit 45 stores the gaze degree of the product image displayed on the display screen 21 output from the output unit 40 of the gaze degree measurement unit 30. The terminal control unit 46 acquires the degree of gaze of the product image stored in the terminal storage unit 45, and determines how to display the product image on the display screen 21 according to the degree of gaze of each product image. Control. That is, the result of the user's gaze on the display screen 21 is fed back to the display on the display screen 21.

また、端末記憶部45には、宣伝などのための音声の各種メッセージ情報も記憶されており、端末制御部46の制御のもとに、表示画面21での表示内容に応じて端末記憶部45から該当するメッセージ情報が呼び出され、スピーカ部44に供給される。スピーカ部44では、このメッセージ情報が音声情報に変換されて、スピーカ24(図2)からこのメッセージが音声で出力される。   The terminal storage unit 45 also stores various kinds of voice message information for advertising and the like, and the terminal storage unit 45 is controlled according to the display content on the display screen 21 under the control of the terminal control unit 46. Corresponding message information is called from and supplied to the speaker unit 44. In the speaker unit 44, the message information is converted into audio information, and the message is output as audio from the speaker 24 (FIG. 2).

また、電源のオン操作が行なわれると、電源部49から注視度計測部30や表示フィードバック部41,端末通信部48,履歴DBサーバ47などの各部に電源が投入され、電源のオフ操作が行なわれると、これら各部への電源投入が中止される。   When the power is turned on, power is turned on from the power unit 49 to the gaze degree measuring unit 30, the display feedback unit 41, the terminal communication unit 48, the history DB server 47, and the like, and the power is turned off. When the power is turned on, the power supply to these parts is stopped.

注視度計測部30や表示フィードバック部41,端末通信部48,履歴DBサーバ47などの各部は、撮像部31でのカメラ22(図2)や表示装置42,スピーカ部44を除いて、制御部25(図2)をなしている。   Each unit such as the diopter measurement unit 30, the display feedback unit 41, the terminal communication unit 48, and the history DB server 47 is a control unit except for the camera 22 (FIG. 2), the display device 42, and the speaker unit 44 in the imaging unit 31. 25 (FIG. 2).

図6は図1に示すサイネージ自販機1のブロック構成の一具体例を示す構成図であって、50は操作フィードバック部、51はタッチパネル部、52は操作集計部、53は個人認証部、54は利用者集計部、55は決済処理部、56は購入集計部、57は商品搬送部、58は商品保管部であり、図5に対応する部分には同一符号を付けて重複する説明を省略する。   FIG. 6 is a block diagram showing a specific example of the block configuration of the signage vending machine 1 shown in FIG. 1, wherein 50 is an operation feedback unit, 51 is a touch panel unit, 52 is an operation counting unit, 53 is a personal authentication unit, and 54 is A user totaling unit, 55 is a settlement processing unit, 56 is a purchase totaling unit, 57 is a product transporting unit, and 58 is a product storage unit, and parts corresponding to those in FIG. .

同図において、このサイネージ自販機1は、注目度計測部30と表示フィードバック部41と操作フィードバック部50と商品搬送部57と商品保管部58と履歴DBサーバ47と端末通信部48と電源部49とで構成されているが、注目度計測部30と表示フィードバック部41と履歴DBサーバ47と端末通信部48と電源部49とは、図5に示す広告サイネージ20に設けられているものと同様のものであるので、その説明を省略する。但し、サイネージ自販機1では、注目度計測部30での撮像部31は図1に示すカメラ3を備え、表示装置42は同じく表示画面2を備えており、スピーカ部44は同じくスピーカ9,10を備えている。   In this figure, the signage vending machine 1 includes an attention level measurement unit 30, a display feedback unit 41, an operation feedback unit 50, a product transport unit 57, a product storage unit 58, a history DB server 47, a terminal communication unit 48, and a power supply unit 49. However, the attention level measurement unit 30, the display feedback unit 41, the history DB server 47, the terminal communication unit 48, and the power supply unit 49 are the same as those provided in the advertisement signage 20 shown in FIG. Since it is a thing, the description is abbreviate | omitted. However, in the signage vending machine 1, the imaging unit 31 in the attention level measuring unit 30 includes the camera 3 shown in FIG. 1, the display device 42 includes the display screen 2, and the speaker unit 44 also includes the speakers 9 and 10. I have.

操作フィードバック部50は、図1に示すサイネージ自販機1での利用者11の操作を検出し、その操作に応じた処理を実行する部分であり、タッチパネル部51と個人認証部53と決済処理部55とを備えている。   The operation feedback unit 50 is a part that detects the operation of the user 11 in the signage vending machine 1 shown in FIG. 1 and executes a process according to the operation. The touch panel unit 51, the personal authentication unit 53, and the payment processing unit 55. And.

タッチパネル部51は、表示画面2(図1)に設けられているタッチパネルを備えており、この表示画面2での利用者11のタッチ操作を検出するとともに、表示画面2でのタッチ位置を検出する。かかるタッチ位置データは、タッチ操作が行なわれたことを通知する情報とともに、操作集計部52で集計される。この通知情報は端末制御部46に供給される。端末制御部52は、その通知情報を受信すると、表示画面2で利用者11によるタッチ操作が行なわれたことを認知して、操作集計部52からタッチ位置データを取得し、表示フィードバック部41の表示集計部43でそのとき集計されている表示画面2で表示される各商品の画像の位置データとを照合し、このタッチ位置データが示す表示画面2上でのタッチ位置がかかる商品の画像のいずれを示すものであるかを判定する。これにより、表示画面2での利用者11が指し示す商品が確認される。   The touch panel unit 51 includes a touch panel provided on the display screen 2 (FIG. 1). The touch panel unit 51 detects a touch operation of the user 11 on the display screen 2 and detects a touch position on the display screen 2. . The touch position data is totaled by the operation totaling unit 52 together with information notifying that a touch operation has been performed. This notification information is supplied to the terminal control unit 46. Upon receiving the notification information, the terminal control unit 52 recognizes that the touch operation by the user 11 has been performed on the display screen 2, acquires touch position data from the operation totaling unit 52, and displays the display feedback unit 41. The display totaling unit 43 collates the position data of the image of each product displayed on the display screen 2 that is being aggregated at that time, and the image of the product for which the touch position on the display screen 2 indicated by the touch position data is applied. Which one is shown is determined. Thereby, the product indicated by the user 11 on the display screen 2 is confirmed.

端末制御部46は、利用者11が指し示す商品を確認すると、端末記憶部45に記憶されている画像情報を基に、この確認した商品を購入するための購入画面を作成し、表示装置42に供給して表示画面2に表示させる。このように、購入画面を表示させることにより、利用者11は支持した購入希望商品とそのために支払う購入金額などを知ることができる。   Upon confirming the product pointed to by the user 11, the terminal control unit 46 creates a purchase screen for purchasing the confirmed product based on the image information stored in the terminal storage unit 45, and displays it on the display device 42. To be displayed on the display screen 2. In this way, by displaying the purchase screen, the user 11 can know the supported purchase desired product and the purchase amount paid for it.

個人認識部53は、サイネージ自販機1がカードや携帯電話などの個人認証・決済機能対応自販機であって、現金による購入以外の電子決済を行なう利用者11が利用できるように、設けられているものである。この場合には、図1に示すサイネージ自販機1において、カードタッチ部6がICカードをタッチさせる操作手段となり、かかるタッチカード部7を個人認識部53が備えている。かかる認証カードとしては、電子マネー機能を備えたものであってもよい。   The personal recognition unit 53 is provided so that the signage vending machine 1 is a vending machine supporting personal authentication / settlement function such as a card or a mobile phone, and can be used by a user 11 who performs electronic settlement other than purchase by cash. It is. In this case, in the signage vending machine 1 shown in FIG. 1, the card touch unit 6 serves as an operating means for touching the IC card, and the personal recognition unit 53 includes the touch card unit 7. Such an authentication card may have an electronic money function.

利用者11がそのカードをタッチカード部7にタッチすると、個人認識部53はこのカードから利用者11の個人情報を読み取り、個人認識を行なってこの利用者11が登録者であるか否かを判定する。この認識結果は、読み取られた個人情報とともに、利用者集計部54で集計されて端末制御部46に供給される。端末制御部46は、かかる認識結果を基に、タッチパネル部51で検出されたタッチ操作をした利用者11が登録者であるか否かを判定する。   When the user 11 touches the card on the touch card unit 7, the personal recognition unit 53 reads the personal information of the user 11 from the card, performs personal recognition, and determines whether or not the user 11 is a registrant. judge. The recognition results are totaled by the user totaling unit 54 and supplied to the terminal control unit 46 together with the read personal information. The terminal control unit 46 determines whether or not the user 11 who has performed the touch operation detected by the touch panel unit 51 is a registrant based on the recognition result.

決済処理部55は、操作部4(図1)の現金投入口5,カードタッチ部6,釣銭取り出し口7を備えており、現金投入口5やカードタッチ部6から指定した商品を購入するための料金が支払われると、支払われた料金を検出して、釣銭が必要である場合には、釣銭を算出し、購入集計部56がこれら支払料金や釣銭の情報を集計する。この集計された情報は端末制御部46に供給される。端末制御部46は、かかる集計情報から、利用者11が料金を支払ったことや釣銭があることなどを認識する。   The settlement processing unit 55 includes a cash insertion slot 5, a card touch unit 6, and a change withdrawal slot 7 of the operation unit 4 (FIG. 1), in order to purchase a specified product from the cash insertion slot 5 or the card touch unit 6. When the fee is paid, the paid fee is detected, and when change is required, change is calculated, and the purchase counting unit 56 totals the payment fee and change information. This aggregated information is supplied to the terminal control unit 46. The terminal control unit 46 recognizes from the total information that the user 11 has paid a fee and that there is a change.

端末制御部46は、表示画面2で表示される商品の画像夫々の商品の値段のデータを保持しており、操作集計部52から表示画面2で利用者11が購入希望商品の画像をタッチ操作によって指定したことを検出すると、購入集計部56からの情報を基に、利用者11によって指定された商品の画像に該当する商品を購入するための料金が支払われたか否か判定し、支払われたことが認識されたときには、釣銭の有無を判定し、釣銭が必要な場合には、その釣銭を算出する。そして、端末制御部46は、決済処理部55に、料金が支払われた旨を通知する情報とともに、釣銭が必要な場合には、その釣銭の金額を、購入集計部56を介して供給する。   The terminal control unit 46 holds the price data of each product image displayed on the display screen 2, and the user 11 touches the image of the desired purchase product on the display screen 2 from the operation totaling unit 52. Is detected based on the information from the purchase counting unit 56, it is determined whether or not a fee for purchasing the product corresponding to the product image specified by the user 11 has been paid. When it is recognized that there is a change, it is determined whether or not there is change. If change is required, the change is calculated. Then, the terminal control unit 46 supplies the change processing unit 55 with the information for notifying that the fee has been paid and the change amount when the change is necessary through the purchase counting unit 56.

なお、利用者11が、支払金額が足りないなどして、その指定商品を購入に必要な料金を支払わない場合には、端末制御部46は、スピーカ部44を駆動させ、その旨の音声情報を端末記憶部45から読み出してスピーカ部44に供給し、スピーカ9,10(図1)から支払料金の追加を通知する音声メッセージを出力する。同時に、同様にして、表示装置42を制御し、表示画面2に同様の通知メッセージを表示するようにしてもよい。   When the user 11 does not pay the fee required for purchasing the designated product because the payment amount is insufficient, the terminal control unit 46 drives the speaker unit 44 to notify the voice information to that effect. Is read from the terminal storage unit 45, supplied to the speaker unit 44, and a voice message notifying the addition of the payment fee is output from the speakers 9, 10 (FIG. 1). At the same time, similarly, the display device 42 may be controlled to display a similar notification message on the display screen 2.

利用者11が表示画面2での購入する旨のタッチ操作をすると、タッチパネル部51から端末制御装置46にそのタッチ操作が通知され、端末制御部46は、料金の支払が済まされて、利用者11が指定した商品を販売してもよいと判定した場合には、その旨を決済処理部55と商品保管部58とに通知する。決済処理部55は、釣銭がある場合、この釣銭を、釣銭取り出し口7(図1)から利用者11が取り出せるように、排出する。   When the user 11 performs a touch operation for purchase on the display screen 2, the touch operation is notified from the touch panel unit 51 to the terminal control device 46, and the terminal control unit 46 is paid the fee, and the user When it is determined that the product designated by 11 can be sold, the settlement processing unit 55 and the product storage unit 58 are notified of the fact. When there is change, the settlement processing unit 55 discharges the change so that the user 11 can take out the change from the change outlet 7 (FIG. 1).

商品保管部58には、表示画面2に画像が表示される全ての商品が保管されており、商品搬送部57は商品保管部58に保管されている商品を商品取り出し口8(図1)に搬送する。そこで、端末制御部46から利用者11が購入希望の商品の販売の指示があると、商品搬送部57は商品保管部58に保管されているこの商品を搬送し、商品取り出し口8からこの商品を利用者11が取り出せるようにする。   All the products whose images are displayed on the display screen 2 are stored in the product storage unit 58, and the product transport unit 57 stores the products stored in the product storage unit 58 in the product takeout port 8 (FIG. 1). Transport. Therefore, when the user 11 instructs the terminal 11 to sell a product that the user 11 desires to purchase, the product transport unit 57 transports the product stored in the product storage unit 58, and this product from the product takeout port 8. Can be taken out by the user 11.

なお、このサイネージ自販機1が個人認証機能がある自販機である場合には、端末制御部46は、さらに、個人認識部53の認識結果に応じて、決済処理部55と商品搬送部57に指示を与える。利用者11が認証機能カードを持っていない場合には、端末制御部46は、タッチパネル部51の検出結果や決済処理部55による料金支払の情報をキャンセルし、料金支払が行なわれている場合には、釣銭取り出し口7から支払料金を返却するとともに、その旨を表示画面2でメッセージ表示したり、スピーカ9,10で知らせる。   When the signage vending machine 1 is a vending machine having a personal authentication function, the terminal control unit 46 further instructs the settlement processing unit 55 and the product transporting unit 57 according to the recognition result of the personal recognition unit 53. give. When the user 11 does not have an authentication function card, the terminal control unit 46 cancels the detection result of the touch panel unit 51 and the information on the payment by the payment processing unit 55, and the payment is made. Returns the payment fee from the change outlet 7 and displays a message to that effect on the display screen 2 or informs the speakers 9 and 10.

図7は図5,図6における空間情報記録部35に格納されている商品の注視度の基となる注視データの一具体例を示すものである。かかる注視データは、図1に示すサイネージ自販機1や図2に示す広告サイネージ20において、注視度を求めるために用いられるものであるが、以下では、広告サイネージ20に関する図2を参照して説明する。   FIG. 7 shows a specific example of gaze data which is the basis of the gaze degree of the product stored in the spatial information recording unit 35 in FIGS. Such gaze data is used for obtaining the gaze degree in the signage vending machine 1 shown in FIG. 1 or the advertising signage 20 shown in FIG. 2, and will be described below with reference to FIG. 2 relating to the advertising signage 20. .

図7(a)に示す注視度データは商品毎に作成される商品別注視データであり、ここでは、商品Aを例に示しているが、注目人数や注目回数,注視時間,立ち止まって注視したか、通り過ぎながら注視したかなどの注目種類、注視した時刻(日時)などのデータからなるものであって、この商品Aを注視した利用者29毎のデータからなるものである。即ち、注視人数「1」はこの商品Aを注視した一人目の利用者29に関するものであり、注視人数「2」はこの商品Aを注視した二人目の利用者29に関するものである。また、注視回数は、1回だけ継続して注視すれば、「1」であり、利用者29がカメラ22の撮影範囲内に居続けて2回繰り返しこの商品Aを注視した場合には、「2」である。注視時間は、利用者29がカメラ22の撮影範囲内に居続けてこの商品Aを注視した時間の累計である。   The degree-of-gaze data shown in FIG. 7 (a) is product-specific gaze data created for each product. Here, product A is shown as an example. It is composed of data such as the attention type such as whether or not the user gazes while passing, and the time (date and time) when the user gazes, and is composed of data for each user 29 gazing at the product A. That is, the watched number “1” relates to the first user 29 who has watched the product A, and the watched number “2” relates to the second user 29 who has watched the product A. In addition, the number of gazes is “1” if the gaze is continued once, and when the user 29 keeps staying within the shooting range of the camera 22 and repeats gaze on the product A, “2” Is. The gaze time is the total amount of time that the user 29 stays within the shooting range of the camera 22 and gazes at the product A.

図示する例での最初にこの商品Aを注視した利用者11(注目人数=「1」)は、注目種類が「H」(例えば、立ち止まって注視)で、1回だけこの商品Aの画像を注視し、その注視時間は「1800msec」である。また、次に注視した利用者11(注目人数=「2」)は、注目種類が「M」(例えば、サイネージ自販機1の前を通り過ぎながら注視)で、1回だけこの商品Aの画像を注視し、その注視時間は「500msec」である。   In the illustrated example, the user 11 (attention number of people = “1”) who first gazes at the product A has an attention type of “H” (for example, stops and gazes), and displays an image of the product A only once. The gaze time is “1800 msec”. In addition, the user 11 (attention number of people = “2”) who has watched next has the attention type “M” (for example, watching while passing in front of the signage vending machine 1), and watches the image of the product A only once. The gaze time is “500 msec”.

かかる商品別注視データは、図5,図6において、注視度算出部36が注視位置情報算出部34で算出された注視点が含まれる座標範囲の商品の画像を空間情報記録部35で検索し、検索した商品の画像に該当する商品に対して算出したものであり、空間情報記録部35に記録される。この場合、このときの商品が初めて利用者29に注視されたものであるときには、この商品に対する商品別注視データは注目人数が「1」のデータのみとなるが、既に複数n人の利用者29によって注視されているときには、注目人数が「n」までの商品別注視データが空間情報記録部35に格納されており、注視度算出部36は新たにこの商品の画像に注目した(n+1)人目に対する注目人数が「n+1」の注視データを作成し、空間情報記録部35でのこの商品に対して既に作成されて記録されている商品別注視データに追加記録する。   The gaze data classified by product in FIG. 5 and FIG. 6 is obtained by searching the spatial information recording unit 35 for images of products in the coordinate range including the gaze point calculated by the gaze position information calculating unit 34 by the gaze degree calculating unit 36. , Calculated for the product corresponding to the searched product image and recorded in the spatial information recording unit 35. In this case, when the product at this time is first watched by the user 29, the product-specific gaze data for this product is only data with the number of attention being “1”, but there are already a plurality of n users 29. , The product-specific gaze data up to “n” is stored in the spatial information recording unit 35, and the gaze degree calculation unit 36 newly focuses on the product image (n + 1) th. Gaze data of “n + 1” as the number of people of interest is added to the product-specific gaze data already created and recorded for this product in the spatial information recording unit 35.

なお、注視時間は、利用者29の視線が同じ商品の画像に向けられている期間での撮影映像信号のフレーム数をカウントしたり、図示しないタイマで計測したりして求める。また、注目種類は、カメラ22で撮影して得られる同じ利用者29の画像の動きを検出することにより、判定されたものである。   Note that the gaze time is obtained by counting the number of frames of the captured video signal during a period in which the line of sight of the user 29 is directed to the same product image, or by measuring with a timer (not shown). The attention type is determined by detecting the movement of the image of the same user 29 obtained by photographing with the camera 22.

また、図7(a)に示す商品別注視データによる注視度は、例えば、表示画面21に表示される商品の画像について、これまでの利用者29による注視の度合いがどのようであったかを利用者29に知らせる場合や、注視度が高い商品の画像に、特に、利用者29の注目を集めるような場合に用いられる。   In addition, the gaze degree based on the product-specific gaze data shown in FIG. 7A is, for example, how the degree of gaze by the user 29 so far for the product image displayed on the display screen 21 is determined by the user. This is used when informing the user 29 or when the user 29 is particularly interested in an image of a product with a high gaze degree.

さらに、図7(a)に示す商品別注視データは、利用者29が広告サイネージ20から離れていっても、そのまま保持されており、新たな利用者29が表示画面の商品の画像を注視するようになると、この商品に該当する商品別注視データが更新されることになる。   Further, the product-specific gaze data shown in FIG. 7A is maintained as it is even if the user 29 is away from the advertising signage 20, and the new user 29 gazes at the product image on the display screen. Then, the product-specific gaze data corresponding to this product is updated.

図7(b)は利用者29が注視する商品の画像を表示画面21で目立たせるためなどに用いる利用者29毎に作成される利用者別注視データの具体例を示す図である。   FIG. 7B is a diagram illustrating a specific example of user-specific gaze data created for each user 29 that is used to make an image of a product that the user 29 gazes stand out on the display screen 21.

この利用者別注視データは、サイネージ自販機1や広告サイネージ20を利用する利用者29毎に作成されるものであって、表示画面2,21での注視位置や注視時間,注視距離,注視高さ,注視した時刻(日時)などからなるものである。ここでは、利用者Aに対する利用者別注視データを示している。   This user-specific gaze data is created for each user 29 who uses the signage vending machine 1 or the advertising signage 20, and is the gaze position, gaze time, gaze distance, gaze height on the display screens 2 and 21. , And the time (date and time) at which attention was paid. Here, user-specific gaze data for user A is shown.

以下、サイネージ自販機1について説明すると、注視位置は、注視した商品の画像で表わされ、ここでは、利用者Aが商品Aと商品Lとを注視したことを示している。そして、注視する毎に注視時間が登録され、また、更新される。   In the following, the signage vending machine 1 will be described. The gaze position is represented by an image of the watched product. Here, the user A shows that the product A and the product L are watched. Each time a gaze is performed, the gaze time is registered and updated.

注視時間としては、その商品エリアを連続して(目をそらさずに)注視していた「時間2」と、この「時間2」を含み、かつ注視位置をその商品エリアから時々外しながらもその商品を見ていた時間を含めた「時間1」の2種類のデータを登録する。利用者11は、ある商品(例えば、商品A)を注視し始めてから、時々周りの商品に目線を移しつつも、一定時間連続してその商品(商品A)を注視することがある。   The gaze time includes “time 2” in which the product area was continuously watched (without looking away) and this “time 2”, and the gaze position was sometimes removed from the product area. Two types of data “time 1” including the time when the product was viewed are registered. The user 11 may watch the product (product A) continuously for a certain period of time, while sometimes shifting his eyes to the surrounding product after starting to watch the product (for example, product A).

そこで、「時間2」のみならず、「時間1」のデータを登録することにより、「時間1」と「時間2」との差分の時間には、商品Aの周囲に表示されていた商品を注視していたと推定することができ、周囲に表示されている商品の注視度データに加算することができる。   Therefore, by registering not only “Time 2” but also “Time 1” data, the product displayed around the product A is displayed in the time difference between “Time 1” and “Time 2”. It can be estimated that the user is gazing and can be added to the gazing degree data of the products displayed in the vicinity.

注視距離は、カメラ3で得られた画像信号から計測した利用者Aのサイネージ自販機1からの距離であり、注視高さは同じく画像信号から計測して利用者Aが注視している高さである。   The gaze distance is the distance from the signage vending machine 1 of the user A measured from the image signal obtained by the camera 3, and the gaze height is the height at which the user A is gazing from the image signal. is there.

この利用者Aに対しては、かかる利用者別注視データを基に、この利用者Aが特に注視している商品の画像が目立つように、あるいは特に明確に表示されるように、表示画面21での商品の画像の表示形態を変化させる。   For this user A, based on the user-specific gaze data, the display screen 21 is displayed so that the image of the product that the user A is particularly watching is conspicuous or displayed clearly. The display form of the product image at is changed.

なお、この利用者Aに対する注視データは、これに該当するこの利用者Aがサイネージ自販機1から遠ざかり、その注視の計測がなされなくなると、消去される。   Note that the gaze data for the user A is deleted when the corresponding user A moves away from the signage vending machine 1 and the gaze measurement is not performed.

次に、以上説明したサイネージ(サイネージ自販機1,広告サイネージ20)で実行される注視度フィードバックを用いた商品選択支援方法の実施形態について説明するが、まず、かかる実施形態の概念について説明する。   Next, an embodiment of a product selection support method using gaze degree feedback executed by the signage described above (signage vending machine 1, advertising signage 20) will be described. First, the concept of the embodiment will be described.

図8はサイネージに対する人物の位置に応じたサイネージの動作を概念的に示す図であって、60は什器/自販機、61は広告/販売機、62は遠方エリア、63は接近エリア、64は近接エリア、65は購入エリア、66a〜66eは歩行経路である。   FIG. 8 is a diagram conceptually showing the operation of signage according to the position of the person with respect to the signage, wherein 60 is a fixture / vending machine, 61 is an advertisement / sale machine, 62 is a remote area, 63 is an approach area, and 64 is a proximity. Area 65 is a purchase area, and 66a to 66e are walking paths.

同図において、ここでは、サイネージ自販機1と広告サイネージ20とその他の商品販売のための什器/自販機60とが並べて配置された場所を例に説明する。なお、これらを総称する場合、広告/販売機61という。   In the figure, here, the signage vending machine 1, the advertisement signage 20, and a place where the furniture / vending machine 60 for selling other products are arranged side by side will be described as an example. In addition, when these are named generically, it is called the advertisement / sale machine 61.

広告/販売機61から充分離れ、人物が広告/販売機61にほとんど興味を示さないエリアを遠方エリア62といい、この遠方エリア62よりも広告/販売機61に近く、一応人物が興味を持って広告/販売機61に近づくエリアを接近エリア63といい、この接近エリア63よりも広告/販売機61に近く、人物が商品の購入の意志をもって広告/販売機61に近づくエリアを近接エリア64という。また、例えば、サイネージ自販機1で商品を購入するときの人物が存在するエリアを購入エリア65という。   An area far enough away from the advertisement / vending machine 61 and in which a person has little interest in the advertisement / vending machine 61 is referred to as a distant area 62, and is closer to the ad / vending machine 61 than the far area 62. The area approaching the advertisement / selling machine 61 is referred to as the approaching area 63. The area closer to the advertising / selling machine 61 than the approaching area 63 and the person approaching the advertising / selling machine 61 with the intention of purchasing the product is the proximity area 64. That's it. In addition, for example, an area where a person who purchases a product with the signage vending machine 1 exists is referred to as a purchase area 65.

なお、各エリア62〜65は、そのエリアの大きさや広告/販売機61からの距離を適宜設定できるものであるが、サイネージ自販機1と広告サイネージ20とでは、かかるサイズや距離が異なるし、また、広告サイネージ20の場合には、購入エリア65は当然設けられない。   Each of the areas 62 to 65 can be appropriately set with the size of the area and the distance from the advertisement / sale machine 61. However, the signage vending machine 1 and the advertisement signage 20 have different sizes and distances. In the case of the advertisement signage 20, the purchase area 65 is not provided.

サイネージ自販機1の場合を例にして説明すると、そのカメラ3の撮像範囲(視野)内において、各エリア62〜65で次の動作を行なう。   The case of the signage vending machine 1 will be described as an example. The following operation is performed in each area 62 to 65 within the imaging range (field of view) of the camera 3.

まず、人物の行動の一例として、その歩行経路66aで示すように、人物がサイネージ自販機1の方向に歩行して、サイネージ自販機1の方にいくかどうかの迷いがありながら一旦遠方エリア62内に入るが、あまり興味がないとして途中で方向を変えて遠方エリア62から出ていく場合がある。かかる遠方エリア62に対しては、カメラ3(図1)の撮像画像を用いて撮像部31(図6)が人物の動き(行動)を追跡し、行動動線(歩行経路66a),行動時間,行動距離を検知する動線検知を行なってその行動情報を取得する。ここでは、撮像部31の出力画像が注視度の検出に用いられることはない。   First, as an example of a person's action, as shown by the walking route 66a, the person walks in the direction of the signage vending machine 1 and is temporarily in the far area 62 while he / she is wondering whether he / she goes to the signage vending machine 1 or not. Enter, but if you are not so interested, you may change direction and exit from the distant area 62. For such a remote area 62, the imaging unit 31 (FIG. 6) tracks the movement (behavior) of the person using the captured image of the camera 3 (FIG. 1), and the action flow line (walking path 66a), action time. Then, the movement information is detected to detect the action distance, and the action information is acquired. Here, the output image of the imaging unit 31 is not used for detection of the gaze degree.

次に、人物の行動の一例として、その歩行経路66bで示すように、人物がサイネージ自販機1の方向に歩行して、サイネージ自販機1にある程度関心があって遠方エリア62を通過し、接近エリア63内には入り込んで立ち止まったりするが、そのうち興味をなくし、方向を変えて接近エリア63から、さらには、遠方エリア62から出ていく場合がある。このように、人物が接近エリア63に入ったときには、サイネージ自販機1に興味を示したものとみなす。このような場合には、この人物が遠方エリア62内に居るときには、サイネージ自販機1で上記の動線検知が行なわれるが、この人物が接近エリア63に入ると、この人物を利用者11とし、視線方向計測部33(図6)でこの利用者11の顔の画像から顔の向きや視線方向を検出し、注視位置情報算出部34(図6)で表示画面2(図1)でのこの利用者11の視点の位置を検出するとともに、注視度算出部36が、空間情報記録部35(図6)に記憶されている各商品の画像の表示画面2での位置座標を基に、利用者11の視線方向の、即ち、利用者11が注視している視点を含む領域内での商品の画像を判定して注視度を算出し、この利用者11が注視する商品の画像に対する図7(a)に示す商品別注視データを更新するとともに、この利用者11に対する図7(b)に示す利用者別注視データを作成して空間情報記録部35に記録する。これら注視データの作成に際しては、人物位置計測部32(図6)の計測結果やカメラ3から見た利用者11の方向などから利用者11までの距離(注視距離)を求め、さらに、タイマなどにより、利用者11が接近エリア63に入ってからの時間(注視時間)を計測し、これらの計測結果も用いられる。このようにして作成されて空間情報記録部35に記録された注視データは、利用者11が接近エリア63に入るとともに、作成が開始されて空間情報記録部35に記録され、利用者11の行動とともに、順次更新されていく。   Next, as an example of the person's behavior, as shown by the walking path 66b, the person walks in the direction of the signage vending machine 1, passes through the far area 62 with some interest in the signage vending machine 1, and approaches the approach area 63. They may enter and stop, but they may lose interest and change direction to exit from the approach area 63 and further from the far area 62. Thus, when a person enters the approach area 63, it is considered that he / she has shown interest in the signage vending machine 1. In such a case, when the person is in the remote area 62, the flow line detection is performed by the signage vending machine 1, but when the person enters the approach area 63, the person is designated as the user 11, The gaze direction measuring unit 33 (FIG. 6) detects the face direction and the gaze direction from the face image of the user 11, and the gaze position information calculating unit 34 (FIG. 6) displays this on the display screen 2 (FIG. 1). While detecting the position of the viewpoint of the user 11, the gaze degree calculating unit 36 uses it based on the position coordinates on the display screen 2 of the image of each product stored in the spatial information recording unit 35 (FIG. 6). FIG. 7 shows the product image in the line-of-sight direction of the user 11, that is, the image of the product in the region including the viewpoint that the user 11 is gazing to calculate the degree of gazing. While updating the product-specific gaze data shown in (a), In Create a user-specific gaze data shown in FIG. 7 (b) for the user 11 records the spatial information recording unit 35. In creating the gaze data, the distance (gaze distance) from the measurement result of the person position measurement unit 32 (FIG. 6) or the direction of the user 11 viewed from the camera 3 to the user 11 is obtained, and a timer or the like is further obtained. Thus, the time after the user 11 enters the approach area 63 (gaze time) is measured, and these measurement results are also used. The gaze data created in this way and recorded in the spatial information recording unit 35 is recorded when the user 11 enters the approach area 63 and is created and recorded in the spatial information recording unit 35. At the same time, it will be updated sequentially.

さらに、歩行経路66cに示すように、利用者11が近接距離64に入ってきたときには、サイネージ自販機1で表示される商品に関心があると見なし、顔向きや視線などの認知情報を取得し、これを基に出力制御部39(図6)が空間情報記録部35からこの利用者11に対する図7(b)に示す利用者別注視データから注視度が高い商品を選択し、出力部40(図6)から表示フィードバック部41(図6)の端末制御部46に供給する。これにより、端末制御部46は表示装置42(図6)を制御し、その表示画面2(図1)での商品の画像をそれらの注視度に応じた表示形態で表示させる。   Furthermore, as shown in the walking route 66c, when the user 11 enters the proximity distance 64, the user 11 considers that the product displayed on the signage vending machine 1 is interested, and acquires cognitive information such as the face direction and the line of sight, Based on this, the output control unit 39 (FIG. 6) selects a product having a high gaze degree from the user-specific gaze data shown in FIG. 6) is supplied to the terminal control unit 46 of the display feedback unit 41 (FIG. 6). Thereby, the terminal control part 46 controls the display apparatus 42 (FIG. 6), and displays the image of the goods on the display screen 2 (FIG. 1) in the display form according to those gaze degrees.

そして、この利用者11がサイネージ自販機1の直前の購入エリア65dに入り、操作部4(図1)で希望する商品の購入行動を行なうと、購買行動を計測し、端末制御部46は決済処理部55や商品搬送部57(図6)を制御してこの商品の購入を可能にする。   Then, when the user 11 enters the purchase area 65d immediately before the signage vending machine 1 and performs purchase behavior of the desired product with the operation unit 4 (FIG. 1), the purchase behavior is measured, and the terminal control unit 46 performs the settlement process. The product 55 can be purchased by controlling the unit 55 and the product transport unit 57 (FIG. 6).

なお、歩行経路66d,66eのように、利用者11が近接エリア64に入っても、什器/自販機60や広告サイネージ20の方に移動した場合には、この利用者11はサイネージ自販機1のカメラ3の撮像範囲(視野範囲)からはずれるので、その時点でこのサイネージ自販機1のこの利用者11に対する処理動作は終了する。   In addition, even if the user 11 enters the proximity area 64 as in the walking paths 66d and 66e, when the user 11 moves toward the furniture / vending machine 60 or the advertising signage 20, the user 11 can use the camera of the signage vending machine 1. Therefore, the processing operation for the user 11 of the signage vending machine 1 ends at that time.

また、上記のように、図7(b)に示す利用者11の注視データの注視度をもとに、サイネージ自販機1の商品の画面の表示形態が制御され、この利用者11の注視結果がサイネージ自販機1の商品の画面の表示形態にフィードバックされることになる。これに対し、図7(a)に示す商品毎の注視データは、そのときまでの各利用者11による商品の注視傾向などを知らせるために用いられる。   Further, as described above, the display form of the product screen of the signage vending machine 1 is controlled based on the gaze degree of the gaze data of the user 11 shown in FIG. 7B, and the gaze result of the user 11 is This is fed back to the display form of the product screen of the signage vending machine 1. On the other hand, the gaze data for each product shown in FIG. 7A is used to notify the gaze tendency of the product by each user 11 up to that time.

ここで、各エリア62〜65のサイネージ自販機1に対する位置は適宜設定されるものであるが、一例として示すと、近接エリア64はサイネージ自販機1の前面から、例えば、1m以内の範囲であり、接近エリア63は、例えば、1〜2mの範囲、遠方エリア62は、例えば、2〜3mの範囲とする。勿論いずれのエリア62〜64も、カメラ3の撮影範囲(視野範囲)内である。   Here, the positions of the areas 62 to 65 with respect to the signage vending machine 1 are set as appropriate, but as an example, the proximity area 64 is within a range of, for example, 1 m from the front of the signage vending machine 1 and is approaching. For example, the area 63 has a range of 1 to 2 m, and the far area 62 has a range of 2 to 3 m, for example. Of course, any of the areas 62 to 64 is within the shooting range (view range) of the camera 3.

また、以上のことは、図2,図5に示す広告サージ20に対しても、同様である。   The above is also the same for the advertisement surge 20 shown in FIGS.

次に、本発明によるデジタルサイネージにおける商品選択支援方法の実施形態を、前出図面を参照して、具体的に説明する。   Next, an embodiment of a product selection support method in digital signage according to the present invention will be specifically described with reference to the above-mentioned drawings.

〔第1の実施形態〕
図9Aは本発明による商品選択支援方法の第1の実施形態の処理の流れの一部を示す図であって、図1,図6に示すサイネージ自販機1に関するものであり、同図(a)はこのサイネージ自販機1での処理の流れを示すフローチャート、同図(b)は同図(a)での処理の流れに伴うこのサイネージ自販機1の表示画面2で表示される画面の変化を示す図である。また、70a〜70cは商品一覧画面、71,71a〜71dは商品の画像、72はお勧めコメント、73,73a,73b’は注視領域、74は購入情報欄、75はメッセージ欄、76はカート、76aは商品表示欄、76bは購入料金表示欄、76cは「会計へ」ボタンである。
[First Embodiment]
FIG. 9A is a diagram showing a part of the processing flow of the first embodiment of the product selection support method according to the present invention, which relates to the signage vending machine 1 shown in FIGS. 1 and 6, and FIG. Is a flowchart showing the flow of processing in the signage vending machine 1, FIG. 5B is a diagram showing changes in the screen displayed on the display screen 2 of the signage vending machine 1 accompanying the flow of processing in FIG. It is. 70a to 70c are product list screens, 71 and 71a to 71d are product images, 72 is a recommended comment, 73, 73a and 73b 'are gaze areas, 74 is a purchase information column, 75 is a message column, 76 is a cart, 76a is a product display column, 76b is a purchase charge display column, and 76c is a “go to checkout” button.

図9A(a)において、サイネージ自販機1が動作している状態にあって(ステップS1)、距離計測器4(図1)は人物の距離を計測しているが、人物が遠方エリア62(図8)よりも内側におらず、あるいは、遠方エリア62内に居て(ステップS101)、その人物がサイネージ自販機1の方を向いてその表示画面2の一部を見ている状態にあっても(ステップS102)、図9A(b)の(イ)に示すように、サイネージ自販機1の表示画面2(図1)には、複数の商品の画像71がランダムに配列された商品一覧画面70aが表示され、表示される商品の画像71が1画面に表示しきれない場合には、この商品一覧画面70aでは、各商品の画像71が流れるように、上方向あるいは下方向にスクロールしている。また、この商品一覧画面70aでの商品の画像71の中には、例えば、売れ行きを上げる商品や図7(a)に示す商品別注視データによる注目度が高い商品の画像71に、「お勧め」や「セットでお勧め」といったようなお勧めコメント72が吹き出しで付記されている。   9A (a), the signage vending machine 1 is operating (step S1), and the distance measuring device 4 (FIG. 1) measures the distance of the person. 8) Even if the person is in the far area 62 (step S101) and the person is facing the signage vending machine 1 and looking at a part of the display screen 2 (Step S102), as shown in (a) of FIG. 9A (b), the display screen 2 (FIG. 1) of the signage vending machine 1 includes a product list screen 70a in which images 71 of a plurality of products are randomly arranged. When the displayed product image 71 cannot be displayed on one screen, the product list screen 70a is scrolled upward or downward so that the image 71 of each product flows. Further, in the product image 71 on the product list screen 70a, for example, an image 71 of a product with high sales or a product with a high degree of attention based on the product-specific gaze data shown in FIG. "Recommended comment 72" such as "Recommended in set" is added in a balloon.

なお、このお勧めコメント72は、店舗で指定する商品の画像71に付記するようにしてもよいが、図7(a)に示す商品毎の注視データを基に、注視度が高い商品の画像71に付記するようにしてもよい。   The recommended comment 72 may be added to the product image 71 specified at the store, but based on the gaze data for each product shown in FIG. You may make it add to 71.

人物が、サイネージ自販機1の表示画面2を見ながら、このサイネージ自販機1に近づいてきており、接近エリア63(図8)に入ると(ステップS1003)、人物位置計測部32(図6)がこれを検知し、撮像部31(図6)の出力画像信号から視線方向計測部33がこの人物の顔の向きを検出する。このとき、この人物はサイネージ自販機1の表示画面2を見ているので、この人物を、このサイネージ自販機1を利用する可能性があることから、利用者11と判定し、この利用者11の顔の画像などから注視位置情報算出部34と注視度算出部36とでこの利用者11が注視している範囲、即ち、注視領域73を検出しており、利用者Aとしての図7(b)に示す利用者別注視データを作成して、この注視領域内の各商品の画像71に対する注視度を算出する。   A person approaches the signage vending machine 1 while looking at the display screen 2 of the signage vending machine 1, and enters the approach area 63 (FIG. 8) (step S1003), the person position measuring unit 32 (FIG. 6) Then, the line-of-sight direction measuring unit 33 detects the orientation of the person's face from the output image signal of the imaging unit 31 (FIG. 6). At this time, since this person is looking at the display screen 2 of the signage vending machine 1, this person is likely to use the signage vending machine 1. The gaze position information calculation unit 34 and the gaze degree calculation unit 36 detect the gaze area 73, that is, the gaze region 73 from the image of FIG. The gaze data classified by user shown in FIG. 5 is created, and the gaze degree for the image 71 of each product in the gaze area is calculated.

なお、注視領域73は、このとき、人物がこの商品一覧画面70aでの注視している領域を示すものであり、ここで、この注視領域73内を他の領域と区別して表わしているが、これは説明上このようにしているものであって、これら領域は区別されずに表示されている。   Note that the gaze area 73 indicates an area in which the person is gazing on the product list screen 70a at this time, and here, the gaze area 73 is distinguished from other areas. This is for the sake of explanation, and these areas are displayed without distinction.

そして、表示画面2では、図9A(b)の(ロ)に示す商品一覧画面70bの表示に切り替わる(ステップS104)。この商品一覧画面70bでは、利用者11が注視していた領域(即ち、商品一覧画面70aでの注視領域73)内の商品の画像71を表示画面2の中心位置に置くようにして、各商品の画像71が配列され、静止した状態で表示される(ステップS105)。ここで、利用者11が注視している商品の画像71が分かるように、注視領域73aを示し、かかる商品画面71をこの注視領域73a内に示している。このようにして、利用者11が注視している商品の画像71が強調表示される。   Then, the display screen 2 is switched to the display of the product list screen 70b shown in (b) of FIG. 9A (b) (step S104). In the product list screen 70b, the product image 71 in the area that the user 11 is gazing at (that is, the gaze area 73 on the product list screen 70a) is placed at the center position of the display screen 2, and each product is displayed. The images 71 are arranged and displayed in a stationary state (step S105). Here, a gaze area 73a is shown so that the image 71 of the merchandise that the user 11 is gazing at, and the merchandise screen 71 is shown in the gaze area 73a. In this way, the image 71 of the product being watched by the user 11 is highlighted.

各商品の画像71には、「150円 選択」といったように、商品の値段が150円で購入できることを示す情報を、詳細情報として、表わす購入情報欄74が設けられており、この商品一覧画面70bの上側には、「購入する商品を選択して下さい」といったような商品の購入ができることを知らせるテキスト文でメッセージが表示されたメッセージ欄75が設けられている。この商品一覧画面70bで希望する商品の画像71をタッチ操作することにより、この商品の画像71を購入のために選択することができる。   Each product image 71 is provided with a purchase information column 74 that represents information indicating that the price of the product can be purchased for 150 yen as detailed information, such as “150 yen selection”. On the upper side of 70b, there is provided a message field 75 in which a message is displayed in a text sentence that informs that a product such as “Please select a product to purchase” can be purchased. By touching the desired product image 71 on the product list screen 70b, the product image 71 can be selected for purchase.

また、商品一覧画面70bの、例えば、右辺側には、商品一覧画面70bで選択した商品の画像71をまとめて表示するためのカート76が表示されている。このカート76は、選択された商品の画像71を表示するための商品表示欄76aと、商品表示欄76aで画像が表示される商品の合計購入料金を表わす購入料金表示欄76bと、購入するときにタッチ操作する「会計へ」ボタン76cとからなっている。   Further, on the right side of the product list screen 70b, for example, a cart 76 for displaying the images 71 of the products selected on the product list screen 70b together is displayed. The cart 76 includes a product display field 76a for displaying the image 71 of the selected product, a purchase price display field 76b representing the total purchase price of the products for which images are displayed in the product display field 76a, and when purchasing. The button includes a “to checkout” button 76 c that is touch-operated.

そして、利用者11がサイネージ自販機1にさらに近づいて接近エリア64(図8)に入って、サイネージ自販機1の表示画面2での特定の商品の画像71が表示されている部分を注視すると(ステップS106)、その間図7(b)に示す利用者Aとしての利用者11の注視データは更新されており、表示画面2では、この注視データを基に、図9A(b)の(ハ)に示す商品一覧画面70cでこの利用者11が注視している領域73b内の商品の画像71a〜71dが強調して表示される(ステップS107)。   Then, when the user 11 further approaches the signage vending machine 1 and enters the approach area 64 (FIG. 8), the user 11 pays attention to the part where the image 71 of the specific product on the display screen 2 of the signage vending machine 1 is displayed (step). In the meantime, the gaze data of the user 11 as the user A shown in FIG. 7B is updated, and the display screen 2 displays the gaze data in (c) of FIG. 9A (b) based on this gaze data. The product images 71a to 71d in the region 73b on which the user 11 is gazing are displayed with emphasis on the product list screen 70c shown (step S107).

以上のように、利用者11の表示画面2に表示される商品一覧画面70a〜70cを注視することにより、その注視結果が表示画面2にフィードバックし、表示画面2で表示される商品一覧画面70a〜70cで利用者11が注視する商品の画像が利用者11にとって見易い状態で表示されるようになる。   As described above, by watching the product list screens 70 a to 70 c displayed on the display screen 2 of the user 11, the watch result is fed back to the display screen 2 and the product list screen 70 a displayed on the display screen 2. The image of the product that the user 11 is gazing at ~ 70c is displayed in a state that is easy for the user 11 to see.

図9Bは図9Aの処理に続いて実行される処理の流れの一具体例を示す図であって、同図(a)はこのサイネージ自販機1での処理の流れを示すフローチャート、同図(b)は同図(a)での処理の流れに伴うこのサイネージ自販機1の表示画面2で表示される画面の変化を示す図であり、77は「削除」ボタン、78は購入確認画面、79は購入金額表示エリア、80は支払方法紹介エリア、81は「現金」ボタン、81bは「ICカード」ボタン、81cは「携帯電話」ボタン、82は「中止する」ボタン、83は購入商品ランキング画面、84は商品ランキング表示欄、85はポイント、86は商品の画像、87は「終了する」ボタンであり、図9Aに対応する部分には同一符号を付けて重複する説明を省略する。   FIG. 9B is a diagram showing a specific example of the flow of processing executed subsequent to the processing of FIG. 9A, and FIG. 9A is a flowchart showing the flow of processing in the signage vending machine 1, and FIG. ) Is a diagram showing changes in the screen displayed on the display screen 2 of the signage vending machine 1 in accordance with the processing flow in FIG. 7A, wherein 77 is a “delete” button, 78 is a purchase confirmation screen, and 79 is Purchase amount display area, 80 is a payment method introduction area, 81 is a “cash” button, 81 b is an “IC card” button, 81 c is a “mobile phone” button, 82 is a “cancel” button, 83 is a purchase product ranking screen, 84 is a product ranking display field, 85 is a point, 86 is an image of a product, and 87 is an “end” button. The same reference numerals are given to portions corresponding to FIG.

図9A(b)の(ハ)に示す商品一覧画面70cが、図9B(b)の(ニ)で示すように、表示されている状態で(ステップS108)、利用者11が希望する商品の画像71、例えば、商品の画像71a,71bとをタッチ操作して選択すると(ステップS109)、選択された商品の画像71a,71bが強調表示され(ステップS110)、これとともに、カート76において、商品表示欄76aに選択された商品の画像71a,71bが表示され、購入料金表示欄76bにこれら商品の合計購入料金(例えば、150円)が表示される。   The product list screen 70c shown in (c) of FIG. 9A (b) is displayed (step S108) as shown in (d) of FIG. 9B (b), and the product 11 desired by the user 11 is displayed. When the image 71, for example, the product images 71a and 71b is selected by touch operation (step S109), the selected product images 71a and 71b are highlighted (step S110), and at the same time, in the cart 76, the product is displayed. The images 71a and 71b of the selected product are displayed in the display column 76a, and the total purchase fee (for example, 150 yen) of these products is displayed in the purchase fee display column 76b.

そして、利用者11は、このカート76を見て選択した商品に間違いがないことを確認して、「会計へ」ボタン76cをタッチ操作すると(ステップS111)、図9B(b)の(ホ)に示す購入確認画面78の表示に切り替わる(ステップS112)。   Then, the user 11 confirms that there is no mistake in the selected product by looking at the cart 76, and touches the “go to checkout” button 76c (step S111). Then, (e) in FIG. 9B (b). The display is switched to the purchase confirmation screen 78 shown in FIG.

この商品一覧画面70cから購入確認画面78への表示の切り替わると、商品の表示はされなくなるので、この利用者11に対する図7(b)に示す利用者別注視データの作成/更新処理は終了し、また、この利用者11の注視による図7(a)に示す商品別注視データの更新処理も終了する。   When the display from the product list screen 70c to the purchase confirmation screen 78 is switched, the product is no longer displayed, so that the user-specific gaze data creation / update process shown in FIG. Moreover, the update process of the product-specific gaze data shown in FIG. 7A by the gaze of the user 11 is also terminated.

なお、図9B(b)の(ニ)で示す商品一覧画面70cでは、カート76に表示された商品の画像毎に「削除」ボタン77が設けられており、間違って選択した商品の画像71や変更したい商品の画像71がある場合、この「削除」ボタン77をタッチ操作することにより、この商品の画像71をカート76から削除することができる。   In the product list screen 70c shown in FIG. 9B (b) (d), a “delete” button 77 is provided for each product image displayed on the cart 76, and an image 71 of the product selected by mistake or When there is an image 71 of a product to be changed, the product image 71 can be deleted from the cart 76 by touching the “delete” button 77.

図9B(b)の(ホ)に示す購入確認画面78では、購入商品の購入金額表示エリア79と支払方法紹介エリア80とが表示され、購入金額表示エリア79では、購入する商品A,B,Cの画像71a,71b,71cと夫々の値段、これらの合計金額が表示され、支払方法紹介エリア80には、その方法として、現金,ICカード,携帯電話などが紹介されて、これらをタッチ操作して選択可能に「現金」ボタン81a,「ICカード」ボタン81b,「携帯電話」ボタン81cが設けられている。   In the purchase confirmation screen 78 shown in FIG. 9B (b) (e), a purchase price display area 79 and a payment method introduction area 80 for the purchased product are displayed. In the purchase price display area 79, the products A, B, C images 71a, 71b, 71c, their respective prices, and their total amount are displayed. In the payment method introduction area 80, cash, an IC card, a mobile phone, etc. are introduced as a method, and these are touch-operated. A “cash” button 81a, an “IC card” button 81b, and a “mobile phone” button 81c are provided for selection.

かかる購入確認画面78において、購入商品の購入金額表示エリア79で購入する商品や支払額を確認し(ステップS113)、支払方法紹介エリア80で「現金」ボタン81a,「ICカード」ボタン81b,「携帯電話」ボタン81cのいずれかをタッチ操作してサイネージ自販機1の操作部4(図1)で金額を支払うと(ステップS114)、商品取り出し口8で商品を受け取ることができる(ステップS115)。   On the purchase confirmation screen 78, the product to be purchased and the payment amount are confirmed in the purchase price display area 79 of the purchased product (step S113). In the payment method introduction area 80, a “cash” button 81a, an “IC card” button 81b, “ When one of the “mobile phone” buttons 81c is touched and the amount is paid by the operation unit 4 (FIG. 1) of the signage vending machine 1 (step S114), the merchandise can be received at the merchandise take-out port 8 (step S115).

購入確認画面78では、さらに、「中止する」ボタン82が設けられており、この「中止する」ボタン82をタッチ操作することにより、これまでの購買手続をキャンセルすることができ、これにより、表示画面2では、商品を選択する前の画面、例えば、図9A(b)の(ハ)で示す商品一覧画面70cの表示状態に戻る。   The purchase confirmation screen 78 is further provided with a “Cancel” button 82. By touching the “Cancel” button 82, the purchase procedure so far can be canceled. On the screen 2, the screen returns to the display state before the product is selected, for example, the product list screen 70c shown in FIG. 9A (b) (c).

上記のように、購入確認画面78で支払方法を選択操作するとともに、表示画面2では、図9B(b)の(ヘ)に示す購入商品ランキング画面83が表示される状態に切り替わる(ステップS116)。   As described above, the payment method is selected and operated on the purchase confirmation screen 78, and the display screen 2 is switched to a state in which the purchased product ranking screen 83 shown in FIG. 9B (f) is displayed (step S116). .

この購入商品ランキング画面83では、先の商品一覧画面70a〜70cで画像71が表示された販売ランキングが高い商品を示す商品ランキング表示欄84が表示され、この商品ランキング表示欄84で販売ランキングが高い順に所定個数の商品71が示されるとともに、夫々の商品71にポイント85が表示される。このポイント85は、図7(a)に示す商品毎の注視データをもとにした注視度に応じた値であって、注視度が大きい程ポイント85は大きい値となる(ステップS117)。   In the purchased product ranking screen 83, a product ranking display column 84 indicating a product with a high sales ranking in which the image 71 is displayed in the previous product list screens 70a to 70c is displayed, and the sales ranking is high in the product ranking display column 84. A predetermined number of products 71 are shown in order, and points 85 are displayed on each product 71. This point 85 is a value corresponding to the gaze degree based on the gaze data for each product shown in FIG. 7A, and the value of the point 85 increases as the gaze degree increases (step S117).

なお、各商品毎の注視度の履歴や各商品の販売履歴などの履歴情報(販売個数や売上げ金額など)は一時的に端末記憶部45に記憶され、定期的に履歴DBサーバ47(図5,図6)に格納されており、かかる履歴情報を基に、端末制御部46(図5,図6)が購入商品ランキング画面83を作成する。購入商品ランキング画面83の作成に用いられる図7(a)に示す商品毎の注視度に関する注視データは、現在表示画面2で商品の画像71が表示されている商品に対しては、空間情報記録部35に記録されており、また、現在表示画面2で商品の画像71が表示されていない商品に対しては、端末記憶部45と履歴DBサーバ47に記録されており、このため、購入商品ランキング画面83を作成する場合には、端末制御部46は、空間情報記録部35と端末記憶部45と履歴DBサーバ47に記録されている全ての商品の注視データを対象として、注視度が高い商品を検索する。   It should be noted that history information (sales volume, sales amount, etc.) such as a gaze degree history for each product and a sales history for each product is temporarily stored in the terminal storage unit 45, and periodically the history DB server 47 (FIG. 5). , FIG. 6), and the terminal control unit 46 (FIGS. 5 and 6) creates a purchased product ranking screen 83 based on the history information. The gaze data relating to the gaze degree for each product shown in FIG. 7A used for creating the purchased product ranking screen 83 is a spatial information record for the product for which the product image 71 is currently displayed on the display screen 2. The product that is recorded in the unit 35 and for which the product image 71 is not currently displayed on the display screen 2 is recorded in the terminal storage unit 45 and the history DB server 47. When creating the ranking screen 83, the terminal control unit 46 has a high gaze degree for the gaze data of all products recorded in the spatial information recording unit 35, the terminal storage unit 45, and the history DB server 47. Search for products.

また、購入情報欄74は、当該商品の画像71に該当する商品の詳細情報を取得するための「詳細情報」ボタンとすることもでき、この「詳細情報」ボタンをタッチ操作することにより、当該商品の詳細情報(例えば、商品の種類や商品名,成分,製造元,製造年月日など)を表示画面2に表示させることができる。商品毎のかかる詳細情報は、履歴DBサーバ47(図6)に格納されており、商品の販売が終了すると、購入商品ランキング画面83の代わりに、あるいは購入商品ランキング画面83とともに、購入商品ランキング画面83のような画面形式で詳細情報の選択ランキングを表示するようにしてもよい。   Further, the purchase information column 74 may be a “detailed information” button for acquiring detailed information of a product corresponding to the image 71 of the product, and by touching the “detailed information” button, Detailed product information (for example, product type, product name, component, manufacturer, date of manufacture, etc.) can be displayed on the display screen 2. Such detailed information for each product is stored in the history DB server 47 (FIG. 6), and when the sale of the product ends, the purchased product ranking screen instead of the purchased product ranking screen 83 or together with the purchased product ranking screen 83. The detailed information selection ranking may be displayed in a screen format such as 83.

ここで、この購入商品ランキング画面83には、利用者11が購入した商品の画像86が表示されるとともに、「終了する」ボタン87も表示され、この「終了する」ボタン87がタッチ操作されると、この購入商品ランキング画面83の表示が終了し、表示画面2では、商品を選択する前の画面、例えば、図9A(b)の(ハ)で示す商品一覧画面70cの表示状態に戻る。   Here, on the purchased product ranking screen 83, an image 86 of the product purchased by the user 11 is displayed, and an “end” button 87 is also displayed. The “end” button 87 is touch-operated. Then, the display of the purchased product ranking screen 83 is finished, and the display screen 2 returns to the display state of the screen before selecting the product, for example, the product list screen 70c shown in (c) of FIG. 9A (b).

そして、利用者11がこのサイネージ自販機1から離れると(ステップS118)、図9A(b)の(イ)に示す商品一覧画面70aの表示に戻る。なお、図9B(b)の(ホ)に示す購入確認画面78や図9B(b)の(ヘ)に示す購入商品ランキング画面83が表示されている状態で利用者11がこのサイネージ自販機1から離れても、図9A(b)の(イ)に示す商品一覧画面70aの表示に戻る。   And if the user 11 leaves | separates from this signage vending machine 1 (step S118), it will return to the display of the goods list screen 70a shown to (A) of FIG. 9A (b). 9B (b) (e) purchase confirmation screen 78 and FIG. 9B (b) (f) purchase product ranking screen 83 is displayed, the user 11 from the signage vending machine 1 Even if it leaves | separates, it will return to the display of the goods list screen 70a shown to (A) of FIG. 9A (b).

以上のように、この第1の実施形態によると、利用者11が注視する商品の画像71を目立ち易くし、利用者11が興味を示す商品を容易に確認できるようにすることができる。   As described above, according to the first embodiment, it is possible to make the image 71 of the product that the user 11 gazes conspicuous and easily check the product that the user 11 is interested in.

〔第2の実施形態〕
図10は本発明による商品選択支援方法の第2の実施形態の処理の流れの一部を示す図であって、図1,図6に示すサイネージ自販機1に関するものであり、同図(a)はこのサイネージ自販機1での処理の流れを示すフローチャート、同図(b)は同図(a)での処理の流れに伴うこのサイネージ自販機1の表示画面2で表示される画面の変化を示す図である。また、71x,71x1〜71x5は商品の画像、90は広告画面、91a〜は商品一覧画面、92は商品キーワード、93は関連商品画面、94は「一覧に戻る」ボタンであり、図9Bに対応する部分には同一符号を付けて重複する説明を省略する。
[Second Embodiment]
FIG. 10 is a diagram showing a part of the processing flow of the second embodiment of the product selection support method according to the present invention, which relates to the signage vending machine 1 shown in FIGS. 1 and 6, and FIG. Is a flowchart showing the flow of processing in the signage vending machine 1, FIG. 5B is a diagram showing changes in the screen displayed on the display screen 2 of the signage vending machine 1 accompanying the flow of processing in FIG. It is. In addition, 71x, 71x 1 to 71x 5 are product images, 90 is an advertisement screen, 91a is a product list screen, 92 is a product keyword, 93 is a related product screen, and 94 is a “return to list” button. The same reference numerals are given to the portions corresponding to, and duplicate explanations are omitted.

同図において、図8に示す近接エリア64にも、接近エリア63にも、人物がいないときには、サイネージ自販機1の表示画面2には、図10(b)の(イ)に示す広告画面90が表示されている(ステップS200)。ここでは、商品のカテゴリ(種別)として、飲み物を販売の対象とし、この広告画面90でその宣伝が行なわれている。   In the same figure, when there is no person in the proximity area 64 and the proximity area 63 shown in FIG. 8, the display screen 2 of the signage vending machine 1 has an advertisement screen 90 shown in FIG. Is displayed (step S200). Here, as a product category (type), drinks are targeted for sale, and this advertisement screen 90 advertises them.

利用者11が近接エリア63内に進むと、サイネージ自販機1は、撮像部31や人物位置計測部32(図6)の計測結果に基づいてこれを検出し、この検出結果に応じて、表示画面2に図10(b)の(ロ)に示す商品一覧画面91aが表示される(ステップS201)。この商品一覧画面91aでは、各種飲み物である商品の画像71が整列して静止した状態で表示され、夫々の商品の画像71にその値段とタッチ操作によって購入することを示す「100円 購入」といったような購入情報欄74が表示されている。従って、この商品一覧画面91aにおいて、購入希望の商品の画像71をタッチ操作すると、図9B(b)の(ホ)に示すような購入確認画面78が表示され、この希望する商品を購入することができる。   When the user 11 moves into the proximity area 63, the signage vending machine 1 detects this based on the measurement results of the imaging unit 31 and the person position measurement unit 32 (FIG. 6), and displays the display screen according to the detection result. 2 displays the product list screen 91a shown in (b) of FIG. 10B (step S201). On the product list screen 91a, images 71 of products that are various drinks are displayed in an aligned and stationary state, and “100 yen purchase” indicating that each product image 71 is purchased by its price and touch operation. Such a purchase information column 74 is displayed. Accordingly, when an image 71 of a product desired to be purchased is touched on the product list screen 91a, a purchase confirmation screen 78 as shown in (e) of FIG. 9B (b) is displayed, and this desired product is purchased. Can do.

利用者11が、この商品一覧画面91aの関心のある部分を見ながら、このサイネージ自販機1に近づいてきて接近エリア63(図8)に入ると(ステップS202)、この利用者11に対して図7(b)に示す利用者別注視データの作成が開始され、また、図7(a)に示す商品別注視データの更新が行なわれる。そして、図10(b)の(ハ)に示すように、この図7(b)に示すこの利用者11についての利用者別注視データをもとに、商品一覧画面91bにおいて、利用者11が注視している部分の商品の画像11を強調表示するとともに(ステップS203)、この強調表示された商品の画像にカテゴリ(種別)や成分,価格などの商品キーワード92が詳細情報として表示され、かかる商品の画像71が強調表示される(ステップS204)。   When the user 11 approaches the signage vending machine 1 and enters the approach area 63 (FIG. 8) while looking at the portion of interest on the product list screen 91a (step S202), the user 11 is shown a diagram. The creation of the user-specific gaze data shown in FIG. 7B is started, and the product-specific gaze data shown in FIG. 7A is updated. Then, as shown in (c) of FIG. 10 (b), on the product list screen 91b, based on the user-specific gaze data for the user 11 shown in FIG. The product image 11 of the product being watched is highlighted (step S203), and the product keyword 92 such as category (type), component, price, etc. is displayed as detailed information on the highlighted product image. The product image 71 is highlighted (step S204).

利用者11がサイネージ自販機1にさらに近づいてきて近接エリア64(図8)に入り、かかる商品一覧画面91bで強調表示される商品の画像71のうちの1つの商品の画像71を注視すると、表示画面2に図10(b)の(ニ)に示す関連商品画面93が表示される(ステップS205)。この関連商品画面93では、商品一覧画面91bで注視した商品の画像71xとこれに関連する商品の画像71x1〜71x5が強調して表示され、メッセージ欄75にこの関連する商品を示す、例えば、「硬水」といったような関連商品を示すメッセージが表示される。 When the user 11 gets closer to the signage vending machine 1 and enters the proximity area 64 (FIG. 8) and pays attention to the image 71 of one of the products 71 highlighted on the product list screen 91b, the display The related product screen 93 shown in (d) of FIG. 10B is displayed on the screen 2 (step S205). In the related product screen 93, the product image 71x watched on the product list screen 91b and the product images 71x 1 to 71x 5 related to the product image are highlighted and displayed in the message column 75. , A message indicating a related product such as “hard water” is displayed.

かかる関連商品画面93で、利用者11が希望する商品を購入するために、その画像71x,71x1〜71x5のいずれか、あるいはこれら以外の商品の画像71をタッチ操作すると、図9B(b)の(ホ)に示すような購入確認画面78が表示され(ステップS206)、以下、説明を省略するが、第1の実施形態と同様に、購入の手続をすると、図10(b)の(ホ)に示すように、図9B(b)の(ヘ)に示す購入商品ランキング画面83と同様の購入商品ランキング画面83が表示される(ステップS207,S208)。ここでは、気になったキーワードについても、注視・操作による購入情報からランキングを表示することができるようにしている。 In such a related product screen 93, in which a user 11 purchases a product desired, the image 71x, one of 71x 1 ~71x 5, or when a touch operation image 71 of products other than these, FIG. 9B (b (E) of the purchase confirmation screen 78 is displayed (step S206), and the description thereof will be omitted. However, as in the first embodiment, when the purchase procedure is performed, the purchase procedure shown in FIG. As shown in (e), a purchased product ranking screen 83 similar to the purchased product ranking screen 83 shown in (f) of FIG. 9B (b) is displayed (steps S207 and S208). Here, rankings can be displayed from purchase information by gaze / operation even for keywords that are of interest.

なお、関連商品画面93では、「一覧に戻る」ボタン94が設けられており、これがタッチ操作されると、図10(b)の(ロ)に示す商品一覧画面91aの表示に戻る。これにより、改めてこの利用者11の図7(b)に示す利用者別注視データが作成され、これを基に利用者11が注視している商品に対して、図10(b)の(ハ)に示す商品一覧画面91bが表示されることになる。   In the related product screen 93, a “return to list” button 94 is provided, and when this is touched, the display is returned to the product list screen 91a shown in (b) of FIG. As a result, the user-specific gaze data shown in FIG. 7B of the user 11 is created anew, and based on this, the product that the user 11 is gazing at is shown in FIG. ) Will be displayed.

このようにして、この第2の実施形態においても、上記第1の実施形態と同様の効果が得られることになる。   Thus, also in the second embodiment, the same effect as in the first embodiment can be obtained.

〔第3の実施形態〕
図11は本発明による商品選択支援方法の第3の実施形態の処理の流れに対する図2における表示画面21での画面の流れの一部を示す図であって、図2,図5に示す広告サイネージ20に関するものであり、100は商品一覧画面、101は商品の画像、102は注視点、103a,103b,104は選択商品画面、105は商品名、106は関連情報であり、前出図面に相当する部分には同一符号を付けて重複する説明を省略する。
[Third Embodiment]
FIG. 11 is a diagram showing a part of the screen flow on the display screen 21 in FIG. 2 for the processing flow of the third embodiment of the product selection support method according to the present invention. 100 is a product list screen, 101 is a product image, 102 is a gazing point, 103a, 103b, and 104 are selected product screens, 105 is a product name, and 106 is related information. Corresponding portions are denoted by the same reference numerals and redundant description is omitted.

広告サイネージ20(図2)についても、サイネージ自販機1の場合と同様、その表示画面21(図2)での商品画像の表示形態が、この表示画面21(図2)を見る利用者29の図7(b)に示す利用者別注視データに応じて変化するものである。   As for the advertising signage 20 (FIG. 2), as in the signage vending machine 1, the display form of the product image on the display screen 21 (FIG. 2) is a diagram of the user 29 who views the display screen 21 (FIG. 2). It changes according to the gaze data classified by user shown in 7 (b).

図11(a)に示す商品一覧画面100には、商品A,B,……,Rの画像101が整列し、静止した状態で表示されている。これは、例えば、図10(b)の(ロ)に示す商品一覧画面91aでの表示状態と同様である。   On the product list screen 100 shown in FIG. 11A, images 101 of products A, B,..., R are aligned and displayed in a stationary state. This is the same as the display state on the product list screen 91a shown in (b) of FIG.

利用者29が、広告サイネージ20に対して、接近エリア63あるいは近接エリア64で関心のある商品の画像101に注視すると、広告サイネージ20は、図7(b)に示すこの利用者29に対する注視データを基に、この注視している領域を判定する。ここでは、商品A,B,G,Hの画像101を含む領域内に注視点102があるものとする。注視点102を含むかかる領域を、以下、注視領域という。   When the user 29 gazes at the advertisement signage 20 on the image 101 of the product of interest in the approach area 63 or the proximity area 64, the advertisement signage 20 displays the gaze data for the user 29 shown in FIG. Based on this, the region being watched is determined. Here, it is assumed that the gazing point 102 is in an area including the images 101 of the products A, B, G, and H. Such an area including the gaze point 102 is hereinafter referred to as a gaze area.

この注視点102がある注視領域内の商品A,B,G,Hに対する注視度は、図7(b)に示す利用者別注視データでの時間(注視時間)が他の商品の画像101よりも長くなることから、かかる商品に対する注視度が高くなり、これにより、表示画面21では、図11(b)に示すように、商品一覧画面100での注視領域内の商品A,B,G,Hの画像101が表示された選択商品画面103aが表示される。   As for the degree of gaze for the products A, B, G, and H in the gaze area where the gaze point 102 is located, the time (gaze time) in the gaze data for each user shown in FIG. As a result, the degree of gazing for such products increases, and as a result, on the display screen 21, the products A, B, G, and G in the gazing area on the product list screen 100 are displayed as shown in FIG. The selected product screen 103a on which the H image 101 is displayed is displayed.

この選択商品画面103aでは、商品A,Gの画像101の縦列と商品B,Hの画像101の縦列とが横に配列されて、しかも、商品一覧画面100の時よりも拡大されて表示される。そして、さらに、かかる選択商品画面103aを利用者29が商品A,Gの画像101の配列側を注視し、その注視点101が商品A,Gの画像101の配列側にあるとすると、かかる商品A,Gの図7(b)に示す利用者別注視データでの時間(時間長)が商品B,Hよりも長くなるから、これら商品A,Gに対する注視度が高くなり、これにより、図11(c)に示すように、選択商品画面103aでの注視領域内にある商品A,Gの画像101が横に配列され、しかも、選択商品画面103aのときよりもさらに拡大されて表示された選択商品画面103bが表示画面21に表示される。   In the selected product screen 103a, the columns of the images 101 of the products A and G and the columns of the images 101 of the products B and H are arranged horizontally, and are displayed in an enlarged manner as compared with the product list screen 100. . Further, if the user 29 watches the selected product screen 103a on the arrangement side of the images 101 of the products A and G, and the gaze point 101 is on the arrangement side of the images 101 of the products A and G, the product 29 Since the time (time length) in the user-specific gaze data shown in FIG. 7B for A and G is longer than the products B and H, the degree of gaze for these products A and G is increased. As shown in FIG. 11 (c), the images 101 of the products A and G in the gaze area on the selected product screen 103a are horizontally arranged, and are further enlarged and displayed on the selected product screen 103a. The selected product screen 103b is displayed on the display screen 21.

そして、この選択商品画面103bで利用者29が商品G側の画像101を注視すると、かかる商品Gの図7(b)に示す利用者別注視データでの時間(時間長)が商品Aよりも長くなるから、これら商品Gに対する注視度が高くなり、これにより、図11(d)に示すように、選択された商品Gの画像101と、商品名105と、この商品Gの値段などの関連情報106とが表示された選択商品画面104が表示画面2に表示される。   When the user 29 gazes at the image 101 on the product G side on the selected product screen 103b, the time (time length) in the user-specific gaze data shown in FIG. Since it becomes longer, the degree of gazing at these products G increases, and as a result, as shown in FIG. 11 (d), the image 101 of the selected product G, the product name 105, and the price of the product G are related. A selected product screen 104 on which information 106 is displayed is displayed on the display screen 2.

なお、利用者29がこの選択商品画面104で希望する商品Gを確認し、広告サイネージ20から離れると、表示画面21では、図11(a)に示すトップ画面としての商品一覧画面100の表示に戻る。   When the user 29 confirms the desired product G on the selected product screen 104 and leaves the advertising signage 20, the display screen 21 displays the product list screen 100 as the top screen shown in FIG. Return.

このように、この第3の実施形態では、利用者29の商品画面の注視によって表示される表示される商品の画像が制限されていき、遂には、利用者29が興味のある、あるいは購入を希望する商品の画像とその関連情報とが表示される状態となり、利用者29が何ら操作をすることなく、商品画面を注視しているだけでかかる商品の画像を容易にかつ確実に確認できる状態とすることができる。このことにより、購入段階まで進まなくても、注視情報を取ることが可能となることにより、マーケティングに活用できる情報収集を自動でサービス提供者が行なうことができる。   As described above, in the third embodiment, the image of the displayed product displayed by gazing at the product screen of the user 29 is limited. Finally, the user 29 is interested or purchases the product. A state in which an image of a desired product and its related information are displayed, and the user 29 can easily and reliably confirm the image of the product simply by gazing at the product screen without any operation. It can be. As a result, it becomes possible for the service provider to automatically collect information that can be utilized for marketing, because it is possible to obtain gaze information without proceeding to the purchase stage.

〔第4の実施形態〕
図12は本発明による商品選択支援方法の第4の実施形態の処理の流れに対する図2における表示画面21での画面の流れ一部を示す図であって、図2,図5に示す広告サイネージ20に関するものであり、101a1〜101a3,101b1〜101b3,101c1〜101c3は商品の画像、110aは商品カテゴリ選択画面、110bは商品成分選択画面、110cは商品価格選択画面、111a1〜111a3はカテゴリのキーワード、111b1〜111b3は成分のキーワード、111c1〜111c3は価格のキーワードであり、前出図面に相当する部分には同一符号を付けて重複する説明を省略する。
[Fourth Embodiment]
FIG. 12 is a diagram showing a part of the screen flow on the display screen 21 in FIG. 2 for the processing flow of the fourth embodiment of the product selection support method according to the present invention, which is the advertisement signage shown in FIGS. , 101a 1 to 101a 3 , 101b 1 to 101b 3 , 101c 1 to 101c 3 are product images, 110a is a product category selection screen, 110b is a product component selection screen, 110c is a product price selection screen, 111a 1 to 111a 3 are category keywords, 111b 1 to 111b 3 are component keywords, and 111c 1 to 111c 3 are price keywords. The same reference numerals are given to portions corresponding to the above drawings, and redundant descriptions are omitted. To do.

この第4の実施形態は、広告サイネージ20(図2)の表示画面21への利用者29(図2)の注視状態に応じて商品の属性を示すキーワードを選択していくことにより、表示画面21に表示される商品を利用者29が希望する商品に絞り込むことができるようにしたものである。   In the fourth embodiment, the display screen is selected by selecting a keyword indicating a product attribute according to the gaze state of the user 29 (FIG. 2) on the display screen 21 of the advertisement signage 20 (FIG. 2). The products displayed on the screen 21 can be narrowed down to products desired by the user 29.

ここで、商品のキーワードは、階層的な関係にある商品のカテゴリ、成分,価格などであって、カテゴリが最上位の階層にあり、次の階層に商品の成分が、さらに次の階層に商品の価格などがある。商品のカテゴリは、ジュース,菓子,ミネラルウォータといったような商品の種別を表わすものであって、この場合の種別を表わす「ジュース」,「菓子」,「ミネラルウォータ」が商品のカテゴリのキーワードということになる。また、商品の成分とは、この商品に用いられる成分であって、例えば、ミネラルウォータを例に取ると、硬水,中硬水,軟水などといったものであり、これら「硬水」,「中硬水」,「軟水」が商品の成分のキーワードである。さらに、商品の価格については、「100円」,「120円」,「150円」といった商品の値段を表わすものが商品の価格のキーワードということになる。   Here, the product keywords are product categories, components, prices, etc. that have a hierarchical relationship, where the category is at the highest level, the product components are at the next level, and the product is at the next level. There is a price etc. The product category represents the type of product such as juice, confectionery, mineral water, etc., and “juice”, “confectionery”, and “mineral water” representing the type in this case are keywords of the product category. become. In addition, the component of the product is a component used in this product. For example, taking mineral water as an example, it is hard water, medium hard water, soft water, etc., and these “hard water”, “medium hard water”, “Soft water” is the keyword of the product components. Further, regarding the price of the product, keywords representing the price of the product such as “100 yen”, “120 yen”, and “150 yen” are the keywords of the price of the product.

人物が図8に示す遠方エリア62よりも広告サイネージ20(図2)に近づいていないときには、この広告サイネージ20の表示画面21には、図12(a)に示す商品カテゴリ選択画面110aが表示されている。この商品カテゴリ選択画面110aには、夫々の商品のカテゴリ毎の商品の画像101a1,101a2,101a3と夫々の商品の画像101a1,101a2,101a3毎にカテゴリを示す詳細情報としてのキーワード111が表示されている。例えば、商品の画像101a1には、「ジュース」のキーワード111a1が表示され、商品の画像101a2には、「お菓子」のキーワード111a2が表示され、商品の画像101a3には、「ミネラルウォータ」のキーワード111a3が表示される。 When the person is not closer to the advertising signage 20 (FIG. 2) than the distant area 62 shown in FIG. 8, the product category selection screen 110a shown in FIG. 12 (a) is displayed on the display screen 21 of the advertising signage 20. ing. The commodity category selection view 110a, the image 101a 1 items from each of the respective product categories, 101a 2, 101a 3 and the image 101a 1 of each of the products, 101a 2, 101a 3 each as detailed information indicating the category to A keyword 111 is displayed. For example, the product image 101a 1 displays the keyword 111a 1 of “juice”, the product image 101a 2 displays the keyword 111a 2 of “sweets”, and the product image 101a 3 displays “ The keyword 111a 3 “mineral water” is displayed.

なお、ここでは、「ジュース」,「お菓子」,「ミネラルウォータ」の3種類のカテゴリの商品の画像101a1〜101a3が表示されているものとするが、これに限るものではない。 Here, it is assumed that images 101a 1 to 101a 3 of products in three categories of “juice”, “candy”, and “mineral water” are displayed, but the present invention is not limited to this.

人物がかかる表示画面2の所定の商品のカテゴリを注視して広告サイネージ20に近づいてきているものとすると、この人物が利用者29となるが、この利用者29が図8での接近エリア63に入ると、広告サイネージ20は、この利用者29に対して、商品カテゴリ選択画面110aでのカテゴリ毎の図7(b)に示すような利用者別注視データが作成され、これら利用者別注視データから求まる注視度が所定の値以上となる(例えば、図7(b)での利用者別注視データの注視時間が所定の時間以上となる)商品カテゴリがあると、この商品カテゴリが選択されて、この商品のカテゴリの下位層のキーワードとなる商品の成分を選択するための図12(b)に示す商品成分選択画面110bが表示画面2に表示される。   Assuming that a person is approaching the advertising signage 20 while paying attention to a category of a predetermined product on the display screen 2, this person becomes a user 29, and this user 29 is an approach area 63 in FIG. Upon entering, the advertisement signage 20 creates gaze data for each user as shown in FIG. 7B for each category on the product category selection screen 110a. If there is a product category in which the gaze degree obtained from the data is equal to or greater than a predetermined value (for example, the gaze time of gaze data for each user in FIG. 7B is equal to or greater than a predetermined time), this product category is selected. Then, a product component selection screen 110b shown in FIG. 12 (b) for selecting a product component as a keyword in the lower layer of the product category is displayed on the display screen 2.

ここで、図12(a)に示す商品カテゴリ選択画面110aにおいて、カテゴリ「ミネラルウォータ」の商品の画像101a3を利用者29が注視し続け、この「ミネラルウォータ」に対する図7(b)に示す利用者別注視データからの注視度により、商品カテゴリ選択画面110aで注視点102がカテゴリ「ミネラルウォータ」の商品の画像101a3内にある場合には、この「ミネラルウォータ」の商品の画像101a3が利用者29によって注視されているとして、図12(b)に示す商品成分選択画面110bでは、詳細情報としてのカテゴリ「ミネラルウォータ」が選択されたものとし、カテゴリ「ミネラルウォータ」での成分が異なる商品の画像101bが端末記憶部45で検索され、配列されて表示される。 Here, the commodity category selection view 110a shown in FIG. 12 (a), continuing to watch the images 101a 3 items from category "mineral water" is the user 29, shown in FIG. 7 (b) for the "mineral water" by the attention degree from the user-specific gaze data, product category in the case where the fixation point 102 in the selection screen 110a is in the image 101a 3 of merchandise category "mineral water", the image 101a 3 of merchandise of the "mineral water" Is being watched by the user 29, it is assumed that the category “mineral water” as the detailed information is selected on the product component selection screen 110b shown in FIG. Images 101b of different products are searched in the terminal storage unit 45, arranged and displayed.

ここでは、商品カテゴリ選択画面110aで選択されたカテゴリ「ミネラルウォータ」では、「硬水」と「中硬水」と「軟水」の3種類の成分が異なる商品があるものとすると、商品成分選択画面110bでは、図12(b)に示すように、硬水のミネラルウォータの商品の画像101b1と中硬水のミネラルウォータの商品の画像101b2と軟水のミネラルウォータの商品の画像101b3とが配列されて表示される。また、これら商品の画像101b1,101b2,101b3には夫々、その成分を表わす「硬水」といったキーワード111b1,「中硬水」といったキーワード111b2,「軟水」といったキーワード111b3が夫々詳細情報として表示される。 Here, in the category “mineral water” selected on the product category selection screen 110a, if there are products with three different components “hard water”, “medium hard water”, and “soft water”, the product component selection screen 110b. in, as shown in FIG. 12 (b), the image 101b 2 and mineral water image 101b 3 items from the soft water product of medium hard water mineral water image 101b 1 of the mineral water in the product of hard water is arranged Is displayed. Further, in the images 101b 1 , 101b 2 , and 101b 3 of these products, the keyword 111b 1 such as “hard water”, the keyword 111b 2 such as “medium hard water”, and the keyword 111b 3 such as “soft water” respectively represent the detailed information. Is displayed.

なお、ここでは、商品成分選択画面110bに3個の商品の画像101b1,101b2,101b3が表示されているものとしているが、これまで選択されたキーワード(ここでは、「ミネラルウォータ」)に該当する全ての商品の画像101bが表示される。 Here, it is assumed that three product images 101b 1 , 101b 2 , and 101b 3 are displayed on the product component selection screen 110b, but the keyword selected so far (here, “mineral water”). Images 101b of all commodities that fall under are displayed.

そして、利用者29が接近エリア63(図8)に居ながら、あるいはまた、さらに広告サイネージ20に近づきながら、この商品成分選択画面110bでいずれかの成分の商品の画像101を注視続けると、図7(b)に示す利用者別注視データを基に、注視続ける成分の商品の詳細情報が選択されたものとして(このとき、商品成分選択画面110bでは、注視点102が成分「軟水」の商品の画像101b3内にあるものとする)、図12(c)に示す商品価格選択画面110cが表示され、これに詳細情報としての成分「軟水」での価格が異なる商品の画像101cが配列されて表示される。 Then, while the user 29 is in the approaching area 63 (FIG. 8) or is further approaching the advertising signage 20, if the user 29 continues to watch the product image 101 of any component on the product component selection screen 110b, Based on the user-specific gaze data shown in FIG. 7 (b), it is assumed that the detailed information of the product of the component to be watched is selected (at this time, the product with the gaze point 102 being the component “soft water” on the product component selection screen 110b) assumed to be the image 101b 3) of, displays commodity price selection screen 110c shown in FIG. 12 (c), this is the price of a component "soft water" as details are images 101c of the different products sequences Displayed.

ここでは、商品成分選択画面110bで選択された成分「軟水」では、「120円」と「220円」と「320円」の3種類の値段が異なる商品があるものとすると、図12(c)に示す商品価格選択画面110cでは、図12(c)に示すように、価格が120円の商品(軟水のミネラルウォータ)の画像101c1と価格が220円の商品の画像101c2と価格が320円の商品の画像101c3とが配列されて表示される。また、これら商品の画像101c1,101c2,101c3には夫々、その価格を表わす「120円」といったキーワード111c1,「220円」といったキーワード111c2,「320円」といったキーワード111c3が表示される。 Here, in the component “soft water” selected on the product component selection screen 110b, if there are products with three different prices of “120 yen”, “220 yen”, and “320 yen”, FIG. In the product price selection screen 110c shown in FIG. 12C, as shown in FIG. 12C, the image 101c 1 of the product (soft water mineral water) whose price is 120 yen and the image 101c 2 of the product whose price is 220 yen and the price are an image 101c 3 items from 320 yen is displayed is arranged. In addition, on the images 101c 1 , 101c 2 , 101c 3 of these products, a keyword 111c 1 such as “120 yen”, a keyword 111c 2 such as “220 yen”, and a keyword 111c 3 such as “320 yen” are displayed. Is done.

なお、ここでは、商品価格選択画面110cに3個の商品の画像101c1,101c2,101c3が表示されているものとしているが、これまで選択されたキーワード(ここでは、「ミネラルウォータ」と「軟水」)に該当する全ての商品の画像101cが表示される。 Here, it is assumed that the images 101c 1 , 101c 2 , 101c 3 of the three products are displayed on the product price selection screen 110c, but the keyword selected so far (here, “mineral water” Images 101c of all products corresponding to “soft water”) are displayed.

さらに、利用者29がこの商品価格選択画面110cでいずれかの価格の商品の画像101を注視続けると、図7(b)に示す利用者別注視データを基に、注視続ける価格の商品が選択されたものとして(このとき、商品価格選択画面110cでは、注視点102が価格「320円」の商品の画像101c3内にあるものとする)、図12(d)に示す選択商品画面104が表示される。この選択商品画面104は、図11(d)に示す選択商品画面104と同様のものであり、図11に示す第3の実施形態と同様、利用者29がこの選択商品画面104で希望する商品Gを確認し、広告サイネージ20から離れると、表示画面21では、図12(a)に示すトップ画面としての商品カテゴリ選択画面110aの表示に戻る。 Further, when the user 29 continues to watch the product image 101 of any price on the product price selection screen 110c, the product of the price to continue watching is selected based on the user-specific gaze data shown in FIG. 7B. It has been as (this time, the product price selection screen 110c, the gaze point 102 is assumed to be the image 101c in the third item price "320 yen") ones, the selection item screen 104 shown in FIG. 12 (d) Is displayed. This selected product screen 104 is the same as the selected product screen 104 shown in FIG. 11D, and the product desired by the user 29 on this selected product screen 104 is the same as in the third embodiment shown in FIG. If G is confirmed and it leaves | separates from the advertisement signage 20, on the display screen 21, it will return to the display of the merchandise category selection screen 110a as a top screen shown to Fig.12 (a).

このように、この第4の実施形態では、先の第3の実施形態と同様、利用者29の商品画面の注視によって表示される商品の画像が制限されていき、遂には、利用者29が興味のある、あるいは購入を希望する商品の画像とその関連情報とが表示される状態となり、利用者29が何ら操作をすることなく、商品画面を注視しているだけでかかる商品の画像を容易にかつ確実に確認できる状態とすることができる。   As described above, in the fourth embodiment, as in the previous third embodiment, the product images displayed by the user 29 gazing on the product screen are limited. An image of a product that is interesting or desired to be purchased and its related information are displayed, and the user 29 can easily view an image of the product simply by gazing at the product screen without any operation. It can be in a state that can be surely and reliably confirmed.

〔第5の実施形態〕
図13は本発明による商品選択支援方法の第5の実施形態の処理の流れに対する図2における表示画面21での画面の流れの一部を示す図であって、図2,図5に示す広告サイネージ20に関するものであり、120a,120bは商品一覧画面、101a〜101dは注視領域内の商品の画像であり、前出図面に相当する部分には同一符号を付けて重複する説明を省略する。
[Fifth Embodiment]
FIG. 13 is a diagram showing a part of the screen flow on the display screen 21 in FIG. 2 for the processing flow of the fifth embodiment of the product selection support method according to the present invention. The signage 20 relates to a product list screen 120a and 120b, 101a to 101d are images of products in the gaze area, and portions corresponding to the previous drawings are denoted by the same reference numerals and redundant description is omitted.

人物が図8に示す遠方エリア62よりも広告サイネージ20(図2)に近づいていないときには、この広告サイネージ20の表示画面21には、図13(a)に示す商品一覧画面120aが表示されている。この商品一覧画面120aには、対象とする全ての商品の画像101が静止した状態で整列されて表示されており、図示しないが、価格などの情報も同時に表示されている。   When the person is not closer to the advertising signage 20 (FIG. 2) than the distant area 62 shown in FIG. 8, the display screen 21 of the advertising signage 20 displays the product list screen 120a shown in FIG. Yes. On the product list screen 120a, the images 101 of all the target products are arranged and displayed in a stationary state. Although not shown, information such as prices is also displayed at the same time.

この人物がかかる表示画面2の所定の商品のカテゴリを注視して広告サイネージ20に近づいてきているものとすると、この人物は利用者29となるが、この利用者29が図8での接近エリア63に入ると、広告サイネージ20は、この利用者29に対して、商品一覧画面120aでの商品毎の図7(b)に示すような利用者別注視データが作成され、これら利用者別注視データから求まる注視度が所定の値以上となる(例えば、図7(b)での利用者別注視データの注視時間が所定の時間以上となる)カテゴリがあると、この商品カテゴリが選択されて、図12(b)に示す商品一覧画面120bが表示画面2に表示される。   Assuming that this person is approaching the advertising signage 20 while paying attention to the category of the predetermined product on the display screen 2, this person becomes the user 29, but this user 29 is the approach area in FIG. Upon entering 63, the advertisement signage 20 creates gaze data for each user as shown in FIG. 7 (b) for each product on the product list screen 120a. If there is a category in which the gaze degree obtained from the data is equal to or greater than a predetermined value (for example, the gaze time of gaze data for each user in FIG. 7B is equal to or greater than a predetermined time), this product category is selected. A product list screen 120b shown in FIG. 12B is displayed on the display screen 2.

この商品一覧画面120bでは、図12(a)に示す商品一覧画面120aでその注視点102を含む注視領域内の商品の画像101a〜101dが、図示しない価格などの情報とともに、拡大して表示される。これにより、利用者29は興味のある商品を確認することができる。   In the product list screen 120b, images 101a to 101d of products in the gaze area including the gazing point 102 on the product list screen 120a shown in FIG. The As a result, the user 29 can confirm a product of interest.

この商品一覧画面120bで利用者29の購入希望の商品がある場合には、利用者29が、さらに、この商品の画像、例えば、商品の画像101aを注視することにより、この画像101aの商品の注視度が高まることから、この商品が選択されたものとして、図示しないが、図11,図12に示す実施形態と同様に、選択商品画面104が表示される。これにより、利用者29は購入希望の商品を明確に確認することができる。   When there is a product that the user 29 desires to purchase on the product list screen 120b, the user 29 further looks at the product image, for example, the product image 101a, so that the product of the image 101a is displayed. Since the degree of gaze is increased, the selected product screen 104 is displayed as in the embodiment shown in FIGS. 11 and 12, although it is not shown that this product has been selected. As a result, the user 29 can clearly confirm the product desired to be purchased.

なお、その後、利用者29が広告サイネージ20から離れると、表示画面21では、図13(a)に示すトップ画面としての商品一覧画面120aの表示に戻る。   After that, when the user 29 leaves the advertising signage 20, the display screen 21 returns to the display of the product list screen 120a as the top screen shown in FIG.

このように、この第5の実施形態でも、先の第3,第4の実施形態と同様、利用者29の商品画面の注視によって表示される商品の画像が拡大して表示され、利用者29が何ら操作をすることなく、商品画面を注視しているだけでかかる商品の画像を容易にかつ確実に確認できる状態とすることができる。   As described above, also in the fifth embodiment, as in the third and fourth embodiments, the product image displayed by gazing on the product screen of the user 29 is enlarged and displayed. However, without any operation, it is possible to easily and surely confirm the image of the product simply by gazing at the product screen.

〔第6の実施形態〕
図14は本発明による商品選択支援方法の第6の実施形態の処理の流れに対する図2における表示画面21での画面の流れの一部を示す図であって、図2,図5に示す広告サイネージ20に関するものであり、130a,130bは商品一覧画面、101a〜101gは商品の画像であり、前出図面に相当する部分には同一符号を付けて重複する説明を省略する。
[Sixth Embodiment]
FIG. 14 is a diagram showing a part of the screen flow on the display screen 21 in FIG. 2 for the processing flow of the sixth embodiment of the product selection support method according to the present invention. The signage 20 relates to a product list screen 130a and 130b, 101a to 101g are images of products, and the same reference numerals are given to portions corresponding to the above-mentioned drawings, and redundant description is omitted.

人物が図8に示す遠方エリア62よりも広告サイネージ20(図2)に近づいていないときには、この広告サイネージ20の表示画面21には、図13(a)に示す商品一覧画面130aが表示されている。この商品一覧画面130aには、対象とする全ての商品の画像101が整列されて表示されており、図示しないが、価格などの情報も同時に表示されている。   When the person is not closer to the advertising signage 20 (FIG. 2) than the distant area 62 shown in FIG. 8, a product list screen 130a shown in FIG. 13A is displayed on the display screen 21 of the advertising signage 20. Yes. On the product list screen 130a, images 101 of all target products are displayed in an aligned manner, and information such as price is also displayed at the same time, although not shown.

また、この商品一覧画面130aでは、新商品や売れ行きを伸ばしたい商品などの店舗が特に販売に力を入れている商品の画像101は、揺れながら表示されている。商品の画像101b,101e,101gはかかる商品の画像であり、揺れながら表示されている。   In addition, on the product list screen 130a, an image 101 of a product that is particularly focused on sales by a store such as a new product or a product that wants to increase sales is displayed while shaking. Product images 101b, 101e, and 101g are images of such products, and are displayed while shaking.

かかる商品一覧画面130aに対し、利用者29が接近エリア63(図8)以内に広告サイネージ20に近づき、例えば、揺れて表示されている2つの商品の画像101b,101eを交互に注視したとすると(これにより、注視点102はこれら画像101b,101e間を往復移動する)、図7(b)に示すこれら商品画像101毎の注視データを基に、これら画像101b,101eを角部に含む注視領域が設定され、かかる注視領域内に含まれる商品の画像101a〜101fが拡大され、静止して表示される、図14(b)に示す商品一覧画面130bが表示画面21に表示される。   Suppose that the user 29 approaches the advertising signage 20 within the approach area 63 (FIG. 8) on the product list screen 130a, and, for example, watches the images 101b and 101e of the two products displayed in a shaking manner alternately. (As a result, the gazing point 102 reciprocates between the images 101b and 101e). Based on the gazing data for each of the product images 101 shown in FIG. 7B, the gaze including the images 101b and 101e at the corners. The product list screen 130b shown in FIG. 14B is displayed on the display screen 21. The product images 101a to 101f included in the gaze region are enlarged and displayed statically.

この商品一覧画面130bでは、注視領域内の商品の画像101a〜101fが同じ大きさに拡大されて表示されてもよいが、図14(b)に図示するように、中央部の商品の画像101c,101dを、その上下の商品の画像101a,101b,101e,101fよりも大きなサイズで拡大表示するようにしてもよい。   On the product list screen 130b, the product images 101a to 101f in the gaze area may be enlarged and displayed to the same size, but as shown in FIG. 14B, the product image 101c in the center part. , 101d may be enlarged and displayed in a larger size than the images 101a, 101b, 101e, 101f of the upper and lower products.

このように、この第6の実施形態においても、利用者29が表示画面21の複数の箇所を交互に注視するだけで、かかる注視点に応じた領域での利用者29が興味をもつ商品が拡大表示されて見易いものとなる。   As described above, also in the sixth embodiment, a product that the user 29 is interested in in an area corresponding to the point of sight can be obtained simply by the user 29 gazing at a plurality of locations on the display screen 21 alternately. It is enlarged and easy to see.

なお、ここでは、揺れて表示されている商品の画像101b,101eを例に説明したが、必ずしも揺れている必要はなく、商品の画像101b,101eを利用者29が交互に注視しても、同様に、図14(b)に示す商品一覧画面130bが表示される。また、商品一覧画面130aにおいて、利用者29が、図13(a)に示すように、注視点102が一箇所を指し示すような場合は、図13(b)に示す商品一覧画面120bのような拡大表示がなされる。   In addition, although the image 101b, 101e of the product displayed shaking was demonstrated here as an example, it does not necessarily need to shake, and even if the user 29 gazes at the image 101b, 101e of a product alternately, Similarly, a product list screen 130b shown in FIG. 14B is displayed. On the product list screen 130a, when the user 29 points to one place as shown in FIG. 13 (a), the user 29 looks like the product list screen 120b shown in FIG. 13 (b). An enlarged display is made.

〔第7の実施形態〕
図15は本発明による商品選択支援方法の第7の実施形態での図2における表示画面21での画面の具体例を示す図であって、図2,図5に示す広告サイネージ20に関するものであり、140は商品一覧画面であり、前出図面に相当する部分には同一符号を付けて重複する説明を省略する。
[Seventh Embodiment]
FIG. 15 is a diagram showing a specific example of the screen on the display screen 21 in FIG. 2 in the seventh embodiment of the product selection support method according to the present invention, which relates to the advertisement signage 20 shown in FIGS. Yes, 140 is a product list screen, and parts corresponding to those in the previous drawings are given the same reference numerals and redundant description is omitted.

同図において、商品一覧画面140は、図13(a)に示す商品一覧画面120aのような商品一覧画面において、利用者29が図8での接近エリア63で、あるいはこの接近エリア63よりも広告サイネージ20に近づいて、かかる商品一覧画面での興味ある商品の画像101を注視している場合を示すものである。ここでは、利用者29が2つの商品の画像101a,101bを交互に注視しているものとしており、この第7の実施形態では、このような場合、これら2つの商品の画像101a,101bがともに揺れ始めて、揺れた状態で表示される。   In the figure, the product list screen 140 is an advertisement on the product area screen such as the product list screen 120a shown in FIG. 13A, in which the user 29 is in the approach area 63 in FIG. This shows a case where the user is approaching the signage 20 and is gazing at an image 101 of a product of interest on the product list screen. Here, it is assumed that the user 29 is gazing alternately at the images 101a and 101b of the two products. In this seventh embodiment, the images 101a and 101b of the two products are both in this case. It starts to shake and is displayed in a shaking state.

これにより、利用者29は興味をもったこれら商品の画像101a,101bを注視していることを広告サイネージ20が間違いなく検知していることを確認できるものである。   Thereby, the user 29 can confirm that the advertising signage 20 has definitely detected that he / she is watching the images 101a and 101b of these products that he / she is interested in.

そして、図示しないが、かかる商品の画像101a,101bを、さらに、所定時間以上注視すると、図13(b),図14(b)に示すように、これら商品の画像101a,101bが集合して拡大され、停止した状態で表示され、利用者29がより明確にこれらの商品を確認できるようにする。   Although not shown, when the product images 101a and 101b are further watched for a predetermined time or more, as shown in FIGS. 13B and 14B, the product images 101a and 101b are assembled. It is enlarged and displayed in a stopped state so that the user 29 can more clearly confirm these products.

〔第8の実施形態〕
図16は本発明による商品選択支援方法の第8の実施形態での図2における表示画面21での画面の具体例を示す図であって、図2,図5に示す広告サイネージ20に関するものであり、150は商品一覧画面であり、前出図面に相当する部分には同一符号を付けて重複する説明を省略する。
[Eighth Embodiment]
FIG. 16 is a diagram showing a specific example of the screen on the display screen 21 in FIG. 2 in the eighth embodiment of the product selection support method according to the present invention, which relates to the advertisement signage 20 shown in FIGS. Yes, 150 is a product list screen, and parts corresponding to the above-mentioned drawings are given the same reference numerals and redundant description is omitted.

同図において、商品一覧画面140は、図13(a)に示す商品一覧画面120aのような商品一覧画面において、利用者29が図8での接近エリア63で、あるいはこの接近エリア63よりも広告サイネージ20に近づいて、かかる商品一覧画面での興味ある商品の画像101を注視している場合を示すものであって、ここでは、利用者29が1つの商品の画像101aを注視しているものとしており、この第8の実施形態では、このような場合、この商品の画像101aに、当該商品に関するキーワードがA,B,C,Dというように表示される。このキーワードとしては、前述のように、商品の種類(カテゴリ)や商品名,成分,価格などである。   In the figure, the product list screen 140 is an advertisement on the product area screen such as the product list screen 120a shown in FIG. 13A, in which the user 29 is in the approach area 63 in FIG. A case where the user 29 is approaching the signage 20 and is watching the image 101 of the product of interest on the product list screen, where the user 29 is watching the image 101a of one product. In this case, in the eighth embodiment, keywords related to the product are displayed as A, B, C, and D on the image 101a of the product. As described above, the keyword includes the type (category) of the product, the product name, the component, and the price.

このように、この第8の実施形態は、第7の実施形態と同様の効果が得られるとともに、注視している商品のカテゴリや商品名,成分,価格などの関連情報を利用者が知ることができ、そして、図示しないが、かかる商品の画像101aが所定時間以上注視されると、図13(b),図14(b)に示すように、この商品の画像101aが拡大状態で表示され、利用者29がより明確にこれらの商品を確認できるようにする。   Thus, the eighth embodiment provides the same effects as the seventh embodiment, and allows the user to know related information such as the category, product name, component, price, etc. of the product being watched. Although not shown, when the product image 101a is watched for a predetermined time or more, as shown in FIGS. 13B and 14B, the product image 101a is displayed in an enlarged state. The user 29 can confirm these items more clearly.

〔第9の実施形態〕
図17は本発明による商品選択支援方法の第9の実施形態の処理の流れに対する図2における表示画面21での画面の流れの一部を示す図であって、図2,図5に示す広告サイネージ20に関するものであり、160a,160bは商品一覧画面であり、前出図面に相当する部分には同一符号を付けて重複する説明を省略する。
[Ninth Embodiment]
FIG. 17 is a diagram showing a part of the screen flow on the display screen 21 in FIG. 2 with respect to the processing flow of the ninth embodiment of the product selection support method according to the present invention. The signage 20 relates to the product list screens 160a and 160b. The parts corresponding to those in the previous drawings are given the same reference numerals, and redundant description is omitted.

人物が図8に示す遠方エリア62よりも広告サイネージ20(図2)に近づいていないときには、この広告サイネージ20の表示画面21には、図17(a)に示す商品一覧画面160aが表示されている。この商品一覧画面160aには、対象とする全ての商品の画像101がスクロールしながら表示されている(ここでは、垂直方向にスクロールする場合を示しているが、横方向でもよい)。   When the person is not closer to the advertising signage 20 (FIG. 2) than the distant area 62 shown in FIG. 8, a product list screen 160a shown in FIG. 17A is displayed on the display screen 21 of the advertising signage 20. Yes. On the product list screen 160a, images 101 of all target products are displayed while scrolling (here, a case of scrolling in the vertical direction is shown, but it may be in the horizontal direction).

かかる商品一覧画面160aに対し、利用者29が接近エリア63(図8)以内に広告サイネージ20に近づき、例えば、商品の画像101a,101bを交互に注視したとすると、図7(b)に示すこれら商品画像101毎の注視データを基に、図17(b)に示す商品一覧画面160bが表示画面21に表示される。   If the user 29 approaches the advertising signage 20 within the approach area 63 (FIG. 8) and gazes alternately at the product images 101a and 101b on the product list screen 160a, for example, as shown in FIG. 7B. A product list screen 160b shown in FIG. 17B is displayed on the display screen 21 based on the gaze data for each product image 101.

この商品一覧画面160bでは、注視された2つの商品の画像101a,101bが同じ大きさに拡大され、かつスクロールを停止して揺れた状態で表示される。   On the product list screen 160b, the images 101a and 101b of the two products that have been watched are enlarged to the same size, and are displayed in a state where the scrolling is stopped and shaken.

このように、この第9の実施形態においても、利用者29が表示画面21の所定の商品の画像101を注視するだけで、かかる注視点に応じた領域での利用者29が興味をもつ商品が拡大されてみやすいものとなるし、揺れた状態で表示されるので、利用者29は、注視していることを容易に確認できる。   As described above, also in the ninth embodiment, the user 29 is interested only in the image 101 of the predetermined product on the display screen 21, and the product in which the user 29 is interested in the area corresponding to the gaze point. Is easily enlarged and displayed in a shaken state, so that the user 29 can easily confirm that he / she is watching.

なお、以上の各実施形態においては、複数人の人物がサイネージ1,20の表示画面を注視する場合には、注視している最前の人物を上記の利用者11,29として、サイネージ1,20が上記の動作をする。   In each of the above embodiments, when a plurality of persons gaze at the display screen of the signage 1, 20, the signage 1, 20 is defined as the user 11, 29 as the foremost person being gaze at. Operates as described above.

1 サイネージ自販機
2 表示画面
3 カメラ
4 操作部
5 現金投入口
6 カードタッチ部
7 釣銭取り出し口
8 商品取り出し口
9,10 スピーカ
11 利用者
11a 視線
20 広告表示板
21 表示画面
22 カメラ
23,24 スピーカ
25 制御部
26 店舗のレジ
27 壁
28 レジ係
29 利用者
29a 視線
30 注目度計測部
31 撮像部
32 人物位置計測部
33 視線方向計測部
34 注視位置情報算出部
35 空間情報記録部
36 注視度算出部
37 集計部
38 入力部
39 出力制御部
40 出力部
41 表示フィードバック部
42 表示装置
43 表示集計部
44 スピーカ部
45 端末記憶部
46 端末制御部
47 履歴DBサーバ
48 端末通信部
49 電源部
50 操作フィードバック部
51 タッチパネル部
52 操作集計部
53 個人認証部
54 利用者集計部
55 決済処理部
56 購入集計部
57 商品搬送部
58 商品保管部
60 什器/自販機
61 広告/販売機61
62 遠方エリア
63 接近エリア
64 近接エリア
65 購入エリア
66a〜66e 歩行経路
70a〜70c 商品一覧画面
71,71a〜71d,71x,71x1〜71x5 商品の画像
72 推奨コメント
73,73a,73b 注視領域
74 購入情報欄
75 メッセージ欄
76 カート
76a 商品表示欄
76b 購入料金表示欄
76c 「会計へ」ボタン
77 「削除」ボタン
78 購入確認画面
79 購入金額表示エリア
80 支払方法紹介エリア
81 「現金」ボタン
81b 「ICカード」ボタン
81c 「携帯電話」ボタン
82 「中止する」ボタン
83 購入商品ランキング画面
84 商品ランキング表示欄
85 ポイント
86 商品の画像
87 「終了する」ボタン
90 広告画面
91a,91b 商品一覧画面
92 商品キーワード
93 関連商品画面
94 「一覧に戻る」ボタン
100 商品一覧画面
101,101a1〜101a3 商品の画像
101b1〜101b3,101c1〜101c3 商品の画像
101a〜101g 注視領域内の商品の画像
102 注視点
103a,103b,104 選択商品画面
105 商品名
106 関連情報
110a 商品カテゴリ選択画面
110b 商品成分選択画面
110c 商品価格選択画面
111a1〜111a3 カテゴリのキーワード
111b1〜111b3 成分のキーワード
111c1〜111c3 価格のキーワード
120a,120b,130a,130b 商品一覧画面
140,150,160 商品一覧画面
DESCRIPTION OF SYMBOLS 1 Signage vending machine 2 Display screen 3 Camera 4 Operation part 5 Cash slot 6 Card touch part 7 Change outlet 8 Goods outlet 9,10 Speaker 11 User 11a Line of sight 20 Advertising display board 21 Display screen 22 Camera 23, 24 Speaker 25 Control unit 26 Store register 27 Wall 28 Cashier 29 User 29a Line of sight 30 Attention measurement unit 31 Imaging unit 32 Human position measurement unit 33 Gaze direction measurement unit 34 Gaze position information calculation unit 35 Spatial information recording unit 36 Gaze degree calculation unit 37 Total Unit 38 Input Unit 39 Output Control Unit 40 Output Unit 41 Display Feedback Unit 42 Display Device 43 Display Total Unit 44 Speaker Unit 45 Terminal Storage Unit 46 Terminal Control Unit 47 History DB Server 48 Terminal Communication Unit 49 Power Supply Unit 50 Operation Feedback Unit 51 Touch Panel Unit 52 Operation Total Unit 5 3 Personal Authentication Section 54 User Counting Section 55 Settlement Processing Section 56 Purchase Counting Section 57 Product Conveyance Section 58 Product Storage Section 60 Furniture / Vending Machine 61 Advertising / Vending Machine 61
62 distant area 63 approaching the area 64 adjacent area 65 purchase area 66a~66e walking route 70a~70c product list screen 71,71a~71d, 71x, 71x 1 ~71x 5 items of image 72 recommended comment 73,73a, 73b fixation region 74 Purchase information column 75 Message column 76 Cart 76a Product display column 76b Purchase charge display column 76c “To accounting” button 77 “Delete” button 78 Purchase confirmation screen 79 Purchase amount display area 80 Payment method introduction area 81 “Cash” button 81b “IC” "Card" button 81c "Mobile phone" button 82 "Cancel" button 83 Purchased product ranking screen 84 Product ranking display field 85 Points 86 Product image 87 "Exit" button 90 Advertising screen 91a, 91b Product list screen 92 Product keyword 3-related products screen 94 "Back to the list" button 100 product list screen 101,101a 1 ~101a 3 product image 101b 1 ~101b 3 of, 101c 1 ~101c 3 image 102 of product images 101a~101g watch in the area of goods Points of Interest 103a, 103b, 104 Selected Product Screen 105 Product Name 106 Related Information 110a Product Category Selection Screen 110b Product Component Selection Screen 110c Product Price Selection Screen 111a 1 to 111a 3 Category Keywords 111b 1 to 111b 3 Component Keywords 111c 1 to 111c 3 Price keyword 120a, 120b, 130a, 130b Product list screen 140, 150, 160 Product list screen

Claims (8)

商品情報を格納した商品情報記録部と、商品の画像を表わす商品画面を表示画面に表示する表示部と、該商品画面を利用する利用者を撮影する撮像部と、該撮像部で撮影された該利用者の画像から該利用者の視線方向を検出する視線方向計測部と、該表示部に対する該利用者の位置を計測する利用者位置計測部と、該利用者による該商品画面での該商品画像に対する注視度を算出する注視度算出部とを備えた装置を用い、
該利用者位置計測部によって所定の領域内の利用者を検出されると、該視線方向計測部により、該利用者の該表示画面への視線方向を検出し、
該利用者の位置と該視線方向とから該利用者の該表示画面に表示される該商品画面での該商品の画像に対する注視度を算出し、
該表示画面のうちの注視度の高い該商品の画像が含まれる注視領域を特定して、該注視領域に含まれる商品の画像を強調表示し、
該利用者の該商品の画像に対する注視度と強調表示した該注視領域に含まれる該商品の画像とにより、該商品の画像に該当する商品毎の注視度を算出し、該商品情報記録部に記録する
ことを特徴とする商品選択支援方法。
A product information recording unit storing product information, a display unit for displaying a product screen representing an image of the product on a display screen, an image capturing unit for capturing a user who uses the product screen, and an image captured by the image capturing unit A gaze direction measuring unit that detects the gaze direction of the user from the image of the user, a user position measuring unit that measures the position of the user with respect to the display unit, and the product screen on the product screen by the user Using a device with a gaze degree calculation unit that calculates a gaze degree for a product image,
When a user within a predetermined area is detected by the user position measurement unit, the gaze direction measurement unit detects the gaze direction of the user toward the display screen,
Calculating a gaze degree for the image of the product on the product screen displayed on the display screen of the user from the position of the user and the line-of-sight direction;
Identifying a gaze area that includes an image of the product with a high gaze degree in the display screen, highlighting an image of the product that is included in the gaze area,
A gaze degree for each product corresponding to the product image is calculated based on the user's gaze degree for the product image and the highlighted product image included in the gaze area, and the product information recording unit stores the gaze degree for each product. A product selection support method characterized by recording.
請求項1において、
前記強調表示は、前記注視度が高い前記商品の画像の前記表示画面での中央領域での表示、拡大表示、または、前記商品の画像の近傍での当該商品の詳細情報の表示である
ことを特徴とする商品選択支援方法。
In claim 1,
The highlighting is a display of an image of the product with a high gaze degree in a central area on the display screen, an enlarged display, or a display of detailed information of the product in the vicinity of the image of the product. A featured product selection support method.
請求項1において、
前記強調表示は、前記注視度が高い前記商品の画像の拡大表示であって、
拡大表示された前記商品の画像に対する前記利用者の視線方向と前記利用者の位置とを検出して、拡大表示された前記商品の画像に対する利用者の注視度を算出し、
前記商品の画像を拡大表示中の前記表示画面のうち注視度の高い前記商品の画像を含む前記注視領域を特定し、前記注視領域に含まれる前記商品の画像をさらに拡大表示する。
ことを特徴とする商品選択支援方法。
In claim 1,
The highlighted display is an enlarged display of an image of the product with a high gaze degree,
Detecting the user's line-of-sight direction and the position of the user with respect to the enlarged image of the product, and calculating the degree of gaze of the user with respect to the enlarged image of the product;
The gaze area including the image of the product having a high gaze degree is specified on the display screen displaying the product image in an enlarged manner, and the image of the product included in the gaze area is further enlarged and displayed.
A product selection support method characterized by the above.
請求項1において、
前記強調表示は、前記注視度が高い前記商品の画像での当該商品の詳細情報の表示であって、
表示された該詳細情報のうち特定の詳細情報が選択されると、該選択された詳細情報に該当する商品情報を検索して、該表示部に選択可能に表示する
ことを特徴とする商品選択支援方法。
In claim 1,
The highlighting is a display of detailed information of the product in the image of the product with a high gaze degree,
When specific detailed information is selected from the displayed detailed information, product information corresponding to the selected detailed information is searched and displayed on the display section so as to be selectable. Support method.
請求項1において、
前記表示画面には、タッチパネルが設けられ、
前記商品画面に表示される前記商品の画像がタッチ操作されることにより、該タッチ操作された前記商品の画像に該当する商品の購入決定処理を行なう
ことを特徴とする商品選択支援方法。
In claim 1,
The display screen is provided with a touch panel,
A product selection support method comprising: performing a purchase determination process for a product corresponding to the image of the product that has been touch-operated by touching the product image displayed on the product screen.
請求項1において、
前記商品画面は、複数の前記商品の画像をスクロール表示し、
前記利用者が前記サイネージに対する所定の領域内に検出されると、前記利用者の位置と前記利用者の視線方向とから、スクロール表示する前記商品画面での前記商品の画像に対する前記利用者の注視度を算出し、
スクロール表示する前記商品画面での前記商品の画像のうち、注視度の高い前記商品の画像を前記商品画面の中心に停止して表示する
ことを特徴とする商品選択支援方法。
In claim 1,
The product screen scrolls and displays a plurality of images of the product,
When the user is detected within a predetermined area with respect to the signage, the user's gaze on the product image on the product screen that is scroll-displayed from the position of the user and the viewing direction of the user. Calculate the degree,
The product selection support method, wherein the product image with a high gaze degree is stopped and displayed at the center of the product screen among the product images on the product screen to be scroll-displayed.
請求項1において、
前記商品情報記録部には、前記各商品毎の注視度及び各商品の販売履歴が記録され、
商品の注視度及び販売実績のランキングを前記表示部で表示可能とする
ことを特徴とする商品選択支援方法。
In claim 1,
In the product information recording unit, the degree of gazing for each product and the sales history of each product are recorded,
A product selection support method, characterized in that a gaze degree and a sales performance ranking of a product can be displayed on the display unit.
請求項1において、
前記商品情報記録部には、前記詳細情報の選択履歴が記録され、
選択された詳細情報のランキングを前記表示部で表示可能とする
ことを特徴とする商品選択支援方法。
In claim 1,
In the product information recording unit, a selection history of the detailed information is recorded,
The product selection support method, wherein the ranking of the selected detailed information can be displayed on the display unit.
JP2010161214A 2010-07-16 2010-07-16 Method of supporting selection of commodity Pending JP2012022589A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010161214A JP2012022589A (en) 2010-07-16 2010-07-16 Method of supporting selection of commodity

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010161214A JP2012022589A (en) 2010-07-16 2010-07-16 Method of supporting selection of commodity

Publications (1)

Publication Number Publication Date
JP2012022589A true JP2012022589A (en) 2012-02-02

Family

ID=45776814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010161214A Pending JP2012022589A (en) 2010-07-16 2010-07-16 Method of supporting selection of commodity

Country Status (1)

Country Link
JP (1) JP2012022589A (en)

Cited By (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013174853A (en) * 2012-06-01 2013-09-05 Nintendo Co Ltd Information processing system, information processing program, information processing device, and displaying method
JP2015052879A (en) * 2013-09-06 2015-03-19 カシオ計算機株式会社 Information processing device and program
JP2015055999A (en) * 2013-09-11 2015-03-23 クラリオン株式会社 Information processing device, gesture detection method, and gesture detection program
JP2015525918A (en) * 2012-06-25 2015-09-07 アマゾン・テクノロジーズ、インコーポレイテッド Using gaze determination and device input
JP2015529358A (en) * 2012-08-16 2015-10-05 フェイスブック,インク. Electronic advertising targeting multiple individuals
WO2016006136A1 (en) * 2014-07-09 2016-01-14 株式会社Six Information processing system
JP2016501393A (en) * 2012-11-07 2016-01-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated Techniques for using computer input devices on multiple computers
JP2016062408A (en) * 2014-09-19 2016-04-25 カシオ計算機株式会社 Information processor, information processing method and program
JP2016090727A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Content output apparatus and program
JP2016090643A (en) * 2014-10-30 2016-05-23 恒夫 鳥居 Digital Signage
JP2016189169A (en) * 2015-03-30 2016-11-04 大和ハウス工業株式会社 Transaction support system and transaction support method
JP2017041019A (en) * 2015-08-18 2017-02-23 株式会社コロプラ Head-mounted display system control program
JP2017090918A (en) * 2016-11-14 2017-05-25 カシオ計算機株式会社 Content output apparatus and program
JP2017117384A (en) * 2015-12-25 2017-06-29 東芝テック株式会社 Information processing apparatus
JP2017146941A (en) * 2016-02-19 2017-08-24 富士通株式会社 Image display device, display control method and display control program
JP2017525002A (en) * 2014-06-06 2017-08-31 マイクロソフト テクノロジー ライセンシング,エルエルシー Visual content fixes to facilitate improved speech recognition
JP2017528793A (en) * 2014-07-14 2017-09-28 華為技術有限公司Huawei Technologies Co.,Ltd. System and method for display expansion
JP2017181683A (en) * 2016-03-29 2017-10-05 日本電気株式会社 Display processing device, display processing method, and program
KR101797656B1 (en) 2015-12-09 2017-11-15 롯데알미늄 주식회사 Apparatus for detecting merchandise position on automatic vending machine
JP2017535829A (en) * 2014-08-20 2017-11-30 エスアイジー テクノロジー アーゲー Machining unit, machining unit operation method, and machining unit use
JP2018005335A (en) * 2016-06-28 2018-01-11 富士ゼロックス株式会社 Information processing apparatus, information processing system, and image forming apparatus
JP2018036476A (en) * 2016-08-31 2018-03-08 アイシン・エィ・ダブリュ株式会社 Scroll control system and scroll control program
JPWO2017030177A1 (en) * 2015-08-20 2018-05-31 日本電気株式会社 Exhibition device, display control device, and exhibition system
JP2018099317A (en) * 2016-12-20 2018-06-28 大日本印刷株式会社 Display shelf, display shelf system, information processor and program
JP2018101979A (en) * 2017-12-26 2018-06-28 オリンパス株式会社 Display device, display method, and display program
JPWO2017047063A1 (en) * 2015-09-16 2018-07-12 日本電気株式会社 Information processing apparatus, evaluation method, and computer program
JP2018195319A (en) * 2015-09-30 2018-12-06 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
US10192524B2 (en) 2015-08-10 2019-01-29 Canon Kabushiki Kaisha Image display apparatus, image display method, and storage medium
JP2019016093A (en) * 2017-07-05 2019-01-31 シャープ株式会社 Digital signage for product search
CN109426351A (en) * 2017-09-04 2019-03-05 富士施乐株式会社 Information processing unit and storage medium
WO2019098037A1 (en) * 2017-11-15 2019-05-23 ソニー株式会社 Information processing terminal, information processing device, and information processing method
JP2019514092A (en) * 2016-02-26 2019-05-30 ザ コカ・コーラ カンパニーThe Coca‐Cola Company Touchless control graphical user interface
JP2019087175A (en) * 2017-11-10 2019-06-06 日本電信電話株式会社 Action condition estimation apparatus, action condition estimation method and program thereof
JP2019105751A (en) * 2017-12-13 2019-06-27 大日本印刷株式会社 Display control apparatus, program, display system, display control method and display data
JP2019159656A (en) * 2018-03-12 2019-09-19 オムロン株式会社 Display control device, vending machine, display control method, and display control program
JP2019175413A (en) * 2018-03-29 2019-10-10 富士通株式会社 Determination program, determination method, and determination device
WO2020012395A1 (en) * 2018-07-13 2020-01-16 Atoz Consult Dmcc Method and system for supplying one or more physical items to a user
JP2020118919A (en) * 2019-01-28 2020-08-06 沖電気工業株式会社 Display controller, method for controlling display, program, and display control system
WO2020195614A1 (en) * 2019-03-25 2020-10-01 日本電気株式会社 Information processing device, display system, information processing method, and recording medium having program recorded thereon
US20220005081A1 (en) * 2011-11-09 2022-01-06 Google Llc Marketplace For Advertisement Space Using Gaze-Data Valuation
WO2022158573A1 (en) * 2021-01-22 2022-07-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 Processing device, processing method, and processing program
CN115100981A (en) * 2022-05-19 2022-09-23 上海扩博智能技术有限公司 Display screen, control system, electric appliance with display screen and refrigerator with display screen
US11892626B2 (en) 2011-11-09 2024-02-06 Google Llc Measurement method and system
JP7466985B2 (en) 2019-12-02 2024-04-15 アルパイン株式会社 Perimeter Monitoring System

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213469A (en) * 2006-02-13 2007-08-23 Saitama Univ Visual line control display device and display method
JP2009545051A (en) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Gaze interaction for displaying information on the gazeed product

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213469A (en) * 2006-02-13 2007-08-23 Saitama Univ Visual line control display device and display method
JP2009545051A (en) * 2006-07-28 2009-12-17 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Gaze interaction for displaying information on the gazeed product

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11935095B2 (en) * 2011-11-09 2024-03-19 Google Llc Marketplace for advertisement space using gaze-data valuation
US20220005081A1 (en) * 2011-11-09 2022-01-06 Google Llc Marketplace For Advertisement Space Using Gaze-Data Valuation
US11892626B2 (en) 2011-11-09 2024-02-06 Google Llc Measurement method and system
JP2013174853A (en) * 2012-06-01 2013-09-05 Nintendo Co Ltd Information processing system, information processing program, information processing device, and displaying method
JP2015525918A (en) * 2012-06-25 2015-09-07 アマゾン・テクノロジーズ、インコーポレイテッド Using gaze determination and device input
JP2015529358A (en) * 2012-08-16 2015-10-05 フェイスブック,インク. Electronic advertising targeting multiple individuals
JP2016501393A (en) * 2012-11-07 2016-01-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated Techniques for using computer input devices on multiple computers
JP2015052879A (en) * 2013-09-06 2015-03-19 カシオ計算機株式会社 Information processing device and program
JP2015055999A (en) * 2013-09-11 2015-03-23 クラリオン株式会社 Information processing device, gesture detection method, and gesture detection program
JP2017525002A (en) * 2014-06-06 2017-08-31 マイクロソフト テクノロジー ライセンシング,エルエルシー Visual content fixes to facilitate improved speech recognition
WO2016006136A1 (en) * 2014-07-09 2016-01-14 株式会社Six Information processing system
JP2017528793A (en) * 2014-07-14 2017-09-28 華為技術有限公司Huawei Technologies Co.,Ltd. System and method for display expansion
JP2017535829A (en) * 2014-08-20 2017-11-30 エスアイジー テクノロジー アーゲー Machining unit, machining unit operation method, and machining unit use
US10359762B2 (en) 2014-08-20 2019-07-23 Sig Technology Ag Processing unit, method for operating a processing unit and use of a processing unit
JP2016062408A (en) * 2014-09-19 2016-04-25 カシオ計算機株式会社 Information processor, information processing method and program
JP2016090643A (en) * 2014-10-30 2016-05-23 恒夫 鳥居 Digital Signage
JP2016090727A (en) * 2014-10-31 2016-05-23 カシオ計算機株式会社 Content output apparatus and program
JP2016189169A (en) * 2015-03-30 2016-11-04 大和ハウス工業株式会社 Transaction support system and transaction support method
US10192524B2 (en) 2015-08-10 2019-01-29 Canon Kabushiki Kaisha Image display apparatus, image display method, and storage medium
JP2017041019A (en) * 2015-08-18 2017-02-23 株式会社コロプラ Head-mounted display system control program
JPWO2017030177A1 (en) * 2015-08-20 2018-05-31 日本電気株式会社 Exhibition device, display control device, and exhibition system
JPWO2017047063A1 (en) * 2015-09-16 2018-07-12 日本電気株式会社 Information processing apparatus, evaluation method, and computer program
JP2018195319A (en) * 2015-09-30 2018-12-06 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
KR101797656B1 (en) 2015-12-09 2017-11-15 롯데알미늄 주식회사 Apparatus for detecting merchandise position on automatic vending machine
JP2017117384A (en) * 2015-12-25 2017-06-29 東芝テック株式会社 Information processing apparatus
JP2017146941A (en) * 2016-02-19 2017-08-24 富士通株式会社 Image display device, display control method and display control program
JP2019514092A (en) * 2016-02-26 2019-05-30 ザ コカ・コーラ カンパニーThe Coca‐Cola Company Touchless control graphical user interface
JP2017181683A (en) * 2016-03-29 2017-10-05 日本電気株式会社 Display processing device, display processing method, and program
JP2018005335A (en) * 2016-06-28 2018-01-11 富士ゼロックス株式会社 Information processing apparatus, information processing system, and image forming apparatus
JP2018036476A (en) * 2016-08-31 2018-03-08 アイシン・エィ・ダブリュ株式会社 Scroll control system and scroll control program
JP2017090918A (en) * 2016-11-14 2017-05-25 カシオ計算機株式会社 Content output apparatus and program
JP2018099317A (en) * 2016-12-20 2018-06-28 大日本印刷株式会社 Display shelf, display shelf system, information processor and program
JP2019016093A (en) * 2017-07-05 2019-01-31 シャープ株式会社 Digital signage for product search
JP2019046252A (en) * 2017-09-04 2019-03-22 富士ゼロックス株式会社 Information processing apparatus and program
CN109426351A (en) * 2017-09-04 2019-03-05 富士施乐株式会社 Information processing unit and storage medium
JP2019087175A (en) * 2017-11-10 2019-06-06 日本電信電話株式会社 Action condition estimation apparatus, action condition estimation method and program thereof
WO2019098037A1 (en) * 2017-11-15 2019-05-23 ソニー株式会社 Information processing terminal, information processing device, and information processing method
JP7283384B2 (en) 2017-11-15 2023-05-30 ソニーグループ株式会社 Information processing terminal, information processing device, and information processing method
JPWO2019098037A1 (en) * 2017-11-15 2020-10-01 ソニー株式会社 Information processing terminal, information processing device, and information processing method
JP2019105751A (en) * 2017-12-13 2019-06-27 大日本印刷株式会社 Display control apparatus, program, display system, display control method and display data
JP7052328B2 (en) 2017-12-13 2022-04-12 大日本印刷株式会社 Display control device, program, display system and display control method
JP2018101979A (en) * 2017-12-26 2018-06-28 オリンパス株式会社 Display device, display method, and display program
JP2019159656A (en) * 2018-03-12 2019-09-19 オムロン株式会社 Display control device, vending machine, display control method, and display control program
WO2019176281A1 (en) * 2018-03-12 2019-09-19 オムロン株式会社 Display control device, vending machine, display control method, and display control program
JP7140963B2 (en) 2018-03-29 2022-09-22 富士通株式会社 Judgment program, judgment method and judgment device
JP2019175413A (en) * 2018-03-29 2019-10-10 富士通株式会社 Determination program, determination method, and determination device
WO2020012395A1 (en) * 2018-07-13 2020-01-16 Atoz Consult Dmcc Method and system for supplying one or more physical items to a user
JP2020118919A (en) * 2019-01-28 2020-08-06 沖電気工業株式会社 Display controller, method for controlling display, program, and display control system
WO2020195614A1 (en) * 2019-03-25 2020-10-01 日本電気株式会社 Information processing device, display system, information processing method, and recording medium having program recorded thereon
JP7466985B2 (en) 2019-12-02 2024-04-15 アルパイン株式会社 Perimeter Monitoring System
WO2022158573A1 (en) * 2021-01-22 2022-07-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 Processing device, processing method, and processing program
JP2022113023A (en) * 2021-01-22 2022-08-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 Processing apparatus, processing method, and processing program
JP7233454B2 (en) 2021-01-22 2023-03-06 株式会社Nttコノキュー Processing device, processing method and processing program
CN115100981A (en) * 2022-05-19 2022-09-23 上海扩博智能技术有限公司 Display screen, control system, electric appliance with display screen and refrigerator with display screen

Similar Documents

Publication Publication Date Title
JP2012022589A (en) Method of supporting selection of commodity
KR102658873B1 (en) Augmented reality devices, systems and methods for purchasing
JP5184650B2 (en) Social and retail hotspots
US20100265311A1 (en) Apparatus, systems, and methods for a smart fixture
JP4038232B1 (en) Customer information processing system and method
US20150142569A1 (en) Systems and methods for accessing shopping center services using a portable electronic device
WO2012132324A1 (en) Store system, control method therefor, and non-temporary computer-readable medium in which control program is stored
JPWO2014132525A1 (en) Information processing system and information processing method
JP2013109051A (en) Electronic information providing system and electronic information providing method
JP6356998B2 (en) Product sales apparatus and image display method
TWM560634U (en) Display system with image recognition and combined with multimedia-based shopping
JP2018005691A (en) Information processing system, information processing device and information processing method
JP2010049619A (en) Pos terminal
JP2019192163A (en) Display control program, display control device, and display control method
JP5027637B2 (en) Marketing data analysis method, marketing data analysis system, data analysis server device, and program
KR20170019394A (en) System and method for intermediating selling products
WO2022080291A1 (en) Program, method, information processing device, and system
JP7417119B2 (en) Information processing systems, information processing system control methods, electronic devices, programs
JP2008009653A (en) Customer service system
KR20170109512A (en) System and method for intermediating selling products
KR20170072175A (en) System and method for intermediating selling products
KR101649782B1 (en) Gift presenting service management system and method using mobile invitation
KR20160125333A (en) System and method for intermediating selling products
WO2022181014A1 (en) Program, method, and information processing device
KR100906582B1 (en) Online selling method using binding tangible product with intangible product and system implementing the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131217