JP7206806B2 - Information processing device, analysis method, and program - Google Patents
Information processing device, analysis method, and program Download PDFInfo
- Publication number
- JP7206806B2 JP7206806B2 JP2018203186A JP2018203186A JP7206806B2 JP 7206806 B2 JP7206806 B2 JP 7206806B2 JP 2018203186 A JP2018203186 A JP 2018203186A JP 2018203186 A JP2018203186 A JP 2018203186A JP 7206806 B2 JP7206806 B2 JP 7206806B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- displayed
- user
- display unit
- related information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 119
- 230000010365 information processing Effects 0.000 title claims description 83
- 238000000034 method Methods 0.000 claims description 11
- 239000004615 ingredient Substances 0.000 description 30
- 238000012545 processing Methods 0.000 description 19
- 230000015654 memory Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 230000001737 promoting effect Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 11
- 230000006399 behavior Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 239000002994 raw material Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本開示は情報処理装置、分析方法、及びプログラムに関する。 The present disclosure relates to an information processing device, an analysis method, and a program.
近年、AR(Augmented Reality)を用いた様々なサービスの提供が検討されている。例えば、商品を売買する店舗において、顧客がスマートフォン端末もしくはタブレット型端末等の表示部を介して商品を視認した場合に、表示部に、商品の画像と共に、商品の説明を表示させるサービスを提供することが検討されている。特許文献1には、スマートフォン等の携帯端末を用いて撮影した映像に、映像に表示される商品の付加情報も併せて表示させる処理が開示されている。 In recent years, the provision of various services using AR (Augmented Reality) has been considered. For example, in a store where products are bought and sold, when a customer visually recognizes the product through the display unit of a smartphone or tablet, we provide a service that displays the image of the product and the description of the product on the display unit. is being considered. Japanese Patent Laid-Open No. 2004-100002 discloses a process of displaying additional information of a product displayed in a video image captured using a mobile terminal such as a smartphone.
今後、店舗が効率的に売り上げを伸ばすために、情報端末を活用して商品を購入するユーザの購買行動を分析し、分析結果を活用した店舗運営を行うことが望まれている。特許文献1には、情報端末を活用して商品の購入を促すためにARを活用することが開示されている。しかし、特許文献1に開示されているシステムにおいては、情報端末から顧客の購買行動に関する情報を取得し、取得した情報を分析することができないという問題がある。
In the future, in order for stores to efficiently increase sales, it is desired to analyze the purchasing behavior of users who purchase products using information terminals and to operate stores using the analysis results.
本開示の目的は、ARを活用した情報端末から情報を取得し、取得した情報を用いてユーザの購買行動を分析することができる情報処理装置、分析方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide an information processing device, an analysis method, and a program that can acquire information from an information terminal that utilizes AR and analyze a user's purchasing behavior using the acquired information.
本開示の第1の態様にかかる情報処理装置は、対象物が撮像された撮像画像を取得する画像取得部と、前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させる表示制御部と、前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置と、前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析する分析部と、を備える。 An information processing apparatus according to a first aspect of the present disclosure includes an image acquisition unit that acquires a captured image in which an object is captured, and a display that superimposes information related to the object on the captured image and displays it on a display unit. a control unit, acquiring positions of the target object and the related information within the display unit, and using a predetermined position within the display unit and positions of the target object and the related information to display the display unit; an analysis unit that analyzes interest of a user viewing the object through the object.
本開示の第2の態様にかかる分析方法は、対象物が撮像された撮像画像を取得し、前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置と、前記表示部内における前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析する分析方法。 An analysis method according to a second aspect of the present disclosure acquires a captured image in which an object is captured, superimposes information related to the object on the captured image and displays it on a display unit, and displays the Obtaining a position of an object and the related information, and using a predetermined position within the display unit and the position of the object and the related information within the display unit, the object through the display unit An analysis method for analyzing the interests of users who view the .
本開示の第3の態様にかかるプログラムは、対象物が撮像された撮像画像を取得し、前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置と、前記表示部内における前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析することをコンピュータに実行させる。 A program according to a third aspect of the present disclosure acquires a captured image in which an object is captured, superimposes relevant information of the object on the captured image and displays it on a display unit, and displays the object in the display unit. obtaining positions of an object and the related information, and displaying the object through the display unit using a predetermined position within the display unit and the positions of the object and the related information within the display unit; A computer is made to analyze the viewing user's interest.
本開示により、ARを活用した情報端末から情報を取得し、取得した情報を用いてユーザの購買行動を分析することができる情報処理装置、分析方法、及びプログラムを提供することができる。 According to the present disclosure, it is possible to provide an information processing device, an analysis method, and a program capable of acquiring information from an information terminal that utilizes AR and analyzing user purchasing behavior using the acquired information.
(実施の形態1)
以下、図面を参照して本開示の実施の形態について説明する。図1を用いて情報処理装置10の構成例について説明する。情報処理装置10は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。情報処理装置10は、例えば、スマートフォン端末及びタブレット型端末等の情報端末であってもよい。もしくは、情報処理装置10は、パーソナルコンピュータ装置もしくはサーバ装置等であってもよい。
(Embodiment 1)
Embodiments of the present disclosure will be described below with reference to the drawings. A configuration example of the
情報処理装置10は、画像取得部11、表示制御部12、及び分析部13を有している。画像取得部11、表示制御部12、及び分析部13等の情報処理装置10を構成する構成要素は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、情報処理装置10の構成要素は、回路もしくはチップ等のハードウェアであってもよい。
The
画像取得部11は、対象物が撮像された撮像画像を取得する。対象物は、例えば、店舗に陳列されている商品であってもよい。具体的には、対象物は、顧客が購入したもしくは購入を検討している商品であってもよい。もしくは、対象物は、ユーザが操作する装置もしくは装置の構成物品等であってもよい。具体的には、対象物は、管理者等が保守する対象となる装置であってもよい。
The
撮像画像は、静止画であってもよく、動画であってもよい。画像取得部11は、情報処理装置10に内蔵されているカメラを用いて撮像された撮像画像を取得してもよく、情報処理装置10に外付けされたカメラを用いて撮像された撮像画像を取得してもよい。もしくは、画像取得部11は、遠隔に設置されたカメラにおいて撮像された撮像画像を、インターネットもしくはイントラネット等のネットワークを介して取得してもよい。もしくは、画像取得部11は、無線通信回線を介して接続しているカメラから撮像画像を取得してもよい。無線通信回線は、例えば、無線LAN(Local Area Network)通信が用いられてもよく、Bluetooth(登録商標)等の近距離無線通信が用いられてもよい。ユーザは、対象物の撮像機能を有する情報処理装置10を情報端末として用いてもよく、撮像機能及び撮像画像を他の装置へ送信する通信機能を有するカメラを情報端末として用いてもよい。
The captured image may be a still image or a moving image. The
表示制御部12は、対象物の関連情報を撮像画像に重畳して表示部へ表示させる。関連情報は、例えば、対象物の名称、対象物の特徴、対象物に含まれる成分、対象物の産地もしくは製造場所、等を示す情報であってもよい。さらに、関連情報は、対象物が食品である場合、対象物の調理方法を示す情報であってもよい。または、関連情報は、顧客に対して対象物の購入を促す情報であってもよい。対象物の購入を促す情報は、例えば、対象物の割引情報もしくは対象物の人気を示す情報等であってもよい。または、関連情報は、装置の操作マニュアル、装置に含まれるボタンの機能、等を示す情報であってもよい。関連情報は、テキストデータであってもよく、静止画データであってもよく、動画データであってもよい。ユーザは、関連情報に表示される言語を選択してもよい。例えば、ユーザは、選択した言語に関する情報を入力してもよい。具体的には、ユーザは、表示部に対するタッチ操作もしくはボタン操作等を実行することによって、言語を選択してもよい。関連情報は、ARを用いて表示部に表示される情報であってもよく、AR情報と称されてもよい。
The
対象物の関連情報を撮像画像に重畳するとは、例えば、関連情報が対象物の周辺もしくは対象物の一部と重なる位置に表示されるように映像データもしくは画像データを生成することである。言い換えると、対象物の関連情報を撮像画像に重畳するとは、撮像画像と画像データである関連情報とを合成することであってもよい。 To superimpose the relevant information of the object on the captured image means, for example, to generate video data or image data so that the relevant information is displayed in the vicinity of the object or in a position overlapping with a part of the object. In other words, superimposing the related information of the object on the captured image may be combining the captured image and the related information, which is image data.
表示制御部12は、情報処理装置10内のメモリもしくは情報処理装置10に外付けされたメモリ等から、対象物と関連付けられた関連情報を抽出してもよく、ネットワークを介して他の装置から関連情報を受信してもよい。例えば、表示制御部12は、撮像画像に含まれる対象物を識別し、対象物の識別情報と関連付けられた関連情報を抽出してもよい。もしくは、情報処理装置10は、対象物の識別情報をネットワークを介して他の装置へ送信し、他の装置から、識別情報と関連付けられた関連情報を受信してもよい。
The
表示部は、例えば、ディスプレイ装置であってもよい。表示部は、情報処理装置10と一体として構成されてもよく、ケーブルもしくは無線通信等を介して情報処理装置10と接続されてもよく、ネットワークを介して情報処理装置10と接続されてもよい。表示制御部12が表示部へ表示させるとは、表示制御部12が生成した映像データを表示部へ出力すると言い換えられてもよい。
The display unit may be, for example, a display device. The display unit may be configured integrally with the
分析部13は、表示部内における対象物及び関連情報の位置を取得する。さらに、分析部13は、表示部内の予め定められた位置と、対象物及び関連情報の位置とを用いて、表示部を介して対象物を視認するユーザの関心を分析する。
The
表示部内における対象物及び関連情報の位置は、例えば、ディスプレイに表示される対象物及び関連情報のディスプレイ上の位置である。対象物及び関連情報の位置は、対象物及び関連情報が表示された領域内の任意の位置であってもよい。例えば、対象物及び関連情報の位置は、対象物及び関連情報の中心を示す位置であってもよく、対象物及び関連情報の輪郭上の任意の位置であってもよい。位置は、ディスプレイの表面をXY平面とした場合における、XY平面上の座標を用いて示されてもよい。分析部13は、映像データを生成する表示制御部12から、対象物及び関連情報の位置を取得してもよく、映像データを表示する表示部から、対象物及び関連情報の位置を取得してもよい。
The position of the object and related information in the display unit is, for example, the position on the display of the object and related information displayed on the display. The position of the object and related information may be any position within the area where the object and related information are displayed. For example, the position of the target object and related information may be a position indicating the center of the target object and related information, or an arbitrary position on the contour of the target object and related information. The position may be indicated using coordinates on the XY plane when the surface of the display is the XY plane. The
表示部内の予め定められた位置は、例えば、ユーザの視線が最も集中する位置として、予め定められたディスプレイ上の任意の位置であってもよい。表示部内の予め定められた位置は、例えば、ディスプレイ上の中心であってもよい。表示部内の予め定められた位置は、例えば、ユーザの操作によって変更されてもよい。 The predetermined position within the display unit may be, for example, an arbitrary position on the display predetermined as a position where the user's line of sight is most concentrated. The predetermined position within the display may be, for example, the center on the display. A predetermined position within the display unit may be changed by, for example, a user's operation.
ユーザの関心は、例えば、ユーザがどのような情報に着目して対象物の購入に至ったか、ユーザの嗜好性、等であってもよい。または、ユーザの関心は、関連情報に示される操作マニュアルに従って装置の操作を行う際に、ボタン、計器等の、装置のどの部分に注目しているか、等であってもよい。ユーザの関心は、ユーザの行動を示す情報もしくはユーザの行動の根拠となり得る情報であってもよい。 The user's interest may be, for example, what kind of information the user focused on to purchase the target object, the user's preference, or the like. Alternatively, the user's interest may be, for example, which part of the device, such as buttons and gauges, the user pays attention to when operating the device according to the operation manual indicated in the related information. The user's interest may be information indicating the user's behavior or information that may be the basis for the user's behavior.
表示部内の予め定められた位置と、対象物及び関連情報の位置とを用いるとは、表示部内の予め定められた位置と、対象物及び関連情報の位置との関係性を規定することであってもよい。例えば、表示部内の予め定められた位置から、対象物及び関連情報の位置までの距離が算出されてもよい。例えば、分析部13は、算出された距離が近いほど、対象物もしくは関連情報への関心が高いと分析してもよい。
Using the predetermined position in the display section and the position of the object and related information means defining the relationship between the predetermined position in the display section and the position of the target object and related information. may For example, the distance from a predetermined position within the display unit to the position of the object and related information may be calculated. For example, the
以上説明したように、情報処理装置10は、対象物及び関連情報の位置と、表示部内の予め定められた位置とを取得することができる。表示部内の予め定められた位置に対する対象物及び関連情報の位置は、ユーザの対象物もしくは関連情報への興味もしくは関心に応じて変化する情報である。そのため、情報処理装置10は、対象物及び関連情報の位置と、表示部内の予め定められた位置とを取得することによって、ユーザの対象物もしくは関連情報への関心を分析することができる。つまり、情報処理装置10はユーザの行動を分析することができる。
As described above, the
(実施の形態2)
続いて、図2を用いて実施の形態2にかかる情報処理装置20の構成例について説明する。情報処理装置20は、図1の情報処理装置10の構成に、撮像部21、表示部22、及び関連情報生成部23が追加された構成である。情報処理装置20において、情報処理装置10と同様の構成については、詳細な説明を省略する。情報処理装置20は、例えば、スマートフォン端末であってもよく、タブレット型端末であってもよい。
(Embodiment 2)
Next, a configuration example of the
撮像部21は、対象物を撮像し、撮像画像を生成する。撮像部21は、撮像画像をデジタルデータである映像データとして画像取得部11へ出力する。情報処理装置20を操作するユーザの操作に応じて、撮像される対象が変化する。例えば、ユーザは、情報処理装置20であるスマートフォン端末を対象物の前にかざすことによって対象物を撮像する。
The
画像取得部11は、撮像部21から取得した映像データを、表示制御部12へ出力する。さらに、画像取得部11は、映像データを用いた画像認識処理を行う。画像取得部11は、画像認識処理を行うことによって、映像データ内に含まれる対象物を特定する。対象物を特定するための画像認識処理は、例えば、映像データ内の特徴量を抽出し、抽出した特徴量と、予め情報処理装置20内のメモリ等に登録された対象物の特徴量とを照合する。画像取得部11は、抽出した特徴量が、登録された対象物の特徴量と一致した場合もしくは一致箇所の数が予め定められた値を超えた場合、映像データ内に予め登録された対象物が含まれていると特定する。画像取得部11は、特定した対象物の識別情報を関連情報生成部23へ出力する。
The
関連情報生成部23は、対象物の識別情報と、当該対象物の関連情報とを関連付けて管理する。例えば、対象物が店舗に陳列される商品である場合、商品の識別情報として、商品名が用いられてもよい。さらに、商品名と、当該商品の成分情報、商品の特徴情報、商品の産地情報等が関連付けて管理されてもよい。関連情報生成部23は、画像取得部11から識別情報を取得すると、識別情報に関連付けられている関連情報を表示制御部12へ出力する。ユーザが、表示を希望する関連情報を選択した選択情報を情報処理装置10へ入力した場合、関連情報生成部23は、識別情報に関連付けられている関連情報の内、選択された関連情報を表示制御部12へ出力する。ユーザが選択情報を情報処理装置10へ入力していない場合、関連情報生成部23は、識別情報に関連付けられている関連情報の内、任意の関連情報を表示制御部12へ出力してもよい。もしくは、関連情報生成部23は、識別情報に関連付けられている複数の関連情報を、所定の間隔をあけて順番に表示制御部12へ出力してもよい。もしくは、関連情報生成部23は、複数の関連情報のそれぞれに優先順位を予め設定し、優先順位に従って関連情報を表示制御部12へ出力してもよい。
The
表示制御部12は、画像取得部11から出力された映像データに、関連情報生成部23から出力された関連情報を重畳した表示用データを生成する。表示制御部12は、例えば、関連情報を映像データ内の予め定められた位置に重畳してもよい。もしくは、表示制御部12は、映像データ内に含まれる対象物の位置を特定し、対象物と重複しないように関連情報を映像データに重畳してもよい。もしくは、表示制御部12は、映像データ内に含まれる対象物の位置を特定し、対象物の一部と重複するように関連情報を映像データに重畳してもよい。表示制御部12は、生成した表示用データを表示部22及び分析部13へ出力する。
The
表示部22は、表示制御部12から出力された表示用データを表示する。つまり、表示制御部12から出力された表示用データは、ディスプレイ上に表示される。ユーザは、表示部22に表示された画像を介して、対象物及び関連情報を視認する。また、ここでは、ディスプレイ上において最もユーザの視線が集中する点もしくは領域を、注視点と称する。言い換えると、注視点は、対象物及び関連情報が表示されているディスプレイ上においてユーザが最も注目する場所を示している。注視点は、例えば、ディスプレイ上の中心であってもよく、その他の場所であってもよい。
The
ユーザは、ディスプレイに表示されている画像を見ながら、画像内の関心のある箇所を注視点に合わせる。つまり、ユーザは、注視点を含む所定の領域(以下、注視領域と称する)に表示される画像を変化させる。例えば、ユーザは、対象物に対する撮像部21の角度を調整し、注視領域に表示される画像を変化させる。例えば、ユーザは、関連情報よりも対象物に関心がある場合、注視領域に対象物が表示されるようにする。または、ユーザは、対象物よりも関連情報に関心がある場合、注視領域に関連情報が表示されるようにする。撮像部21は、例えば、ユーザが注視領域に表示される画像を変化させている間の画像を動画データとして画像取得部11へ出力する。表示制御部12は、画像取得部11から取得した動画データに関連情報生成部23から取得した関連情報を重畳させて生成した表示用データを表示部22及び分析部13へ出力する。
While looking at the image displayed on the display, the user aligns the point of interest with the point of interest in the image. In other words, the user changes the image displayed in a predetermined area (hereinafter referred to as a gaze area) including the gaze point. For example, the user adjusts the angle of the
分析部13は、表示制御部12から取得した表示用データから、画像内における注視点の位置と、対象物及び関連情報の位置を特定する。また、ユーザは、表示部22に対象物及び関連情報が表示された後に、自身の興味に応じて表示部22に表示される対象物及び関連物の位置を変化させる。そのため、分析部13は、所定の間隔にて画像内における注視点の位置と、対象物及び関連情報の位置とを表示制御部12から取得し、所定期間経過後の注視点の位置と、対象物及び関連情報の位置とをユーザの関心の分析に用いてもよい。または、分析部13は、注視点の位置から対象物及び関連情報の位置までの距離の所定期間における変化量が予め定められた値よりも小さくなった後の注視点の位置と、対象物及び関連情報の位置とをユーザの関心の分析に用いてもよい。ここで、図3を用いて、表示部22に表示される画像のイメージと、注視点、対象物及び関連物の位置について説明する。
From the display data acquired from the
図3は、表示領域30に、対象物としてペットボトルが示されている。表示領域30は、ディスプレイ上の、映像が表示される領域である。また、注視点31は、表示領域30の中心に定義される。注視領域35は、注視点31を中心とした円内の領域であってもよい。もしくは、注視領域35は、曲線もしくは直線、または、曲線及び直線を用いて形成された閉じた領域であって、注視点31を含む領域であってもよい。さらに、ペットボトルには、商品ラベル32及び成分ラベル33が示されている。さらに、表示領域30には、ペットボトルの関連情報34が示されている。図3においては、表示領域30に商品ラベル32及び成分ラベル33が表示されている例を示しているが、商品ラベル32及び成分ラベル33の位置は、図3に示される位置に特定されない。表示制御部12は、表示領域30に表示される表示用データを生成する。
In FIG. 3, the
図3は、注視点がペットボトル上の商品ラベル32に存在することを示している。つまり、注視領域35には、商品ラベル32が表示されることとなる。注視領域35に商品ラベル32が表示されるとは、注視領域35に商品ラベル32のみが表示されることであってもよく、注視領域35に商品ラベル32の一部が表示されることであってもよい。この場合、情報処理装置10を操作するユーザは、商品ラベル32に注目していることが推定される。
FIG. 3 shows that the point of gaze is on the
分析部13は、例えば、注視点31と、商品ラベル32との距離、注視点31と成分ラベル33との距離、さらに、注視点31と関連情報34との距離を算出してもよい。図3の例においては、注視点31は、商品ラベル32に存在するため、注視点31と商品ラベル32との距離は、0と算出してもよい。注視点31と成分ラベル33との距離、さらに、注視点31と関連情報34との距離は、例えば、XY平面上の座標を用いて算出されてもよい。図3は、注視点31の位置と商品ラベル32の位置とが重複し、注視点領域に商品ラベル32が表示されていることを示している。また、分析部13は、注視点31と、商品ラベル32の面積重心位置との距離を算出してもよい。もしくは、面積重心位置は、商品全体及び関連情報34の重心位置としてもよい。また、関連情報34は、商品全体及び関連情報34の重心位置を注視点31とし、注視領域35に表示される情報に応じてユーザの関心を分析してもよい。
The
さらに、分析部13は、注視領域35に商品ラベル32が表示されている期間をカウントしてもよい。言い換えると、分析部13は、注視点31と商品ラベル32とが重複している期間をカウントしてもよい。さらに、分析部13は、注視領域35に商品ラベル32が表示されたタイミングと、注視領域35に商品ラベル32が表示されなくなったタイミングとを特定してもよい。例えば、分析部13は、注視領域35に商品ラベル32が表示された時刻と、注視領域35に商品ラベル32が表示されなくなった時刻とを特定してもよい。もしくは、分析部13は、注視点31と商品ラベル32とが重複したタイミングと、注視点31と商品ラベル32とが重複しなくなったタイミングとを特定してもよい。
Furthermore, the
図4は、注視点31が成分ラベル33に存在することを示している。この場合、情報処理装置10を操作するユーザは、成分ラベル33に注目していることが推定される。図5は、注視点31が関連情報34に存在することを示している。この場合、情報処理装置10を操作するユーザは、関連情報34に注目していることが推定される。
FIG. 4 shows that the point of
続いて、図6を用いて、分析部13の分析処理の一例について説明する。図6の矢印は、時間経過を示している。ユーザが来店した時刻を時刻t1とする。
Next, an example of analysis processing by the
その後、分析部13は、表示制御部12から出力される表示用データを用いて、時刻t2から時刻t3までの間、注視領域に商品Aの商品ラベルが表示されたことを特定する。次に、分析部13は、時刻t3から時刻t4までの間、注視領域に関連情報が表示されたことを特定する。次に、分析部13は、時刻t4から時刻t5までの間、注視領域に商品Aの成分ラベルが表示されたことを特定する。次に、分析部13は、時刻t5から時刻t6までの間、注視領域に商品Bの成分ラベルが表示されたことを特定する。次に、分析部13は、時刻t6から時刻t7までの間、注視領域に商品Aの成分ラベルが表示されたことを特定する。
After that, the
図6においては、ユーザは、商品Bよりも商品Aに注目している期間が長いことを示している。そのため、分析部13は、ユーザが、商品Bよりも商品Aに関心があると分析してもよい。また、図6においては、ユーザは、商品Bよりも商品Aに注目した回数が多いことを示している。そのため、分析部13は、ユーザが、商品Bよりも商品Aに関心があると分析してもよい。さらに、図6においては、ユーザは、商品A及びBの商品ラベルよりも成分ラベルに注目している期間が長いことを示している。そのため、分析部13は、商品の名称よりも商品の成分に関心があると分析してもよい。また、図6においては、ユーザは、関連情報よりも商品ラベルもしくは成分ラベルに注目している期間が長いことを示している。そのため、分析部13は、商品の購入においては、関連情報よりも、商品自体に表示されている商品ラベルもしくは成分ラベルに関心があると分析してもよい。
FIG. 6 shows that the user paid more attention to product A than product B for a longer period of time. Therefore, the
また、分析部13は、一つの商品に関する複数の情報について、ユーザが注目した情報の順番を用いて、ユーザの関心を分析してもよい。例えば、図6は、ユーザが、商品Aの商品ラベルに注目した後に、商品Aの成分ラベルに注目したことを示している。このような場合、分析部13は、商品ラベルよりも成分ラベルに関心があると分析してもよい。もしくは、分析部13は、商品Aについてユーザが最初に注目した商品ラベルの方が、成分ラベルよりも関心があると分析してもよい。
Further, the
また、分析部13は、成分ラベル内に記載されている複数の情報について、ユーザが注目した情報の順番を用いて、ユーザの関心を分析してもよい。例えば、図7は、表示領域30において、注視点31が成分ラベル33内の保存方法に存在することを示している。次に、図8は、注視点31が、成分ラベル内の原材料に移動していることを示している。つまり、図7及び図8は、ユーザが成分ラベル33内の保存方法に注目した後に、原材料に注目したことを示している。このような場合、分析部13は、保存方法よりも原材料に関心があると分析してもよい。もしくは、分析部13は、ユーザが最初に注目した保存方法の方が、原材料よりも関心があると分析してもよい。分析部13は、商品ラベル内に記載されている複数の情報について、ユーザが注目した情報の順番を用いて、ユーザの関心を分析してもよい。
In addition, the
分析部13は、関連情報にAR情報として表示されている内容に基づいて、ユーザの関心を分析してもよい。例えば、AR情報として特定の成分の特徴などが詳細にテキストを用いて表示されており、注視点31がAR情報に存在する場合、商品の成分に関心があると分析してもよい。また、AR情報として商品のコマーシャルやプロモーション動画が表示されており、注視点31がAR情報に存在する場合、商品のブランドやイメージに関心があると分析してもよい。また、AR情報として商品に関する口コミ情報などが表示されており、注視点31がAR情報に存在する場合、商品の人気もしくは他人の意見に関心があると分析してもよい。また、AR情報として割引率等が表示されており、注視点31がAR情報に存在する場合、商品の価格に関心があると分析してもよい。
The
ここで、分析部13は、ユーザが商品Aを購入したことを示す情報を取得したとする。例えば、情報処理装置20は、店舗内に構築されているイントラネット等のネットワークに接続していてもよい。具体的には、情報処理装置20は、無線LAN(Local Area Network)の子機として、ネットワーク上に配置されている親機であるアクセスポイントに接続してもよい。この場合、分析部13は、イントラネットに接続されている店舗のPOS(Point Of Sales)システムから、ユーザが商品Aを購入したことを示す情報を取得してもよい。もしくは、情報処理装置20は、商品を格納するかごと近距離無線通信を行い、かごに商品Aが格納されたことが通知された場合に、ユーザが商品Aを購入したと判定してもよい。例えば、かごに付されたリーダ装置は、商品Aのタグ情報を読み取ることによって、かごに商品Aが格納されたことを検出してもよい。さらに、情報処理装置20とかごがBluetooth(登録商標)通信を行うことによって、情報処理装置20は、かごに商品Aが格納されたことを示す情報を受信してもよい。もしくは、ユーザが情報処理装置20に、購入した製品の情報を入力してもよい。
Here, it is assumed that the
分析部13は、ユーザが商品Aを購入したことを示す情報を取得した場合、最も長く注視領域に表示されていた商品Aの成分情報が、ユーザが商品Aの購入に至った理由であると分析してもよい。
When the
さらに、分析部13は、図6における分析処理もしくはユーザの購入商品等の情報に基づいて、ユーザの属性を推定してもよい。例えば、分析部13は、予め定められた閾値よりも長く注視領域に表示されていた商品が、男性に購入される可能性の高い商品である場合、ユーザが男性であると推定してもよい。また、分析部13は、ユーザが購入した商品が、女性に購入される可能性の高い商品である場合、ユーザが女性であると推定してもよい。さらに、分析部13は、ユーザが注目する商品もしくは購入商品に基づいて、ユーザの年齢を推定してもよい。さらに、分析部13は、関連情報に表示される言語としてユーザが選択した言語に基づいて、ユーザの居住地域を推定してもよい。
Furthermore, the
分析部13は、それぞれのユーザにおける購買行動に関して推定した事項を特定の属性に分類し、マーケティング情報を生成する。分析部13が生成したマーケティング情報は、例えば、店舗内に設置されているサーバ装置等へ送信されてもよく、もしくは、インターネットを介して店舗の外部に配置されているサーバ装置等へ送信されてもよい。
The
さらに、分析部13は、ユーザが購入した商品を分析して、さらにユーザに対して購入を提案する商品を特定してもよい。分析部13は、ベイズ推定を用いて、ユーザに対して購入を提案する商品を特定してもよい。もしくは、分析部13は、予め関連のある複数の商品を含む商品グループを定義したデータベースを管理していてもよい。この場合、分析部13は、ユーザが購入した商品が属する商品グループ内の他の商品を、購入を提案する商品として特定してもよい。商品グループは、例えば、同一の成分を有する複数の商品であってもよく、同一のイベントにおいて使用される複数の商品であってもよい。分析部13は、購入を提案する商品として特定した商品に関する情報を、表示制御部12へ出力し、表示制御部12は、当該商品を表示部22へ表示させてもよい。
Furthermore, the
さらに、分析部13は、商品の購入において関心のある情報をさらに分析し、ユーザに対して購入を提案する商品を特定してもよい。例えば、分析部13は、図6を用いた分析処理において、商品の購入においては、ユーザが成分ラベルに関心があると分析したとする。さらに、分析部13は、ユーザが商品Aを購入したことを示す情報を取得したとする。この場合、分析部13は、さらに、商品Aの成分ラベルに含まれる成分が含まれる他の商品を、購入を提案する商品として特定してもよい。購入を提案する商品は、商品Aと同じカテゴリの商品であってもよく、商品Aとは異なるカテゴリの商品であってもよい。
Furthermore, the
もしくは、分析部13は、図6を用いた分析処理において、商品の購入においては、ユーザが成分ラベルに関心があると分析したとする。この場合、商品Aの成分ラベル及び商品Bの成分ラベルに共通に含まれる成分が含まれる他の商品を、購入を提案する商品として特定してもよい。また、購入を提案する商品は、ユーザが買い物をしている店舗と同じ店舗内に陳列されている商品であってもよく、近隣の店舗に存在する商品であってもよい。
Alternatively, it is assumed that the
さらに、分析部13は、購入を提案する商品として特定した商品に関する情報を関連情報生成部23へ出力してもよい。この場合、関連情報生成部23は、店舗内において当該商品が陳列されている場所までの動線を示す関連情報を生成してもよい。この場合、関連情報生成部23は、店舗内の地図情報及び商品の陳列場所に関する情報を予め管理しているとする。
Furthermore, the
続いて、図9を用いて情報処理装置20における分析処理の流れについて説明する。はじめに、画像取得部11は、撮像部21から撮像画像である映像データを取得し、映像データ内に含まれる商品を特定する(S11)。画像取得部11は、複数の商品を含む映像データを取得してもよい。もしくは、画像取得部11は、商品Aを含む映像データを取得した後に、商品Bが含まれる映像データを取得してもよい。つまり、画像取得部11は、同じタイミングに複数の商品が撮像された映像データを取得してもよく、異なるタイミングに撮像された複数の商品に関する映像データを取得してもよい。
Next, the flow of analysis processing in the
次に、表示制御部12は、関連情報生成部23から出力された商品の関連情報を映像データへ重畳し、表示用データを生成する(S12)。次に、分析部13は、注視点情報を取得する(S13)。注視点情報は、注視点の位置、商品の位置、及び関連情報の位置を示す情報であってもよい。また、注視点情報には、注視点と商品との間の距離、さらに、注視点と関連情報との間の距離が含まれてもよい。注視点と商品との間の距離、さらに、注視点と関連情報との間の距離は、分析部13において算出されてもよい。
Next, the
さらに、注視点情報には、注視点と商品もしくは関連情報とが重複する期間に関する情報が含まれてもよい。さらに、注視点情報には、注視点と商品もしくは関連情報とが重複したタイミングと、注視点と商品もしくは関連情報とが重複しなくなったタイミングとを示す情報が含まれてもよい。 Further, the point-of-regard information may include information regarding the period during which the point-of-regard overlaps with the product or related information. Furthermore, the point-of-regard information may include information indicating the timing at which the point-of-regard and the product or related information overlap and the timing at which the point-of-regard and the product or related information no longer overlap.
次に、分析部13は、注視点情報を用いて、ユーザの関心を分析する(S14)。例えば、分析部13は、図6に示される分析処理を実行する。
Next, the
次に、分析部13は、ステップS14において実行された分析処理の結果、もしくは、ユーザの購入商品等の情報に基づいて、ユーザの属性を推定する(S15)。分析部13は、例えば、属性として、ユーザの性別、年齢、居住地等を推定してもよい。
Next, the
次に、分析部13は、それぞれのユーザにおける商品購買行動に関して推定した事項を特定の属性に分類し、マーケティング情報を生成する(S16)。
Next, the
以上説明したように、情報処理装置20は、注視点と、対象物及び関連情報との位置関係に基づいて、ユーザの関心を分析することができる。具体的には、情報処理装置20は、ユーザがどのような情報に関心を有し、どのような情報に基づいて商品の購入を決定したかの分析を行うことができる。
As described above, the
また、情報処理装置20は、製造ラインもしくはサーバのメンテナンス作業等における作業者の行動を分析してもよい。例えば、関連情報であるAR情報として、作業手順もしくは操作マニュアルが表示されている場合に、作業者が作業している位置、視線の位置、及び作業時間等を用いて作業者の作業を分析してもよい。
In addition, the
(実施の形態2の変形例)
続いて、図10を用いて図6とは異なる分析部13の分析処理の一例について説明する。図10においては、注視領域35に商品ラベル32が表示された場合に、関連情報として商品に関するプロモーションビデオが情報処理装置20に表示されることを前提とする。つまり、情報処理装置20は、注視領域35に商品ラベル32が表示されたタイミングと実質的に同時、もしくは、注視領域35に商品ラベル32が表示されたタイミングから所定期間経過後に、プロモーションビデオを再生する。
(Modification of Embodiment 2)
Next, an example of analysis processing by the
図10は、注視領域35に商品Aが表示されたタイミング、つまり、情報処理装置20を操作するユーザが商品Aの商品ラベルに注目したタイミングと、商品Aに関するプロモーションビデオが再生された時間とを示している。さらに、図10は、情報処理装置20を操作するユーザが、商品Bの商品ラベルに注目したタイミングと、商品Bに関するプロモーションビデオが再生された時間とを示している。
FIG. 10 shows the timing at which product A is displayed in the
図10は、時刻t2に注視領域35に商品Aが表示され、時刻t2から時刻t3の間に商品Aに関するプロモーションビデオが再生されたことを示している。さらに、時刻t4に注視領域35に商品Bが表示され、時刻t4から時刻t5の間に商品Bに関するプロモーションビデオが再生されたことを示している。さらに、時刻t6に注視領域35に商品Aが表示され、時刻t6から時刻t7の間に商品Aに関するプロモーションビデオが再生されたことを示している。さらに、時刻t8に注視領域35に商品Bが表示され、時刻t8から時刻t9の間に商品Bに関するプロモーションビデオが再生されたことを示している。
FIG. 10 shows that product A was displayed in the
この場合、分析部13は、プロモーションビデオの再生時間に応じてユーザの商品に対する興味の程度を分析してもよい。例えば、分析部13は、商品Aに関するプロモーションビデオが再生された期間と商品Bに関するプロモーションビデオが再生された期間とを比較する。商品Aに関するプロモーションビデオが再生された期間は、時刻t2から時刻t3までの期間と時刻t6から時刻t7までの期間とを合計した期間である。また、商品Bに関するプロモーションビデオが再生された期間は、時刻t4から時刻t5までの期間と時刻t8から時刻t9までの期間とを合計した期間である。
In this case, the
図10においては、商品Aに関するプロモーションビデオが再生された期間が商品Bに関するプロモーションビデオが再生された期間よりも長いため、分析部13は、ユーザは商品Aに興味があると分析してもよい。もしくは、分析部13は、プロモーションビデオが再生された期間に応じて、ユーザの興味の程度を対応付けてもよい。ユーザの興味の程度は、例えば、興味が強い、通常の興味、興味が弱い、等の複数の興味のレベルに分類されてもよい。
In FIG. 10, since the period during which the promotional video for product A was played is longer than the period during which the promotional video for product B was played, the
続いて、図11を用いて図6及び図10とは異なる分析部13の分析処理の一例について説明する。図11は、ユーザが商品Aの成分ラベルをどの言語にて表示させ、どのくらいの期間商品Aに注目しているかを示している。また、異なる言語の成分ラベルは、それぞれ関連情報として表示されることを前提とする。具体的には、ユーザは、関連情報に示される成分ラベルを、言語を切り替えて視認することができる。例えば、ユーザは、ディスプレイに表示される、英語、中国語、韓国語のアイコンを選択することによって、関連情報に示される成分ラベルの言語を切り替えることができる。
Next, an example of analysis processing by the
図11に示される商品Aの検出期間は、商品Aが表示領域30に表示されている期間を示している。商品Aが表示領域30に表示されるとは、商品Aの一部が表示領域30に表示されることであってもよい。商品Aが表示領域30に表示されなくなった場合、商品Aの関連情報も表示領域30に表示されなくなる。言い換えると、商品Aが表示領域30に表示されている期間には、商品Aの関連情報も表示領域30に表示される。そのため、分析部13は、商品Aが表示領域30に表示されている期間には、ユーザが、関連情報として表示されている商品Aの成分ラベルを視認している、と推定してもよい。
The detection period for product A shown in FIG. 11 indicates the period during which product A is displayed in
図11は、時刻t2にユーザが関連情報に表示される成分ラベルの言語を英語表記へ切り替えたことを示している。また、図11は、時刻t3にユーザが関連情報に表示される成分ラベルの言語を韓国語表記へ切り替えたことを示している。また、図11は、時刻t2から時刻t4まで、表示領域30には商品Aが表示されていることを示している。この場合、分析部13は、時刻t2から時刻t3までは、ユーザが、英語表記の成分ラベルを視認し、時刻t3から時刻t4までは、ユーザが韓国語標記の成分ラベルを視認していると分析してもよい。
FIG. 11 shows that the user switched the language of the component labels displayed in the related information to English at time t2. FIG. 11 also shows that the user switched the language of the component label displayed in the related information to Korean at time t3. FIG. 11 also shows that the product A is displayed in the
また、図11は、時刻t4から時刻t5までの間、表示領域30に商品Aが表示されなくなったことを示している。また、図11は、時刻t5にユーザが関連情報に表示される成分ラベルの言語を中国語表記へ切り替え、時刻t5から時刻t6まで、表示領域30に商品Aが表示されていることを示している。また、図11は、時刻t6から時刻t7まで表示領域30に商品Aが表示されなくなった後、時刻t7から時刻t8まで表示領域30に表示Aが表示されていることを示している。また、図11は、時刻t7にユーザが関連情報に表示される成分ラベルを英語表記へ切り替えたことを示している。
FIG. 11 also shows that product A is no longer displayed in
この場合、分析部13は、関連情報の言語が切替えられた後に、どのくらいの時間商品Aが表示領域30に表示されているかに応じてユーザの興味のある言語を分析してもよい。図11においては、ユーザが、関連情報として表示されている商品Aの成分ラベルを英語にて視認している、と推定される期間は、時刻t2から時刻t3までの期間と時刻t7から時刻t8までの期間とを合計した期間である。図11は、ユーザが、関連情報として表示されている商品Aの成分ラベルを英語にて視認している、と推定される期間が、商品Aの成分ラベルを韓国語にて視認している期間及び中国語にて視認している期間よりも長いことを示している。これより、分析部13は、ユーザは、英語表記の成分ラベルに興味があると分析してもよい。
In this case, the
続いて以下では、上述の実施形態で説明された、情報処理装置10及び情報処理装置20(以下、情報処理装置10等とする)の構成例について説明する。
Next, configuration examples of the
図12は、情報処理装置10等の構成例を示すブロック図である。図12を参照すると、情報処理装置10等は、ネットワーク・インターフェース1201、プロセッサ1202、及びメモリ1203を含む。ネットワーク・インターフェース1201は、通信システムを構成する他のネットワークノード装置と通信するために使用される。ネットワーク・インターフェース1201は、例えば、IEEE 802.3 seriesに準拠したネットワークインターフェースカード(NIC)を含んでもよい。もしくは、ネットワーク・インターフェース1201は、無線通信を行うために使用されてもよい。例えば、ネットワーク・インターフェース1201は、無線LAN通信、もしくは3GPP(3rd Generation Partnership Project)において規定されたモバイル通信を行うために使用されてもよい。
FIG. 12 is a block diagram showing a configuration example of the
プロセッサ1202は、メモリ1203からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態においてシーケンス図及びフローチャートを用いて説明された情報処理装置10等の処理を行う。プロセッサ1202は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ1202は、複数のプロセッサを含んでもよい。
The processor 1202 reads out software (computer program) from the memory 1203 and executes it to perform the processing of the
メモリ1203は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1203は、プロセッサ1202から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1202は、図示されていないI/Oインタフェースを介してメモリ1203にアクセスしてもよい。 The memory 1203 is composed of a combination of volatile memory and non-volatile memory. Memory 1203 may include storage remotely located from processor 1202 . In this case, processor 1202 may access memory 1203 via an I/O interface, not shown.
図12の例では、メモリ1203は、ソフトウェアモジュール群を格納するために使用される。プロセッサ1202は、これらのソフトウェアモジュール群をメモリ1203から読み出して実行することで、上述の実施形態において説明された情報処理装置10等の処理を行うことができる。
In the example of FIG. 12, memory 1203 is used to store software modules. The processor 1202 reads and executes these software modules from the memory 1203, thereby performing the processing of the
図12を用いて説明したように、情報処理装置10等が有するプロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。
As described with reference to FIG. 12, each of the processors included in the
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリを含む。磁気記録媒体は、例えばフレキシブルディスク、磁気テープ、ハードディスクドライブであってもよい。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)であってもよい。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 In the above examples, the programs can be stored and delivered to computers using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media, magneto-optical recording media (eg, magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/Ws, and semiconductor memories. The magnetic recording medium may be, for example, a floppy disk, magnetic tape, hard disk drive. The semiconductor memory may be mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, or RAM (Random Access Memory), for example. The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 It should be noted that the present disclosure is not limited to the above embodiments, and can be modified as appropriate without departing from the scope of the present disclosure.
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Some or all of the above-described embodiments can also be described in the following supplementary remarks, but are not limited to the following.
(付記1)
対象物が撮像された撮像画像を取得する画像取得部と、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させる表示制御部と、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置と、前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析する分析部と、を備える情報処理装置。
(付記2)
前記分析部は、
前記予め定められた位置と、前記対象物及び前記関連情報の位置との間の距離を用いて前記ユーザの関心を分析する、付記1に記載の情報処理装置。
(付記3)
前記分析部は、
前記予め定められた位置を含む領域に前記対象物が表示された期間及び前記予め定められた位置を含む領域に前記関連情報が表示された期間をさらに用いて、前記ユーザの関心を分析する、請求項1又は2に記載の情報処理装置。
(付記4)
前記対象物は第1の領域及び第2の領域を含み、
前記分析部は、
前記予め定められた位置を含む領域に前記第1の領域が表示された期間及び前記第2の領域が表示された期間をさらに用いて、前記ユーザの関心を分析する、付記1乃至3のいずれか1項に記載の情報処理装置。
(付記5)
前記画像取得部は、
複数の前記対象物が撮像された撮像画像を取得し、
前記表示制御部は、
それぞれの対象物の関連情報を前記撮像画像に重畳して前記表示部へ表示させ、
前記分析部は、
前記予め定められた位置を含む領域にそれぞれの前記対象物が表示された期間及び前記予め定められた位置を含む領域にそれぞれの前記対象物の関連情報が表示された期間をさらに用いて、前記ユーザの関心を分析する、付記1乃至4のいずれか1項に記載の情報処理装置。
(付記6)
前記画像取得部は、
第1の対象物が撮像された第1の撮像画像と、前記第1の対象物が撮像されたタイミングと異なるタイミングに第2の対象物が撮像された第2の撮像画像とを取得し、
前記分析部は、
前記予め定められた位置を含む領域に前記第1の対象物が表示された期間、前記予め定められた位置を含む領域に前記第2の対象物が表示された期間、前記予め定められた位置を含む領域に前記第1の対象物の第1の関連情報が表示された期間、及び前記予め定められた位置を含む領域に前記第2の対象物の第2の関連情報が表示された期間、を用いて前記ユーザの関心を分析する、付記1乃至4のいずれか1項に記載の情報処理装置。
(付記7)
前記分析部は、
前記予め定められた位置を含む領域に前記対象物及び前記関連情報の少なくとも1つが表示された回数をさらに用いて、前記ユーザの関心を分析する、付記1乃至6のいずれか1項に記載の情報処理装置。
(付記8)
前記分析部は、
前記表示部に表示される前記対象物、前記表示部に表示される前記関連情報、及び前記ユーザから入力された入力情報の少なくとも1つを用いて前記ユーザの属性を推定する、付記1乃至7のいずれか1項に記載の情報処理装置。
(付記9)
前記分析部は、
前記撮像画像に含まれる前記対象物が前記ユーザによって購入されたか否かを示す情報を取得し、前記ユーザの関心として、前記ユーザが前記対象物の購入に至った理由を分析する、付記1乃至8のいずれか1項に記載の情報処理装置。
(付記10)
前記分析部は、
前記ユーザが前記対象物を購入に至った理由に基づいて、前記ユーザが購買した前記対象物に関連する他の対象物の購入を促す情報を前記表示部へ表示させる、付記9に記載の情報処理装置。
(付記11)
前記対象物を撮像し前記撮像画像を生成する撮像部と、
前記撮像画像に前記対象物の関連情報が重畳された表示画像を表示する表示部をさらに備える、付記1乃至10のいずれか1項に記載の情報処理装置。
(付記12)
対象物が撮像された撮像画像を取得し、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、
前記表示部内の予め定められた位置と、前記表示部内における前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析する、情報処理装置を用いた分析方法。
(付記13)
前記表示部に表示される前記対象物、前記表示部に表示される前記関連情報、及び前記ユーザから入力された入力情報の少なくとも1つを用いて前記ユーザの属性をさらに推定する、付記12に記載の分析方法。
(付記14)
前記撮像画像に含まれる前記対象物が前記ユーザによって購入されたか否かを示す情報を取得し、
前記ユーザの関心として、前記ユーザが前記対象物の購入に至った理由を分析し、
前記ユーザが前記対象物を購入に至った理由に基づいて、前記ユーザが購買した前記対象物に関連する他の対象物の購入を促す情報を前記表示部へ表示させる、付記12又は13に記載の分析方法。
(付記15)
対象物が撮像された撮像画像を取得し、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、
前記表示部内の予め定められた位置と、前記表示部内における前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析することをコンピュータに実行させるプログラム。
(Appendix 1)
an image acquisition unit that acquires a captured image in which an object is captured;
a display control unit that superimposes information related to the object on the captured image and displays it on a display unit;
obtaining positions of the object and the related information within the display unit, and displaying the object via the display unit using a predetermined position within the display unit and the positions of the object and the related information; and an analysis unit that analyzes the interest of a user who visually recognizes an object.
(Appendix 2)
The analysis unit
The information processing apparatus according to
(Appendix 3)
The analysis unit
analyzing the interest of the user by further using the period during which the object is displayed in the area containing the predetermined position and the period during which the relevant information is displayed in the area containing the predetermined position; The information processing apparatus according to
(Appendix 4)
the object includes a first region and a second region;
The analysis unit
Any of
(Appendix 5)
The image acquisition unit is
Acquiring a captured image in which a plurality of the objects are captured,
The display control unit
superimposing information related to each object on the captured image and displaying it on the display unit;
The analysis unit
Further using the period during which the respective objects are displayed in the areas containing the predetermined positions and the period during which the relevant information of the respective objects is displayed in the areas containing the predetermined positions, 5. The information processing device according to any one of
(Appendix 6)
The image acquisition unit is
Acquiring a first captured image in which a first object is captured and a second captured image in which a second object is captured at a timing different from the timing when the first object is captured,
The analysis unit
A period during which the first object is displayed in an area including the predetermined position, a period during which the second object is displayed in an area including the predetermined position, and the predetermined position and a period during which the second relevant information of the second object is displayed in an area containing the predetermined position. 5. The information processing apparatus according to any one of
(Appendix 7)
The analysis unit
7. The user's interest is further analyzed by using the number of times at least one of the object and the related information is displayed in the area including the predetermined position. Information processing equipment.
(Appendix 8)
The analysis unit
(Appendix 9)
The analysis unit
Obtaining information indicating whether or not the object included in the captured image was purchased by the user, and analyzing the reason why the user purchased the object as the user's interest. 9. The information processing apparatus according to any one of 8.
(Appendix 10)
The analysis unit
The information according to
(Appendix 11)
an imaging unit that images the object and generates the captured image;
11. The information processing apparatus according to any one of
(Appendix 12)
Acquiring a captured image in which an object is captured,
superimposing information related to the object on the captured image and displaying it on a display unit;
Acquiring the position of the object and the related information in the display unit;
information processing for analyzing interest of a user viewing the object through the display unit using a predetermined position within the display unit and positions of the object and the related information within the display unit; Analysis method using equipment.
(Appendix 13)
(Appendix 14)
obtaining information indicating whether or not the object included in the captured image has been purchased by the user;
Analyze the reason why the user purchased the object as the user's interest,
14. The method according to
(Appendix 15)
Acquiring a captured image in which an object is captured,
superimposing information related to the object on the captured image and displaying it on a display unit;
Acquiring the position of the object and the related information in the display unit;
a computer analyzing interest of a user viewing the object through the display unit using a predetermined position within the display unit and positions of the object and the related information within the display unit; program to run.
10 情報処理装置
11 画像取得部
12 表示制御部
13 分析部
20 情報処理装置
21 撮像部
22 表示部
23 関連情報生成部
30 表示領域
31 注視点
32 商品ラベル
33 成分ラベル
34 関連情報
35 注視領域
REFERENCE SIGNS
Claims (9)
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させる表示制御部と、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置から、前記対象物及び前記関連情報の位置までの距離が近いほど、前記表示部を介して前記対象物を視認するユーザの前記対象物もしくは前記関連情報への関心が高いと分析する分析部と、を備える情報処理装置。 an image acquisition unit that acquires a captured image in which an object is captured;
a display control unit that superimposes information related to the object on the captured image and displays it on a display unit;
The positions of the object and the related information within the display unit are acquired, and the closer the distance from the predetermined position within the display unit to the positions of the object and the related information, the closer the distance is to the position of the object and the related information, the and an analysis unit that analyzes that a user visually recognizing the object has a high interest in the object or the related information .
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させる表示制御部と、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置を含む領域に前記対象物が表示された期間が、前記予め定められた位置を含む領域に前記関連情報が表示された期間よりも長い場合、前記表示部を介して前記対象物を視認するユーザが、前記関連情報よりも前記対象物上に示された情報に関心があると分析し、前記予め定められた位置を含む領域に前記関連情報が表示された期間が、前記予め定められた位置を含む領域に前記対象物が表示された期間よりも長い場合、前記ユーザが、前記対象物上に示された情報よりも前記関連情報に対する関心がある、と分析する分析部と、を備える情報処理装置。 an image acquisition unit that acquires a captured image in which an object is captured;
a display control unit that superimposes information related to the object on the captured image and displays it on a display unit;
obtaining the positions of the object and the related information in the display unit, and displaying the object in an area including a predetermined position in the display unit during a period in which the area including the predetermined position is displayed; Analyzing that, if the relevant information is displayed for a period longer than the period, the user viewing the object through the display unit is more interested in the information displayed on the object than the relevant information; When the period during which the related information is displayed in the area containing the predetermined position is longer than the period during which the object is displayed in the area containing the predetermined position, the user may display the object and an analysis unit that analyzes that there is more interest in the related information than in the information shown above .
前記分析部は、
前記予め定められた位置を含む領域に前記第1の領域が表示された期間が、前記第2の領域が表示された期間よりも長い場合、前記ユーザが、前記第2の領域に示された情報よりも前記第1の領域に示された情報に関心があると分析し、前記予め定められた位置を含む領域に前記第2の領域が表示された期間が、前記第1の領域が表示された期間よりも長い場合、前記ユーザが、前記第1の領域に示された情報よりも前記第2の領域に示された情報に関心があると分析する、請求項2に記載の情報処理装置。 the object includes a first region and a second region;
The analysis unit
When the period during which the first area is displayed in the area containing the predetermined position is longer than the period during which the second area is displayed, the user is displayed in the second area . analyzing that the information displayed in the first area is more interesting than the information, and the period during which the second area is displayed in the area including the predetermined position is the period in which the first area is displayed 3. The information processing according to claim 2 , analyzing that the user is more interested in the information shown in the second area than the information shown in the first area, if the period is longer than the period of time indicated in the first area. Device.
複数の前記対象物が撮像された撮像画像を取得し、
前記表示制御部は、
それぞれの対象物の関連情報を前記撮像画像に重畳して前記表示部へ表示させ、
前記分析部は、
前記予め定められた位置を含む領域にそれぞれの前記対象物が表示された期間及び前記予め定められた位置を含む領域にそれぞれの前記対象物の関連情報が表示された期間をさらに用いて、前記ユーザの関心を分析する、請求項2又は3に記載の情報処理装置。 The image acquisition unit is
Acquiring a captured image in which a plurality of the objects are captured,
The display control unit
superimposing information related to each object on the captured image and displaying it on the display unit;
The analysis unit
Further using the period during which the respective objects are displayed in the areas containing the predetermined positions and the period during which the relevant information of the respective objects is displayed in the areas containing the predetermined positions, 4. The information processing apparatus according to claim 2 , which analyzes user interest.
第1の対象物が撮像された第1の撮像画像と、前記第1の対象物が撮像されたタイミングと異なるタイミングに第2の対象物が撮像された第2の撮像画像とを取得し、
前記分析部は、
前記予め定められた位置を含む領域に前記第1の対象物が表示された期間、前記予め定められた位置を含む領域に前記第2の対象物が表示された期間、前記予め定められた位置を含む領域に前記第1の対象物の第1の関連情報が表示された期間、及び前記予め定められた位置を含む領域に前記第2の対象物の第2の関連情報が表示された期間、を用いて前記ユーザの関心を分析する、請求項2又は3に記載の情報処理装置。 The image acquisition unit is
Acquiring a first captured image in which a first object is captured and a second captured image in which a second object is captured at a timing different from the timing when the first object is captured,
The analysis unit
A period during which the first object is displayed in an area including the predetermined position, a period during which the second object is displayed in an area including the predetermined position, and the predetermined position and a period during which the second relevant information of the second object is displayed in an area containing the predetermined position. 4. The information processing apparatus according to claim 2 , wherein the interest of the user is analyzed using .
前記予め定められた位置を含む領域に前記対象物及び前記関連情報の少なくとも1つが表示された回数をさらに用いて、前記ユーザの関心を分析する、請求項1乃至5のいずれか1項に記載の情報処理装置。 The analysis unit
6. The method according to any one of claims 1 to 5 , further using the number of times at least one of said object and said related information has been displayed in an area including said predetermined position to analyze said user's interest. information processing equipment.
前記表示部に表示される前記対象物、前記表示部に表示される前記関連情報、及び前記ユーザから入力された入力情報の少なくとも1つを用いて前記ユーザの属性を推定する、請求項1乃至6のいずれか1項に記載の情報処理装置。 The analysis unit
3. Estimate attributes of said user using at least one of said object displayed on said display unit, said related information displayed on said display unit, and input information input by said user. 7. The information processing device according to any one of 6 .
対象物が撮像された撮像画像を取得し、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、
前記表示部内の予め定められた位置から、前記表示部内における前記対象物及び前記関連情報までの距離が近いほど、前記表示部を介して前記対象物を視認するユーザの前記対象物もしくは前記関連情報への関心が高いと分析する、情報処理装置を用いた分析方法。 An information processing device acquires a captured image in which an object is captured,
superimposing information related to the object on the captured image and displaying it on a display unit;
Acquiring the position of the object and the related information in the display unit;
The closer the distance from the predetermined position in the display unit to the object and the related information in the display unit, the more the object or the related information of the user who visually recognizes the object through the display unit. An analysis method using an information processing device that analyzes that there is a high interest in
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、
前記表示部内の予め定められた位置から、前記表示部内における前記対象物及び前記関連情報までの距離が近いほど、前記表示部を介して前記対象物を視認するユーザの前記対象物もしくは前記関連情報への関心が高いと分析することをコンピュータに実行させるプログラム。 Acquiring a captured image in which an object is captured,
superimposing information related to the object on the captured image and displaying it on a display unit;
Acquiring the position of the object and the related information in the display unit;
The closer the distance from the predetermined position in the display unit to the object and the related information in the display unit, the more the object or the related information of the user who visually recognizes the object through the display unit. A program that causes a computer to perform an analysis that is of high interest to .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018203186A JP7206806B2 (en) | 2018-10-29 | 2018-10-29 | Information processing device, analysis method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018203186A JP7206806B2 (en) | 2018-10-29 | 2018-10-29 | Information processing device, analysis method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020071530A JP2020071530A (en) | 2020-05-07 |
JP7206806B2 true JP7206806B2 (en) | 2023-01-18 |
Family
ID=70547830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018203186A Active JP7206806B2 (en) | 2018-10-29 | 2018-10-29 | Information processing device, analysis method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7206806B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006511859A (en) | 2002-12-19 | 2006-04-06 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | Search for images |
JP2013218417A (en) | 2012-04-05 | 2013-10-24 | Sharp Corp | Recommend system, reading terminal device and recommend method |
JP2015232913A (en) | 2015-09-29 | 2015-12-24 | 株式会社東芝 | Augmented reality device, method and program |
JP2017182628A (en) | 2016-03-31 | 2017-10-05 | 株式会社エヌ・ティ・ティ・データ | Augmented reality user interface application device and control method |
-
2018
- 2018-10-29 JP JP2018203186A patent/JP7206806B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006511859A (en) | 2002-12-19 | 2006-04-06 | ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | Search for images |
JP2013218417A (en) | 2012-04-05 | 2013-10-24 | Sharp Corp | Recommend system, reading terminal device and recommend method |
JP2015232913A (en) | 2015-09-29 | 2015-12-24 | 株式会社東芝 | Augmented reality device, method and program |
JP2017182628A (en) | 2016-03-31 | 2017-10-05 | 株式会社エヌ・ティ・ティ・データ | Augmented reality user interface application device and control method |
Also Published As
Publication number | Publication date |
---|---|
JP2020071530A (en) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238655B2 (en) | Offline shopping guide method and apparatus | |
US11074610B2 (en) | Sales promotion system, sales promotion method, non-transitory computer readable medium, and shelf system | |
CN110033298B (en) | Information processing apparatus, control method thereof, system thereof, and storage medium | |
KR102374861B1 (en) | O2O(On-line to Off-line) BASED SYSTEM AND METHOD FOR SUGGESTING CUSTOMIZED INFORMATION | |
US20160203499A1 (en) | Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system | |
JP5238933B2 (en) | Sales information generation system with customer base | |
KR102246109B1 (en) | Product recommendation system and method based on consumer preference | |
JP7384516B2 (en) | Information processing device, product recommendation method, program, and system | |
JPWO2014087725A1 (en) | Product information processing apparatus, data processing method thereof, and program | |
KR20190007681A (en) | Apparatus and method for shop analysis | |
US20140214618A1 (en) | In-store customer scan process including nutritional information | |
US10521844B2 (en) | Computer vision product recognition | |
US20190213610A1 (en) | Evaluation device and evaluation method | |
JP7294663B2 (en) | Customer service support device, customer service support method, and program | |
US20230401632A1 (en) | Methods and Systems for Initiating a Virtual Try-On Application Running on a Computer System and Providing Interactive Augmented Reality (AR) Graphics | |
CN113887884A (en) | Business-super service system | |
JP2019139321A (en) | Customer behavior analysis system and customer behavior analysis method | |
JP2016173735A (en) | Customer information system and program | |
WO2019192455A1 (en) | Store system, article matching method and apparatus, and electronic device | |
JP7206806B2 (en) | Information processing device, analysis method, and program | |
US11410216B2 (en) | Customer service assistance apparatus, customer service assistance method, and computer-readable recording medium | |
US20240013287A1 (en) | Real time visual feedback for augmented reality map routing and item selection | |
JP2016024601A (en) | Information processing apparatus, information processing system, information processing method, commodity recommendation method, and program | |
KR102512371B1 (en) | System for Selling Clothing Online | |
JP7515196B2 (en) | Smart shelf management system and its operation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221219 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7206806 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |