JP7206806B2 - Information processing device, analysis method, and program - Google Patents

Information processing device, analysis method, and program Download PDF

Info

Publication number
JP7206806B2
JP7206806B2 JP2018203186A JP2018203186A JP7206806B2 JP 7206806 B2 JP7206806 B2 JP 7206806B2 JP 2018203186 A JP2018203186 A JP 2018203186A JP 2018203186 A JP2018203186 A JP 2018203186A JP 7206806 B2 JP7206806 B2 JP 7206806B2
Authority
JP
Japan
Prior art keywords
information
displayed
user
display unit
related information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018203186A
Other languages
Japanese (ja)
Other versions
JP2020071530A (en
Inventor
真 則枝
淳 佐藤
一徳 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2018203186A priority Critical patent/JP7206806B2/en
Publication of JP2020071530A publication Critical patent/JP2020071530A/en
Application granted granted Critical
Publication of JP7206806B2 publication Critical patent/JP7206806B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本開示は情報処理装置、分析方法、及びプログラムに関する。 The present disclosure relates to an information processing device, an analysis method, and a program.

近年、AR(Augmented Reality)を用いた様々なサービスの提供が検討されている。例えば、商品を売買する店舗において、顧客がスマートフォン端末もしくはタブレット型端末等の表示部を介して商品を視認した場合に、表示部に、商品の画像と共に、商品の説明を表示させるサービスを提供することが検討されている。特許文献1には、スマートフォン等の携帯端末を用いて撮影した映像に、映像に表示される商品の付加情報も併せて表示させる処理が開示されている。 In recent years, the provision of various services using AR (Augmented Reality) has been considered. For example, in a store where products are bought and sold, when a customer visually recognizes the product through the display unit of a smartphone or tablet, we provide a service that displays the image of the product and the description of the product on the display unit. is being considered. Japanese Patent Laid-Open No. 2004-100002 discloses a process of displaying additional information of a product displayed in a video image captured using a mobile terminal such as a smartphone.

国際公開第2014/017392号WO2014/017392

今後、店舗が効率的に売り上げを伸ばすために、情報端末を活用して商品を購入するユーザの購買行動を分析し、分析結果を活用した店舗運営を行うことが望まれている。特許文献1には、情報端末を活用して商品の購入を促すためにARを活用することが開示されている。しかし、特許文献1に開示されているシステムにおいては、情報端末から顧客の購買行動に関する情報を取得し、取得した情報を分析することができないという問題がある。 In the future, in order for stores to efficiently increase sales, it is desired to analyze the purchasing behavior of users who purchase products using information terminals and to operate stores using the analysis results. Patent Literature 1 discloses the use of AR to encourage the purchase of a product using an information terminal. However, in the system disclosed in Patent Document 1, there is a problem that it is impossible to acquire information on customer's purchasing behavior from the information terminal and to analyze the acquired information.

本開示の目的は、ARを活用した情報端末から情報を取得し、取得した情報を用いてユーザの購買行動を分析することができる情報処理装置、分析方法、及びプログラムを提供することにある。 An object of the present disclosure is to provide an information processing device, an analysis method, and a program that can acquire information from an information terminal that utilizes AR and analyze a user's purchasing behavior using the acquired information.

本開示の第1の態様にかかる情報処理装置は、対象物が撮像された撮像画像を取得する画像取得部と、前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させる表示制御部と、前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置と、前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析する分析部と、を備える。 An information processing apparatus according to a first aspect of the present disclosure includes an image acquisition unit that acquires a captured image in which an object is captured, and a display that superimposes information related to the object on the captured image and displays it on a display unit. a control unit, acquiring positions of the target object and the related information within the display unit, and using a predetermined position within the display unit and positions of the target object and the related information to display the display unit; an analysis unit that analyzes interest of a user viewing the object through the object.

本開示の第2の態様にかかる分析方法は、対象物が撮像された撮像画像を取得し、前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置と、前記表示部内における前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析する分析方法。 An analysis method according to a second aspect of the present disclosure acquires a captured image in which an object is captured, superimposes information related to the object on the captured image and displays it on a display unit, and displays the Obtaining a position of an object and the related information, and using a predetermined position within the display unit and the position of the object and the related information within the display unit, the object through the display unit An analysis method for analyzing the interests of users who view the .

本開示の第3の態様にかかるプログラムは、対象物が撮像された撮像画像を取得し、前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置と、前記表示部内における前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析することをコンピュータに実行させる。 A program according to a third aspect of the present disclosure acquires a captured image in which an object is captured, superimposes relevant information of the object on the captured image and displays it on a display unit, and displays the object in the display unit. obtaining positions of an object and the related information, and displaying the object through the display unit using a predetermined position within the display unit and the positions of the object and the related information within the display unit; A computer is made to analyze the viewing user's interest.

本開示により、ARを活用した情報端末から情報を取得し、取得した情報を用いてユーザの購買行動を分析することができる情報処理装置、分析方法、及びプログラムを提供することができる。 According to the present disclosure, it is possible to provide an information processing device, an analysis method, and a program capable of acquiring information from an information terminal that utilizes AR and analyzing user purchasing behavior using the acquired information.

実施の形態1にかかる情報処理装置の構成図である。1 is a configuration diagram of an information processing apparatus according to a first embodiment; FIG. 実施の形態2にかかる情報処理装置の構成図である。1 is a configuration diagram of an information processing apparatus according to a second embodiment; FIG. 実施の形態2にかかる表示部に表示される画像のイメージの図である。FIG. 10 is an image diagram of an image displayed on the display unit according to the second embodiment; FIG. 実施の形態2にかかる表示部に表示される画像のイメージの図である。FIG. 10 is an image diagram of an image displayed on the display unit according to the second embodiment; FIG. 実施の形態2にかかる表示部に表示される画像のイメージの図である。FIG. 10 is an image diagram of an image displayed on the display unit according to the second embodiment; FIG. 実施の形態2にかかる分析処理を説明する図である。FIG. 11 is a diagram for explaining analysis processing according to the second embodiment; FIG. 実施の形態2にかかる表示部に表示される画像のイメージの図である。FIG. 10 is an image diagram of an image displayed on the display unit according to the second embodiment; FIG. 実施の形態2にかかる表示部に表示される画像のイメージの図である。FIG. 10 is an image diagram of an image displayed on the display unit according to the second embodiment; FIG. 実施の形態2にかかる情報処理装置における分析処理の流れを示す図である。FIG. 10 is a diagram showing the flow of analysis processing in the information processing apparatus according to the second embodiment; 実施の形態2の変形例にかかる分析処理を説明する図である。FIG. 11 is a diagram for explaining analysis processing according to a modification of the second embodiment; FIG. 実施の形態2の変形例にかかる分析処理を説明する図である。FIG. 11 is a diagram for explaining analysis processing according to a modification of the second embodiment; FIG. それぞれの実施の形態にかかる情報処理装置の構成図である。1 is a configuration diagram of an information processing apparatus according to each embodiment; FIG.

(実施の形態1)
以下、図面を参照して本開示の実施の形態について説明する。図1を用いて情報処理装置10の構成例について説明する。情報処理装置10は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。情報処理装置10は、例えば、スマートフォン端末及びタブレット型端末等の情報端末であってもよい。もしくは、情報処理装置10は、パーソナルコンピュータ装置もしくはサーバ装置等であってもよい。
(Embodiment 1)
Embodiments of the present disclosure will be described below with reference to the drawings. A configuration example of the information processing apparatus 10 will be described with reference to FIG. The information processing device 10 may be a computer device operated by a processor executing a program stored in a memory. The information processing device 10 may be, for example, an information terminal such as a smartphone terminal and a tablet terminal. Alternatively, the information processing device 10 may be a personal computer device, a server device, or the like.

情報処理装置10は、画像取得部11、表示制御部12、及び分析部13を有している。画像取得部11、表示制御部12、及び分析部13等の情報処理装置10を構成する構成要素は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、情報処理装置10の構成要素は、回路もしくはチップ等のハードウェアであってもよい。 The information processing device 10 has an image acquisition unit 11 , a display control unit 12 and an analysis unit 13 . Components constituting the information processing apparatus 10 such as the image acquisition unit 11, the display control unit 12, and the analysis unit 13 are software or modules whose processing is executed by the processor executing a program stored in the memory. may Alternatively, the components of the information processing device 10 may be hardware such as circuits or chips.

画像取得部11は、対象物が撮像された撮像画像を取得する。対象物は、例えば、店舗に陳列されている商品であってもよい。具体的には、対象物は、顧客が購入したもしくは購入を検討している商品であってもよい。もしくは、対象物は、ユーザが操作する装置もしくは装置の構成物品等であってもよい。具体的には、対象物は、管理者等が保守する対象となる装置であってもよい。 The image acquisition unit 11 acquires a captured image in which an object is captured. The object may be, for example, a product displayed in a store. Specifically, the object may be a product that the customer has purchased or is considering purchasing. Alternatively, the object may be a device operated by the user or a component of the device. Specifically, the object may be a device to be maintained by an administrator or the like.

撮像画像は、静止画であってもよく、動画であってもよい。画像取得部11は、情報処理装置10に内蔵されているカメラを用いて撮像された撮像画像を取得してもよく、情報処理装置10に外付けされたカメラを用いて撮像された撮像画像を取得してもよい。もしくは、画像取得部11は、遠隔に設置されたカメラにおいて撮像された撮像画像を、インターネットもしくはイントラネット等のネットワークを介して取得してもよい。もしくは、画像取得部11は、無線通信回線を介して接続しているカメラから撮像画像を取得してもよい。無線通信回線は、例えば、無線LAN(Local Area Network)通信が用いられてもよく、Bluetooth(登録商標)等の近距離無線通信が用いられてもよい。ユーザは、対象物の撮像機能を有する情報処理装置10を情報端末として用いてもよく、撮像機能及び撮像画像を他の装置へ送信する通信機能を有するカメラを情報端末として用いてもよい。 The captured image may be a still image or a moving image. The image acquisition unit 11 may acquire a captured image captured using a camera built into the information processing apparatus 10, or may acquire a captured image captured using a camera externally attached to the information processing apparatus 10. may be obtained. Alternatively, the image acquisition unit 11 may acquire a captured image captured by a remotely installed camera via a network such as the Internet or an intranet. Alternatively, the image acquisition unit 11 may acquire the captured image from a camera connected via a wireless communication line. As the wireless communication line, for example, wireless LAN (Local Area Network) communication may be used, or short-range wireless communication such as Bluetooth (registered trademark) may be used. A user may use the information processing apparatus 10 having an imaging function of an object as an information terminal, or may use a camera having an imaging function and a communication function of transmitting a captured image to another apparatus as an information terminal.

表示制御部12は、対象物の関連情報を撮像画像に重畳して表示部へ表示させる。関連情報は、例えば、対象物の名称、対象物の特徴、対象物に含まれる成分、対象物の産地もしくは製造場所、等を示す情報であってもよい。さらに、関連情報は、対象物が食品である場合、対象物の調理方法を示す情報であってもよい。または、関連情報は、顧客に対して対象物の購入を促す情報であってもよい。対象物の購入を促す情報は、例えば、対象物の割引情報もしくは対象物の人気を示す情報等であってもよい。または、関連情報は、装置の操作マニュアル、装置に含まれるボタンの機能、等を示す情報であってもよい。関連情報は、テキストデータであってもよく、静止画データであってもよく、動画データであってもよい。ユーザは、関連情報に表示される言語を選択してもよい。例えば、ユーザは、選択した言語に関する情報を入力してもよい。具体的には、ユーザは、表示部に対するタッチ操作もしくはボタン操作等を実行することによって、言語を選択してもよい。関連情報は、ARを用いて表示部に表示される情報であってもよく、AR情報と称されてもよい。 The display control unit 12 superimposes the information related to the object on the captured image and causes the display unit to display the information. The related information may be information indicating, for example, the name of the object, the characteristics of the object, the components contained in the object, the place of production or manufacturing of the object, and the like. Furthermore, when the object is food, the related information may be information indicating how to cook the object. Alternatively, the related information may be information that prompts the customer to purchase the target object. The information prompting the purchase of the target object may be, for example, discount information of the target object, information indicating the popularity of the target object, or the like. Alternatively, the related information may be information indicating an operation manual for the device, functions of buttons included in the device, and the like. The related information may be text data, still image data, or moving image data. The user may select the language in which the related information will be displayed. For example, the user may enter information regarding the selected language. Specifically, the user may select a language by performing a touch operation or a button operation on the display unit. The related information may be information displayed on the display using AR, and may be referred to as AR information.

対象物の関連情報を撮像画像に重畳するとは、例えば、関連情報が対象物の周辺もしくは対象物の一部と重なる位置に表示されるように映像データもしくは画像データを生成することである。言い換えると、対象物の関連情報を撮像画像に重畳するとは、撮像画像と画像データである関連情報とを合成することであってもよい。 To superimpose the relevant information of the object on the captured image means, for example, to generate video data or image data so that the relevant information is displayed in the vicinity of the object or in a position overlapping with a part of the object. In other words, superimposing the related information of the object on the captured image may be combining the captured image and the related information, which is image data.

表示制御部12は、情報処理装置10内のメモリもしくは情報処理装置10に外付けされたメモリ等から、対象物と関連付けられた関連情報を抽出してもよく、ネットワークを介して他の装置から関連情報を受信してもよい。例えば、表示制御部12は、撮像画像に含まれる対象物を識別し、対象物の識別情報と関連付けられた関連情報を抽出してもよい。もしくは、情報処理装置10は、対象物の識別情報をネットワークを介して他の装置へ送信し、他の装置から、識別情報と関連付けられた関連情報を受信してもよい。 The display control unit 12 may extract related information associated with the object from a memory in the information processing device 10 or a memory externally attached to the information processing device 10, or extract related information from another device via a network. Related information may be received. For example, the display control unit 12 may identify an object included in the captured image and extract related information associated with the identification information of the object. Alternatively, the information processing device 10 may transmit the identification information of the object to another device via the network and receive related information associated with the identification information from the other device.

表示部は、例えば、ディスプレイ装置であってもよい。表示部は、情報処理装置10と一体として構成されてもよく、ケーブルもしくは無線通信等を介して情報処理装置10と接続されてもよく、ネットワークを介して情報処理装置10と接続されてもよい。表示制御部12が表示部へ表示させるとは、表示制御部12が生成した映像データを表示部へ出力すると言い換えられてもよい。 The display unit may be, for example, a display device. The display unit may be configured integrally with the information processing device 10, may be connected to the information processing device 10 via a cable or wireless communication, or may be connected to the information processing device 10 via a network. . Displaying by the display control unit 12 on the display unit may be translated into outputting the image data generated by the display control unit 12 to the display unit.

分析部13は、表示部内における対象物及び関連情報の位置を取得する。さらに、分析部13は、表示部内の予め定められた位置と、対象物及び関連情報の位置とを用いて、表示部を介して対象物を視認するユーザの関心を分析する。 The analysis unit 13 acquires the positions of the target object and related information within the display unit. Further, the analysis unit 13 analyzes the interest of the user viewing the object through the display unit using the predetermined position within the display unit and the positions of the object and related information.

表示部内における対象物及び関連情報の位置は、例えば、ディスプレイに表示される対象物及び関連情報のディスプレイ上の位置である。対象物及び関連情報の位置は、対象物及び関連情報が表示された領域内の任意の位置であってもよい。例えば、対象物及び関連情報の位置は、対象物及び関連情報の中心を示す位置であってもよく、対象物及び関連情報の輪郭上の任意の位置であってもよい。位置は、ディスプレイの表面をXY平面とした場合における、XY平面上の座標を用いて示されてもよい。分析部13は、映像データを生成する表示制御部12から、対象物及び関連情報の位置を取得してもよく、映像データを表示する表示部から、対象物及び関連情報の位置を取得してもよい。 The position of the object and related information in the display unit is, for example, the position on the display of the object and related information displayed on the display. The position of the object and related information may be any position within the area where the object and related information are displayed. For example, the position of the target object and related information may be a position indicating the center of the target object and related information, or an arbitrary position on the contour of the target object and related information. The position may be indicated using coordinates on the XY plane when the surface of the display is the XY plane. The analysis unit 13 may acquire the positions of the target object and the related information from the display control unit 12 that generates the image data, and acquire the positions of the target object and the related information from the display unit that displays the image data. good too.

表示部内の予め定められた位置は、例えば、ユーザの視線が最も集中する位置として、予め定められたディスプレイ上の任意の位置であってもよい。表示部内の予め定められた位置は、例えば、ディスプレイ上の中心であってもよい。表示部内の予め定められた位置は、例えば、ユーザの操作によって変更されてもよい。 The predetermined position within the display unit may be, for example, an arbitrary position on the display predetermined as a position where the user's line of sight is most concentrated. The predetermined position within the display may be, for example, the center on the display. A predetermined position within the display unit may be changed by, for example, a user's operation.

ユーザの関心は、例えば、ユーザがどのような情報に着目して対象物の購入に至ったか、ユーザの嗜好性、等であってもよい。または、ユーザの関心は、関連情報に示される操作マニュアルに従って装置の操作を行う際に、ボタン、計器等の、装置のどの部分に注目しているか、等であってもよい。ユーザの関心は、ユーザの行動を示す情報もしくはユーザの行動の根拠となり得る情報であってもよい。 The user's interest may be, for example, what kind of information the user focused on to purchase the target object, the user's preference, or the like. Alternatively, the user's interest may be, for example, which part of the device, such as buttons and gauges, the user pays attention to when operating the device according to the operation manual indicated in the related information. The user's interest may be information indicating the user's behavior or information that may be the basis for the user's behavior.

表示部内の予め定められた位置と、対象物及び関連情報の位置とを用いるとは、表示部内の予め定められた位置と、対象物及び関連情報の位置との関係性を規定することであってもよい。例えば、表示部内の予め定められた位置から、対象物及び関連情報の位置までの距離が算出されてもよい。例えば、分析部13は、算出された距離が近いほど、対象物もしくは関連情報への関心が高いと分析してもよい。 Using the predetermined position in the display section and the position of the object and related information means defining the relationship between the predetermined position in the display section and the position of the target object and related information. may For example, the distance from a predetermined position within the display unit to the position of the object and related information may be calculated. For example, the analysis unit 13 may analyze that the shorter the calculated distance, the higher the interest in the object or related information.

以上説明したように、情報処理装置10は、対象物及び関連情報の位置と、表示部内の予め定められた位置とを取得することができる。表示部内の予め定められた位置に対する対象物及び関連情報の位置は、ユーザの対象物もしくは関連情報への興味もしくは関心に応じて変化する情報である。そのため、情報処理装置10は、対象物及び関連情報の位置と、表示部内の予め定められた位置とを取得することによって、ユーザの対象物もしくは関連情報への関心を分析することができる。つまり、情報処理装置10はユーザの行動を分析することができる。 As described above, the information processing apparatus 10 can acquire the positions of the target object and related information and the predetermined positions within the display unit. The position of the object and related information relative to the predetermined position within the display is information that changes according to the user's interest in or interest in the object or related information. Therefore, the information processing apparatus 10 can analyze the user's interest in the target object or related information by acquiring the position of the target object and related information and the predetermined position within the display unit. In other words, the information processing device 10 can analyze the behavior of the user.

(実施の形態2)
続いて、図2を用いて実施の形態2にかかる情報処理装置20の構成例について説明する。情報処理装置20は、図1の情報処理装置10の構成に、撮像部21、表示部22、及び関連情報生成部23が追加された構成である。情報処理装置20において、情報処理装置10と同様の構成については、詳細な説明を省略する。情報処理装置20は、例えば、スマートフォン端末であってもよく、タブレット型端末であってもよい。
(Embodiment 2)
Next, a configuration example of the information processing apparatus 20 according to the second embodiment will be described with reference to FIG. The information processing device 20 has a configuration in which an imaging unit 21, a display unit 22, and a related information generation unit 23 are added to the configuration of the information processing device 10 in FIG. In the information processing device 20, the detailed description of the configuration similar to that of the information processing device 10 is omitted. The information processing device 20 may be, for example, a smartphone terminal or a tablet terminal.

撮像部21は、対象物を撮像し、撮像画像を生成する。撮像部21は、撮像画像をデジタルデータである映像データとして画像取得部11へ出力する。情報処理装置20を操作するユーザの操作に応じて、撮像される対象が変化する。例えば、ユーザは、情報処理装置20であるスマートフォン端末を対象物の前にかざすことによって対象物を撮像する。 The imaging unit 21 images an object and generates a captured image. The imaging unit 21 outputs the captured image to the image acquisition unit 11 as video data, which is digital data. The object to be imaged changes according to the operation of the user who operates the information processing device 20 . For example, the user captures an image of the object by holding the smartphone terminal, which is the information processing device 20, in front of the object.

画像取得部11は、撮像部21から取得した映像データを、表示制御部12へ出力する。さらに、画像取得部11は、映像データを用いた画像認識処理を行う。画像取得部11は、画像認識処理を行うことによって、映像データ内に含まれる対象物を特定する。対象物を特定するための画像認識処理は、例えば、映像データ内の特徴量を抽出し、抽出した特徴量と、予め情報処理装置20内のメモリ等に登録された対象物の特徴量とを照合する。画像取得部11は、抽出した特徴量が、登録された対象物の特徴量と一致した場合もしくは一致箇所の数が予め定められた値を超えた場合、映像データ内に予め登録された対象物が含まれていると特定する。画像取得部11は、特定した対象物の識別情報を関連情報生成部23へ出力する。 The image acquisition unit 11 outputs video data acquired from the imaging unit 21 to the display control unit 12 . Furthermore, the image acquisition unit 11 performs image recognition processing using video data. The image acquisition unit 11 identifies objects included in the video data by performing image recognition processing. Image recognition processing for identifying an object is performed, for example, by extracting a feature amount in video data, and comparing the extracted feature amount with the feature amount of the object registered in advance in the memory or the like in the information processing apparatus 20. match. If the extracted feature amount matches the feature amount of the registered target object or if the number of matching portions exceeds a predetermined value, the image acquisition unit 11 detects the target object registered in advance in the video data. identify it as containing The image acquisition unit 11 outputs identification information of the specified object to the related information generation unit 23 .

関連情報生成部23は、対象物の識別情報と、当該対象物の関連情報とを関連付けて管理する。例えば、対象物が店舗に陳列される商品である場合、商品の識別情報として、商品名が用いられてもよい。さらに、商品名と、当該商品の成分情報、商品の特徴情報、商品の産地情報等が関連付けて管理されてもよい。関連情報生成部23は、画像取得部11から識別情報を取得すると、識別情報に関連付けられている関連情報を表示制御部12へ出力する。ユーザが、表示を希望する関連情報を選択した選択情報を情報処理装置10へ入力した場合、関連情報生成部23は、識別情報に関連付けられている関連情報の内、選択された関連情報を表示制御部12へ出力する。ユーザが選択情報を情報処理装置10へ入力していない場合、関連情報生成部23は、識別情報に関連付けられている関連情報の内、任意の関連情報を表示制御部12へ出力してもよい。もしくは、関連情報生成部23は、識別情報に関連付けられている複数の関連情報を、所定の間隔をあけて順番に表示制御部12へ出力してもよい。もしくは、関連情報生成部23は、複数の関連情報のそれぞれに優先順位を予め設定し、優先順位に従って関連情報を表示制御部12へ出力してもよい。 The related information generator 23 associates and manages the identification information of the object and the related information of the object. For example, if the target object is a product displayed in a store, the product name may be used as the product identification information. Furthermore, the name of the product, the component information of the product, the characteristic information of the product, the production area information of the product, and the like may be associated and managed. When acquiring the identification information from the image acquisition unit 11 , the related information generation unit 23 outputs related information associated with the identification information to the display control unit 12 . When the user inputs selection information that selects related information to be displayed to the information processing apparatus 10, the related information generation unit 23 displays the selected related information among the related information associated with the identification information. Output to the control unit 12 . If the user has not input the selection information to the information processing device 10, the related information generation unit 23 may output any related information among the related information associated with the identification information to the display control unit 12. . Alternatively, the related information generator 23 may sequentially output a plurality of related information associated with the identification information to the display controller 12 at predetermined intervals. Alternatively, the related information generation unit 23 may preset a priority order for each of a plurality of related information, and output the related information to the display control unit 12 according to the priority order.

表示制御部12は、画像取得部11から出力された映像データに、関連情報生成部23から出力された関連情報を重畳した表示用データを生成する。表示制御部12は、例えば、関連情報を映像データ内の予め定められた位置に重畳してもよい。もしくは、表示制御部12は、映像データ内に含まれる対象物の位置を特定し、対象物と重複しないように関連情報を映像データに重畳してもよい。もしくは、表示制御部12は、映像データ内に含まれる対象物の位置を特定し、対象物の一部と重複するように関連情報を映像データに重畳してもよい。表示制御部12は、生成した表示用データを表示部22及び分析部13へ出力する。 The display control unit 12 generates display data in which the related information output from the related information generation unit 23 is superimposed on the video data output from the image acquisition unit 11 . The display control unit 12 may superimpose the related information at a predetermined position in the video data, for example. Alternatively, the display control unit 12 may specify the position of the object included in the video data and superimpose the related information on the video data so as not to overlap with the object. Alternatively, the display control unit 12 may specify the position of the object included in the video data and superimpose the related information on the video data so as to partially overlap the object. The display control unit 12 outputs the generated display data to the display unit 22 and the analysis unit 13 .

表示部22は、表示制御部12から出力された表示用データを表示する。つまり、表示制御部12から出力された表示用データは、ディスプレイ上に表示される。ユーザは、表示部22に表示された画像を介して、対象物及び関連情報を視認する。また、ここでは、ディスプレイ上において最もユーザの視線が集中する点もしくは領域を、注視点と称する。言い換えると、注視点は、対象物及び関連情報が表示されているディスプレイ上においてユーザが最も注目する場所を示している。注視点は、例えば、ディスプレイ上の中心であってもよく、その他の場所であってもよい。 The display unit 22 displays display data output from the display control unit 12 . That is, the display data output from the display control unit 12 is displayed on the display. The user visually recognizes the target object and related information through the image displayed on the display unit 22 . Also, here, a point or area on the display where the user's line of sight is most concentrated is referred to as a gaze point. In other words, the gaze point indicates where the user pays the most attention on the display on which the object and related information are displayed. The gaze point may be, for example, the center on the display, or may be another location.

ユーザは、ディスプレイに表示されている画像を見ながら、画像内の関心のある箇所を注視点に合わせる。つまり、ユーザは、注視点を含む所定の領域(以下、注視領域と称する)に表示される画像を変化させる。例えば、ユーザは、対象物に対する撮像部21の角度を調整し、注視領域に表示される画像を変化させる。例えば、ユーザは、関連情報よりも対象物に関心がある場合、注視領域に対象物が表示されるようにする。または、ユーザは、対象物よりも関連情報に関心がある場合、注視領域に関連情報が表示されるようにする。撮像部21は、例えば、ユーザが注視領域に表示される画像を変化させている間の画像を動画データとして画像取得部11へ出力する。表示制御部12は、画像取得部11から取得した動画データに関連情報生成部23から取得した関連情報を重畳させて生成した表示用データを表示部22及び分析部13へ出力する。 While looking at the image displayed on the display, the user aligns the point of interest with the point of interest in the image. In other words, the user changes the image displayed in a predetermined area (hereinafter referred to as a gaze area) including the gaze point. For example, the user adjusts the angle of the imaging unit 21 with respect to the object to change the image displayed in the gaze area. For example, if the user is more interested in the object than in the related information, the object is displayed in the gaze area. Alternatively, if the user is more interested in the related information than the object, the related information is displayed in the gaze area. The imaging unit 21 outputs, for example, an image while the user is changing the image displayed in the gaze region to the image acquisition unit 11 as moving image data. The display control unit 12 outputs display data generated by superimposing the related information acquired from the related information generation unit 23 on the moving image data acquired from the image acquisition unit 11 to the display unit 22 and the analysis unit 13 .

分析部13は、表示制御部12から取得した表示用データから、画像内における注視点の位置と、対象物及び関連情報の位置を特定する。また、ユーザは、表示部22に対象物及び関連情報が表示された後に、自身の興味に応じて表示部22に表示される対象物及び関連物の位置を変化させる。そのため、分析部13は、所定の間隔にて画像内における注視点の位置と、対象物及び関連情報の位置とを表示制御部12から取得し、所定期間経過後の注視点の位置と、対象物及び関連情報の位置とをユーザの関心の分析に用いてもよい。または、分析部13は、注視点の位置から対象物及び関連情報の位置までの距離の所定期間における変化量が予め定められた値よりも小さくなった後の注視点の位置と、対象物及び関連情報の位置とをユーザの関心の分析に用いてもよい。ここで、図3を用いて、表示部22に表示される画像のイメージと、注視点、対象物及び関連物の位置について説明する。 From the display data acquired from the display control unit 12, the analysis unit 13 identifies the position of the gaze point in the image and the positions of the target object and related information. Further, after the target object and related information are displayed on the display unit 22, the user changes the positions of the target object and the related object displayed on the display unit 22 according to his or her interest. Therefore, the analysis unit 13 acquires the position of the point of gaze in the image and the positions of the object and related information from the display control unit 12 at predetermined intervals, The location of objects and related information may be used to analyze user interests. Alternatively, the analysis unit 13 determines the position of the point of gaze after the amount of change in the distance from the position of the point of gaze to the position of the object and related information in a predetermined period of time becomes smaller than a predetermined value, The location of relevant information may be used to analyze user interests. Here, the image of the image displayed on the display unit 22 and the positions of the gaze point, the target object, and the related object will be described with reference to FIG. 3 .

図3は、表示領域30に、対象物としてペットボトルが示されている。表示領域30は、ディスプレイ上の、映像が表示される領域である。また、注視点31は、表示領域30の中心に定義される。注視領域35は、注視点31を中心とした円内の領域であってもよい。もしくは、注視領域35は、曲線もしくは直線、または、曲線及び直線を用いて形成された閉じた領域であって、注視点31を含む領域であってもよい。さらに、ペットボトルには、商品ラベル32及び成分ラベル33が示されている。さらに、表示領域30には、ペットボトルの関連情報34が示されている。図3においては、表示領域30に商品ラベル32及び成分ラベル33が表示されている例を示しているが、商品ラベル32及び成分ラベル33の位置は、図3に示される位置に特定されない。表示制御部12は、表示領域30に表示される表示用データを生成する。 In FIG. 3, the display area 30 shows a PET bottle as an object. The display area 30 is an area on the display where an image is displayed. Also, the gaze point 31 is defined at the center of the display area 30 . The gaze area 35 may be an area within a circle centering on the gaze point 31 . Alternatively, the gaze area 35 may be a closed area formed using curved lines, straight lines, or curved lines and straight lines, and may be an area including the gaze point 31 . Furthermore, a product label 32 and an ingredient label 33 are shown on the PET bottle. Further, the display area 30 shows related information 34 of the PET bottle. FIG. 3 shows an example in which the product label 32 and the ingredient label 33 are displayed in the display area 30, but the positions of the product label 32 and the ingredient label 33 are not specified as shown in FIG. The display control unit 12 generates display data to be displayed in the display area 30 .

図3は、注視点がペットボトル上の商品ラベル32に存在することを示している。つまり、注視領域35には、商品ラベル32が表示されることとなる。注視領域35に商品ラベル32が表示されるとは、注視領域35に商品ラベル32のみが表示されることであってもよく、注視領域35に商品ラベル32の一部が表示されることであってもよい。この場合、情報処理装置10を操作するユーザは、商品ラベル32に注目していることが推定される。 FIG. 3 shows that the point of gaze is on the product label 32 on the PET bottle. That is, the product label 32 is displayed in the gaze area 35 . Displaying the product label 32 in the gaze area 35 may mean that only the product label 32 is displayed in the gaze area 35 or that part of the product label 32 is displayed in the gaze area 35 . may In this case, it is presumed that the user operating the information processing device 10 is paying attention to the product label 32 .

分析部13は、例えば、注視点31と、商品ラベル32との距離、注視点31と成分ラベル33との距離、さらに、注視点31と関連情報34との距離を算出してもよい。図3の例においては、注視点31は、商品ラベル32に存在するため、注視点31と商品ラベル32との距離は、0と算出してもよい。注視点31と成分ラベル33との距離、さらに、注視点31と関連情報34との距離は、例えば、XY平面上の座標を用いて算出されてもよい。図3は、注視点31の位置と商品ラベル32の位置とが重複し、注視点領域に商品ラベル32が表示されていることを示している。また、分析部13は、注視点31と、商品ラベル32の面積重心位置との距離を算出してもよい。もしくは、面積重心位置は、商品全体及び関連情報34の重心位置としてもよい。また、関連情報34は、商品全体及び関連情報34の重心位置を注視点31とし、注視領域35に表示される情報に応じてユーザの関心を分析してもよい。 The analysis unit 13 may calculate the distance between the point of interest 31 and the product label 32, the distance between the point of interest 31 and the component label 33, and the distance between the point of interest 31 and the related information 34, for example. In the example of FIG. 3, since the point of gaze 31 exists on the product label 32, the distance between the point of gaze 31 and the product label 32 may be calculated as zero. The distance between the point of interest 31 and the component label 33 and the distance between the point of interest 31 and the related information 34 may be calculated using coordinates on the XY plane, for example. FIG. 3 shows that the position of the gaze point 31 and the position of the product label 32 overlap, and the product label 32 is displayed in the gaze point area. Further, the analysis unit 13 may calculate the distance between the gaze point 31 and the area center of gravity position of the product label 32 . Alternatively, the area centroid position may be the centroid position of the entire product and the related information 34 . Further, the related information 34 may be analyzed by analyzing the user's interest according to the information displayed in the gaze area 35 with the center of gravity of the entire product and the related information 34 as the gaze point 31 .

さらに、分析部13は、注視領域35に商品ラベル32が表示されている期間をカウントしてもよい。言い換えると、分析部13は、注視点31と商品ラベル32とが重複している期間をカウントしてもよい。さらに、分析部13は、注視領域35に商品ラベル32が表示されたタイミングと、注視領域35に商品ラベル32が表示されなくなったタイミングとを特定してもよい。例えば、分析部13は、注視領域35に商品ラベル32が表示された時刻と、注視領域35に商品ラベル32が表示されなくなった時刻とを特定してもよい。もしくは、分析部13は、注視点31と商品ラベル32とが重複したタイミングと、注視点31と商品ラベル32とが重複しなくなったタイミングとを特定してもよい。 Furthermore, the analysis unit 13 may count the period during which the product label 32 is displayed in the gaze area 35 . In other words, the analysis unit 13 may count periods in which the point of gaze 31 and the product label 32 overlap. Furthermore, the analysis unit 13 may specify the timing when the product label 32 is displayed in the gaze area 35 and the timing when the product label 32 is no longer displayed in the gaze area 35 . For example, the analysis unit 13 may specify the time when the product label 32 is displayed in the gaze area 35 and the time when the product label 32 is no longer displayed in the gaze area 35 . Alternatively, the analysis unit 13 may identify the timing when the point of gaze 31 and the product label 32 overlap and the timing when the point of gaze 31 and the product label 32 no longer overlap.

図4は、注視点31が成分ラベル33に存在することを示している。この場合、情報処理装置10を操作するユーザは、成分ラベル33に注目していることが推定される。図5は、注視点31が関連情報34に存在することを示している。この場合、情報処理装置10を操作するユーザは、関連情報34に注目していることが推定される。 FIG. 4 shows that the point of regard 31 is at the component label 33 . In this case, it is presumed that the user operating the information processing device 10 is paying attention to the component label 33 . FIG. 5 shows that the gaze point 31 exists in the related information 34 . In this case, it is presumed that the user operating the information processing apparatus 10 is paying attention to the related information 34 .

続いて、図6を用いて、分析部13の分析処理の一例について説明する。図6の矢印は、時間経過を示している。ユーザが来店した時刻を時刻t1とする。 Next, an example of analysis processing by the analysis unit 13 will be described with reference to FIG. Arrows in FIG. 6 indicate the passage of time. Let time t1 be the time when the user comes to the store.

その後、分析部13は、表示制御部12から出力される表示用データを用いて、時刻t2から時刻t3までの間、注視領域に商品Aの商品ラベルが表示されたことを特定する。次に、分析部13は、時刻t3から時刻t4までの間、注視領域に関連情報が表示されたことを特定する。次に、分析部13は、時刻t4から時刻t5までの間、注視領域に商品Aの成分ラベルが表示されたことを特定する。次に、分析部13は、時刻t5から時刻t6までの間、注視領域に商品Bの成分ラベルが表示されたことを特定する。次に、分析部13は、時刻t6から時刻t7までの間、注視領域に商品Aの成分ラベルが表示されたことを特定する。 After that, the analysis unit 13 uses the display data output from the display control unit 12 to identify that the product label of the product A was displayed in the gaze area from time t2 to time t3. Next, the analysis unit 13 identifies that related information was displayed in the gaze area from time t3 to time t4. Next, the analysis unit 13 identifies that the ingredient label of product A was displayed in the gaze area from time t4 to time t5. Next, the analysis unit 13 identifies that the component label of product B was displayed in the gaze area from time t5 to time t6. Next, the analysis unit 13 identifies that the component label of product A was displayed in the gaze area from time t6 to time t7.

図6においては、ユーザは、商品Bよりも商品Aに注目している期間が長いことを示している。そのため、分析部13は、ユーザが、商品Bよりも商品Aに関心があると分析してもよい。また、図6においては、ユーザは、商品Bよりも商品Aに注目した回数が多いことを示している。そのため、分析部13は、ユーザが、商品Bよりも商品Aに関心があると分析してもよい。さらに、図6においては、ユーザは、商品A及びBの商品ラベルよりも成分ラベルに注目している期間が長いことを示している。そのため、分析部13は、商品の名称よりも商品の成分に関心があると分析してもよい。また、図6においては、ユーザは、関連情報よりも商品ラベルもしくは成分ラベルに注目している期間が長いことを示している。そのため、分析部13は、商品の購入においては、関連情報よりも、商品自体に表示されている商品ラベルもしくは成分ラベルに関心があると分析してもよい。 FIG. 6 shows that the user paid more attention to product A than product B for a longer period of time. Therefore, the analysis unit 13 may analyze that the user is more interested in product A than product B. Also, FIG. 6 shows that the user paid more attention to product A than to product B. In FIG. Therefore, the analysis unit 13 may analyze that the user is more interested in product A than product B. Furthermore, FIG. 6 shows that the user paid more attention to the ingredient labels than the product labels of products A and B for a longer period of time. Therefore, the analysis unit 13 may analyze that the component of the product is of more interest than the name of the product. Also, FIG. 6 shows that the user pays more attention to the product label or ingredient label than to the related information for a longer period of time. Therefore, the analysis unit 13 may analyze that when purchasing a product, the consumer is more interested in the product label or ingredient label displayed on the product itself than in the related information.

また、分析部13は、一つの商品に関する複数の情報について、ユーザが注目した情報の順番を用いて、ユーザの関心を分析してもよい。例えば、図6は、ユーザが、商品Aの商品ラベルに注目した後に、商品Aの成分ラベルに注目したことを示している。このような場合、分析部13は、商品ラベルよりも成分ラベルに関心があると分析してもよい。もしくは、分析部13は、商品Aについてユーザが最初に注目した商品ラベルの方が、成分ラベルよりも関心があると分析してもよい。 Further, the analysis unit 13 may analyze the user's interest in a plurality of pieces of information related to one product using the order of the information that the user paid attention to. For example, FIG. 6 shows that the user focused on the product label for product A and then on the ingredient label for product A. FIG. In such a case, the analysis unit 13 may analyze that it is more interested in the ingredient label than the product label. Alternatively, the analysis unit 13 may analyze that the user is more interested in the product label of the product A that the user first paid attention to than the ingredient label.

また、分析部13は、成分ラベル内に記載されている複数の情報について、ユーザが注目した情報の順番を用いて、ユーザの関心を分析してもよい。例えば、図7は、表示領域30において、注視点31が成分ラベル33内の保存方法に存在することを示している。次に、図8は、注視点31が、成分ラベル内の原材料に移動していることを示している。つまり、図7及び図8は、ユーザが成分ラベル33内の保存方法に注目した後に、原材料に注目したことを示している。このような場合、分析部13は、保存方法よりも原材料に関心があると分析してもよい。もしくは、分析部13は、ユーザが最初に注目した保存方法の方が、原材料よりも関心があると分析してもよい。分析部13は、商品ラベル内に記載されている複数の情報について、ユーザが注目した情報の順番を用いて、ユーザの関心を分析してもよい。 In addition, the analysis unit 13 may analyze the user's interest in a plurality of pieces of information written in the component label using the order of the information that the user paid attention to. For example, FIG. 7 shows that in display area 30 , point of regard 31 resides in a stored method within component label 33 . Next, FIG. 8 shows that the point of regard 31 has moved to the ingredients in the ingredient label. In other words, FIGS. 7 and 8 show that after the user has focused on the preservation method in the ingredient label 33, he has focused on the ingredients. In such a case, the analysis unit 13 may analyze that the raw material is of more interest than the storage method. Alternatively, the analysis unit 13 may analyze that the user is more interested in the storage method that he first noticed than in the raw material. The analysis unit 13 may analyze the user's interest in a plurality of pieces of information described in the product label using the order of the pieces of information that the user paid attention to.

分析部13は、関連情報にAR情報として表示されている内容に基づいて、ユーザの関心を分析してもよい。例えば、AR情報として特定の成分の特徴などが詳細にテキストを用いて表示されており、注視点31がAR情報に存在する場合、商品の成分に関心があると分析してもよい。また、AR情報として商品のコマーシャルやプロモーション動画が表示されており、注視点31がAR情報に存在する場合、商品のブランドやイメージに関心があると分析してもよい。また、AR情報として商品に関する口コミ情報などが表示されており、注視点31がAR情報に存在する場合、商品の人気もしくは他人の意見に関心があると分析してもよい。また、AR情報として割引率等が表示されており、注視点31がAR情報に存在する場合、商品の価格に関心があると分析してもよい。 The analysis unit 13 may analyze the user's interest based on the content displayed as AR information in the related information. For example, when the features of a specific component are displayed in detail using text as AR information, and the gaze point 31 exists in the AR information, it may be analyzed that there is an interest in the component of the product. Also, if a commercial or promotional video of a product is displayed as AR information and the gaze point 31 exists in the AR information, it may be analyzed that the user is interested in the brand or image of the product. Also, when word-of-mouth information about a product is displayed as AR information and the gaze point 31 exists in the AR information, it may be analyzed that the user is interested in the popularity of the product or other people's opinions. Also, if a discount rate or the like is displayed as AR information and the gaze point 31 exists in the AR information, it may be analyzed that the user is interested in the price of the product.

ここで、分析部13は、ユーザが商品Aを購入したことを示す情報を取得したとする。例えば、情報処理装置20は、店舗内に構築されているイントラネット等のネットワークに接続していてもよい。具体的には、情報処理装置20は、無線LAN(Local Area Network)の子機として、ネットワーク上に配置されている親機であるアクセスポイントに接続してもよい。この場合、分析部13は、イントラネットに接続されている店舗のPOS(Point Of Sales)システムから、ユーザが商品Aを購入したことを示す情報を取得してもよい。もしくは、情報処理装置20は、商品を格納するかごと近距離無線通信を行い、かごに商品Aが格納されたことが通知された場合に、ユーザが商品Aを購入したと判定してもよい。例えば、かごに付されたリーダ装置は、商品Aのタグ情報を読み取ることによって、かごに商品Aが格納されたことを検出してもよい。さらに、情報処理装置20とかごがBluetooth(登録商標)通信を行うことによって、情報処理装置20は、かごに商品Aが格納されたことを示す情報を受信してもよい。もしくは、ユーザが情報処理装置20に、購入した製品の情報を入力してもよい。 Here, it is assumed that the analysis unit 13 acquires information indicating that the user has purchased the product A. For example, the information processing device 20 may be connected to a network such as an intranet built inside the store. Specifically, the information processing device 20 may be connected to an access point, which is a master device arranged on the network, as a slave device of a wireless LAN (Local Area Network). In this case, the analysis unit 13 may acquire information indicating that the user purchased the product A from the POS (Point Of Sales) system of the store connected to the intranet. Alternatively, the information processing device 20 may perform short-range wireless communication with the basket storing the product, and determine that the user has purchased the product A when notified that the product A is stored in the basket. . For example, the reader device attached to the basket may detect that the product A is stored in the basket by reading the tag information of the product A. Further, the information processing device 20 may receive information indicating that the product A has been stored in the car through Bluetooth (registered trademark) communication between the information processing device 20 and the car. Alternatively, the user may input information on the purchased product to the information processing device 20 .

分析部13は、ユーザが商品Aを購入したことを示す情報を取得した場合、最も長く注視領域に表示されていた商品Aの成分情報が、ユーザが商品Aの購入に至った理由であると分析してもよい。 When the analysis unit 13 acquires information indicating that the user has purchased product A, the analysis unit 13 determines that the component information of product A that has been displayed in the gaze region for the longest time is the reason why the user has purchased product A. may be analyzed.

さらに、分析部13は、図6における分析処理もしくはユーザの購入商品等の情報に基づいて、ユーザの属性を推定してもよい。例えば、分析部13は、予め定められた閾値よりも長く注視領域に表示されていた商品が、男性に購入される可能性の高い商品である場合、ユーザが男性であると推定してもよい。また、分析部13は、ユーザが購入した商品が、女性に購入される可能性の高い商品である場合、ユーザが女性であると推定してもよい。さらに、分析部13は、ユーザが注目する商品もしくは購入商品に基づいて、ユーザの年齢を推定してもよい。さらに、分析部13は、関連情報に表示される言語としてユーザが選択した言語に基づいて、ユーザの居住地域を推定してもよい。 Furthermore, the analysis unit 13 may estimate the attributes of the user based on the analysis processing in FIG. 6 or information such as the user's purchased products. For example, the analysis unit 13 may estimate that the user is male when an item that has been displayed in the gaze area for longer than a predetermined threshold is likely to be purchased by men. . Moreover, the analysis unit 13 may estimate that the user is a woman when the product purchased by the user is likely to be purchased by a woman. Furthermore, the analysis unit 13 may estimate the user's age based on the product that the user pays attention to or the purchased product. Furthermore, the analysis unit 13 may estimate the user's residential area based on the language selected by the user as the language displayed in the related information.

分析部13は、それぞれのユーザにおける購買行動に関して推定した事項を特定の属性に分類し、マーケティング情報を生成する。分析部13が生成したマーケティング情報は、例えば、店舗内に設置されているサーバ装置等へ送信されてもよく、もしくは、インターネットを介して店舗の外部に配置されているサーバ装置等へ送信されてもよい。 The analysis unit 13 classifies items estimated regarding the purchasing behavior of each user into specific attributes and generates marketing information. The marketing information generated by the analysis unit 13 may be transmitted to, for example, a server device or the like installed inside the store, or may be transmitted to a server device or the like located outside the store via the Internet. good too.

さらに、分析部13は、ユーザが購入した商品を分析して、さらにユーザに対して購入を提案する商品を特定してもよい。分析部13は、ベイズ推定を用いて、ユーザに対して購入を提案する商品を特定してもよい。もしくは、分析部13は、予め関連のある複数の商品を含む商品グループを定義したデータベースを管理していてもよい。この場合、分析部13は、ユーザが購入した商品が属する商品グループ内の他の商品を、購入を提案する商品として特定してもよい。商品グループは、例えば、同一の成分を有する複数の商品であってもよく、同一のイベントにおいて使用される複数の商品であってもよい。分析部13は、購入を提案する商品として特定した商品に関する情報を、表示制御部12へ出力し、表示制御部12は、当該商品を表示部22へ表示させてもよい。 Furthermore, the analysis unit 13 may analyze the products purchased by the user and further specify products to be proposed to the user for purchase. The analysis unit 13 may use Bayesian inference to identify products to be purchased by the user. Alternatively, the analysis unit 13 may manage a database that defines a product group including a plurality of related products in advance. In this case, the analysis unit 13 may specify other products in the product group to which the product purchased by the user belongs as products to be proposed for purchase. A product group may be, for example, a plurality of products having the same ingredients, or a plurality of products used in the same event. The analysis unit 13 may output information about the product identified as the product to be purchased to the display control unit 12 , and the display control unit 12 may cause the display unit 22 to display the product.

さらに、分析部13は、商品の購入において関心のある情報をさらに分析し、ユーザに対して購入を提案する商品を特定してもよい。例えば、分析部13は、図6を用いた分析処理において、商品の購入においては、ユーザが成分ラベルに関心があると分析したとする。さらに、分析部13は、ユーザが商品Aを購入したことを示す情報を取得したとする。この場合、分析部13は、さらに、商品Aの成分ラベルに含まれる成分が含まれる他の商品を、購入を提案する商品として特定してもよい。購入を提案する商品は、商品Aと同じカテゴリの商品であってもよく、商品Aとは異なるカテゴリの商品であってもよい。 Furthermore, the analysis unit 13 may further analyze the information of interest in the purchase of the product, and specify the product to be proposed to the user for purchase. For example, it is assumed that the analysis unit 13 analyzes that the user is interested in the ingredient label when purchasing a product in the analysis process using FIG. 6 . Furthermore, it is assumed that the analysis unit 13 acquires information indicating that the user has purchased product A. In this case, the analysis unit 13 may further specify other products containing the ingredients included in the ingredient label of product A as products to be proposed for purchase. The product to be purchased may be in the same category as the product A, or may be in a category different from the product A.

もしくは、分析部13は、図6を用いた分析処理において、商品の購入においては、ユーザが成分ラベルに関心があると分析したとする。この場合、商品Aの成分ラベル及び商品Bの成分ラベルに共通に含まれる成分が含まれる他の商品を、購入を提案する商品として特定してもよい。また、購入を提案する商品は、ユーザが買い物をしている店舗と同じ店舗内に陳列されている商品であってもよく、近隣の店舗に存在する商品であってもよい。 Alternatively, it is assumed that the analysis unit 13 has analyzed in the analysis process using FIG. 6 that the user is interested in the ingredient label when purchasing the product. In this case, other products that contain ingredients commonly included in the ingredient label of product A and the ingredient label of product B may be specified as products to be purchased. In addition, the product suggested for purchase may be a product displayed in the same store as the store where the user is shopping, or may be a product existing in a nearby store.

さらに、分析部13は、購入を提案する商品として特定した商品に関する情報を関連情報生成部23へ出力してもよい。この場合、関連情報生成部23は、店舗内において当該商品が陳列されている場所までの動線を示す関連情報を生成してもよい。この場合、関連情報生成部23は、店舗内の地図情報及び商品の陳列場所に関する情報を予め管理しているとする。 Furthermore, the analysis unit 13 may output to the related information generation unit 23 information about the product specified as the product for which purchase is proposed. In this case, the related information generation unit 23 may generate related information indicating a flow line to the place where the product is displayed in the store. In this case, it is assumed that the related information generation unit 23 manages in advance map information in the store and information on the display location of the product.

続いて、図9を用いて情報処理装置20における分析処理の流れについて説明する。はじめに、画像取得部11は、撮像部21から撮像画像である映像データを取得し、映像データ内に含まれる商品を特定する(S11)。画像取得部11は、複数の商品を含む映像データを取得してもよい。もしくは、画像取得部11は、商品Aを含む映像データを取得した後に、商品Bが含まれる映像データを取得してもよい。つまり、画像取得部11は、同じタイミングに複数の商品が撮像された映像データを取得してもよく、異なるタイミングに撮像された複数の商品に関する映像データを取得してもよい。 Next, the flow of analysis processing in the information processing device 20 will be described with reference to FIG. 9 . First, the image acquiring unit 11 acquires video data, which is a captured image, from the imaging unit 21, and identifies products included in the video data (S11). The image acquisition unit 11 may acquire video data including multiple products. Alternatively, the image acquisition unit 11 may acquire the image data including the product B after acquiring the image data including the product A. In other words, the image acquisition unit 11 may acquire video data in which a plurality of commodities are imaged at the same timing, or may acquire video data relating to a plurality of commodities imaged at different timings.

次に、表示制御部12は、関連情報生成部23から出力された商品の関連情報を映像データへ重畳し、表示用データを生成する(S12)。次に、分析部13は、注視点情報を取得する(S13)。注視点情報は、注視点の位置、商品の位置、及び関連情報の位置を示す情報であってもよい。また、注視点情報には、注視点と商品との間の距離、さらに、注視点と関連情報との間の距離が含まれてもよい。注視点と商品との間の距離、さらに、注視点と関連情報との間の距離は、分析部13において算出されてもよい。 Next, the display control unit 12 superimposes the product related information output from the related information generation unit 23 onto the video data to generate display data (S12). Next, the analysis unit 13 acquires point-of-regard information (S13). The point-of-regard information may be information indicating the position of the point-of-regard, the position of the product, and the position of the related information. The point-of-regard information may also include the distance between the point-of-regard and the product, and the distance between the point-of-regard and the related information. The distance between the point of gaze and the product, and the distance between the point of gaze and the related information may be calculated by the analysis unit 13 .

さらに、注視点情報には、注視点と商品もしくは関連情報とが重複する期間に関する情報が含まれてもよい。さらに、注視点情報には、注視点と商品もしくは関連情報とが重複したタイミングと、注視点と商品もしくは関連情報とが重複しなくなったタイミングとを示す情報が含まれてもよい。 Further, the point-of-regard information may include information regarding the period during which the point-of-regard overlaps with the product or related information. Furthermore, the point-of-regard information may include information indicating the timing at which the point-of-regard and the product or related information overlap and the timing at which the point-of-regard and the product or related information no longer overlap.

次に、分析部13は、注視点情報を用いて、ユーザの関心を分析する(S14)。例えば、分析部13は、図6に示される分析処理を実行する。 Next, the analysis unit 13 analyzes the user's interest using the point-of-regard information (S14). For example, the analysis unit 13 executes analysis processing shown in FIG.

次に、分析部13は、ステップS14において実行された分析処理の結果、もしくは、ユーザの購入商品等の情報に基づいて、ユーザの属性を推定する(S15)。分析部13は、例えば、属性として、ユーザの性別、年齢、居住地等を推定してもよい。 Next, the analysis unit 13 estimates the attributes of the user based on the result of the analysis process executed in step S14 or information such as the product purchased by the user (S15). For example, the analysis unit 13 may estimate the user's sex, age, place of residence, etc. as attributes.

次に、分析部13は、それぞれのユーザにおける商品購買行動に関して推定した事項を特定の属性に分類し、マーケティング情報を生成する(S16)。 Next, the analysis unit 13 classifies the items estimated regarding the product purchasing behavior of each user into specific attributes, and generates marketing information (S16).

以上説明したように、情報処理装置20は、注視点と、対象物及び関連情報との位置関係に基づいて、ユーザの関心を分析することができる。具体的には、情報処理装置20は、ユーザがどのような情報に関心を有し、どのような情報に基づいて商品の購入を決定したかの分析を行うことができる。 As described above, the information processing apparatus 20 can analyze the user's interest based on the positional relationship between the gaze point and the target object and related information. Specifically, the information processing device 20 can analyze what kind of information the user is interested in and what kind of information the user has decided to purchase the product based on.

また、情報処理装置20は、製造ラインもしくはサーバのメンテナンス作業等における作業者の行動を分析してもよい。例えば、関連情報であるAR情報として、作業手順もしくは操作マニュアルが表示されている場合に、作業者が作業している位置、視線の位置、及び作業時間等を用いて作業者の作業を分析してもよい。 In addition, the information processing device 20 may analyze the behavior of workers during maintenance work on a production line or server. For example, when a work procedure or operation manual is displayed as AR information, which is related information, the work of the worker is analyzed using the position where the worker is working, the position of the line of sight, the work time, etc. may

(実施の形態2の変形例)
続いて、図10を用いて図6とは異なる分析部13の分析処理の一例について説明する。図10においては、注視領域35に商品ラベル32が表示された場合に、関連情報として商品に関するプロモーションビデオが情報処理装置20に表示されることを前提とする。つまり、情報処理装置20は、注視領域35に商品ラベル32が表示されたタイミングと実質的に同時、もしくは、注視領域35に商品ラベル32が表示されたタイミングから所定期間経過後に、プロモーションビデオを再生する。
(Modification of Embodiment 2)
Next, an example of analysis processing by the analysis unit 13 that is different from that in FIG. 6 will be described using FIG. 10 . In FIG. 10, it is assumed that when the product label 32 is displayed in the gaze area 35, the information processing device 20 displays a promotional video regarding the product as related information. That is, the information processing device 20 reproduces the promotion video substantially at the same time as the product label 32 is displayed in the gaze area 35, or after a predetermined period of time has elapsed since the product label 32 was displayed in the gaze area 35. do.

図10は、注視領域35に商品Aが表示されたタイミング、つまり、情報処理装置20を操作するユーザが商品Aの商品ラベルに注目したタイミングと、商品Aに関するプロモーションビデオが再生された時間とを示している。さらに、図10は、情報処理装置20を操作するユーザが、商品Bの商品ラベルに注目したタイミングと、商品Bに関するプロモーションビデオが再生された時間とを示している。 FIG. 10 shows the timing at which product A is displayed in the gaze area 35, that is, the timing at which the user operating the information processing device 20 pays attention to the product label of product A, and the time at which the promotional video for product A is played. showing. Furthermore, FIG. 10 shows the timing at which the user operating the information processing device 20 paid attention to the product label of product B and the time at which the promotional video for product B was played.

図10は、時刻t2に注視領域35に商品Aが表示され、時刻t2から時刻t3の間に商品Aに関するプロモーションビデオが再生されたことを示している。さらに、時刻t4に注視領域35に商品Bが表示され、時刻t4から時刻t5の間に商品Bに関するプロモーションビデオが再生されたことを示している。さらに、時刻t6に注視領域35に商品Aが表示され、時刻t6から時刻t7の間に商品Aに関するプロモーションビデオが再生されたことを示している。さらに、時刻t8に注視領域35に商品Bが表示され、時刻t8から時刻t9の間に商品Bに関するプロモーションビデオが再生されたことを示している。 FIG. 10 shows that product A was displayed in the gaze area 35 at time t2, and a promotional video for product A was played between time t2 and time t3. Further, at time t4, product B is displayed in the gaze area 35, and the promotion video for product B is played between time t4 and time t5. Furthermore, it shows that the product A is displayed in the gaze area 35 at the time t6, and the promotional video regarding the product A is reproduced between the time t6 and the time t7. Further, at time t8, product B is displayed in the gaze area 35, and the promotion video for product B is played between time t8 and time t9.

この場合、分析部13は、プロモーションビデオの再生時間に応じてユーザの商品に対する興味の程度を分析してもよい。例えば、分析部13は、商品Aに関するプロモーションビデオが再生された期間と商品Bに関するプロモーションビデオが再生された期間とを比較する。商品Aに関するプロモーションビデオが再生された期間は、時刻t2から時刻t3までの期間と時刻t6から時刻t7までの期間とを合計した期間である。また、商品Bに関するプロモーションビデオが再生された期間は、時刻t4から時刻t5までの期間と時刻t8から時刻t9までの期間とを合計した期間である。 In this case, the analysis unit 13 may analyze the degree of user's interest in the product according to the playback time of the promotional video. For example, the analysis unit 13 compares the period during which the promotional video for product A was played and the period during which the promotional video for product B was played. The period during which the promotional video for product A was played is the sum of the period from time t2 to time t3 and the period from time t6 to time t7. Also, the period during which the promotional video for product B was played is the sum of the period from time t4 to time t5 and the period from time t8 to time t9.

図10においては、商品Aに関するプロモーションビデオが再生された期間が商品Bに関するプロモーションビデオが再生された期間よりも長いため、分析部13は、ユーザは商品Aに興味があると分析してもよい。もしくは、分析部13は、プロモーションビデオが再生された期間に応じて、ユーザの興味の程度を対応付けてもよい。ユーザの興味の程度は、例えば、興味が強い、通常の興味、興味が弱い、等の複数の興味のレベルに分類されてもよい。 In FIG. 10, since the period during which the promotional video for product A was played is longer than the period during which the promotional video for product B was played, the analysis unit 13 may analyze that the user is interested in product A. . Alternatively, the analysis unit 13 may associate the degree of interest of the user according to the period during which the promotional video was played. The user's degree of interest may be classified into multiple levels of interest, such as, for example, strong interest, normal interest, and low interest.

続いて、図11を用いて図6及び図10とは異なる分析部13の分析処理の一例について説明する。図11は、ユーザが商品Aの成分ラベルをどの言語にて表示させ、どのくらいの期間商品Aに注目しているかを示している。また、異なる言語の成分ラベルは、それぞれ関連情報として表示されることを前提とする。具体的には、ユーザは、関連情報に示される成分ラベルを、言語を切り替えて視認することができる。例えば、ユーザは、ディスプレイに表示される、英語、中国語、韓国語のアイコンを選択することによって、関連情報に示される成分ラベルの言語を切り替えることができる。 Next, an example of analysis processing by the analysis unit 13, which is different from that shown in FIGS. 6 and 10, will be described with reference to FIG. FIG. 11 shows in which language the user displays the ingredient label of product A and how long the user pays attention to product A. FIG. It is also assumed that component labels in different languages are displayed as related information. Specifically, the user can change the language and visually recognize the ingredient label indicated in the related information. For example, the user can switch the language of the ingredient labels shown in the related information by selecting the English, Chinese, and Korean icons displayed on the display.

図11に示される商品Aの検出期間は、商品Aが表示領域30に表示されている期間を示している。商品Aが表示領域30に表示されるとは、商品Aの一部が表示領域30に表示されることであってもよい。商品Aが表示領域30に表示されなくなった場合、商品Aの関連情報も表示領域30に表示されなくなる。言い換えると、商品Aが表示領域30に表示されている期間には、商品Aの関連情報も表示領域30に表示される。そのため、分析部13は、商品Aが表示領域30に表示されている期間には、ユーザが、関連情報として表示されている商品Aの成分ラベルを視認している、と推定してもよい。 The detection period for product A shown in FIG. 11 indicates the period during which product A is displayed in display area 30 . Displaying the product A in the display area 30 may mean that part of the product A is displayed in the display area 30 . When the product A is no longer displayed in the display area 30 , the related information of the product A is also no longer displayed in the display area 30 . In other words, the related information of the product A is also displayed in the display area 30 while the product A is displayed in the display area 30 . Therefore, the analysis unit 13 may estimate that the user is viewing the component label of the product A displayed as related information while the product A is displayed in the display area 30 .

図11は、時刻t2にユーザが関連情報に表示される成分ラベルの言語を英語表記へ切り替えたことを示している。また、図11は、時刻t3にユーザが関連情報に表示される成分ラベルの言語を韓国語表記へ切り替えたことを示している。また、図11は、時刻t2から時刻t4まで、表示領域30には商品Aが表示されていることを示している。この場合、分析部13は、時刻t2から時刻t3までは、ユーザが、英語表記の成分ラベルを視認し、時刻t3から時刻t4までは、ユーザが韓国語標記の成分ラベルを視認していると分析してもよい。 FIG. 11 shows that the user switched the language of the component labels displayed in the related information to English at time t2. FIG. 11 also shows that the user switched the language of the component label displayed in the related information to Korean at time t3. FIG. 11 also shows that the product A is displayed in the display area 30 from time t2 to time t4. In this case, the analysis unit 13 assumes that the user visually recognizes the component label written in English from time t2 to time t3, and the user visually identifies the component label written in Korean from time t3 to time t4. may be analyzed.

また、図11は、時刻t4から時刻t5までの間、表示領域30に商品Aが表示されなくなったことを示している。また、図11は、時刻t5にユーザが関連情報に表示される成分ラベルの言語を中国語表記へ切り替え、時刻t5から時刻t6まで、表示領域30に商品Aが表示されていることを示している。また、図11は、時刻t6から時刻t7まで表示領域30に商品Aが表示されなくなった後、時刻t7から時刻t8まで表示領域30に表示Aが表示されていることを示している。また、図11は、時刻t7にユーザが関連情報に表示される成分ラベルを英語表記へ切り替えたことを示している。 FIG. 11 also shows that product A is no longer displayed in display area 30 from time t4 to time t5. FIG. 11 also shows that the user switches the language of the ingredient label displayed in the related information to Chinese notation at time t5, and product A is displayed in the display area 30 from time t5 to time t6. there is FIG. 11 also shows that the display A is displayed in the display area 30 from time t7 to time t8 after the product A is not displayed in the display area 30 from time t6 to time t7. Also, FIG. 11 shows that the user switched the component label displayed in the related information to English at time t7.

この場合、分析部13は、関連情報の言語が切替えられた後に、どのくらいの時間商品Aが表示領域30に表示されているかに応じてユーザの興味のある言語を分析してもよい。図11においては、ユーザが、関連情報として表示されている商品Aの成分ラベルを英語にて視認している、と推定される期間は、時刻t2から時刻t3までの期間と時刻t7から時刻t8までの期間とを合計した期間である。図11は、ユーザが、関連情報として表示されている商品Aの成分ラベルを英語にて視認している、と推定される期間が、商品Aの成分ラベルを韓国語にて視認している期間及び中国語にて視認している期間よりも長いことを示している。これより、分析部13は、ユーザは、英語表記の成分ラベルに興味があると分析してもよい。 In this case, the analysis unit 13 may analyze the language in which the user is interested according to how long the product A is displayed in the display area 30 after the language of the related information is switched. In FIG. 11, the periods during which the user is estimated to be visually recognizing the ingredient label of product A displayed as related information in English are the period from time t2 to time t3 and the period from time t7 to time t8. It is the total period of time up to and including FIG. 11 shows that the period during which the user is estimated to view the ingredient label of product A displayed as related information in English is the period in which the user views the ingredient label of product A in Korean. And it shows that it is longer than the period visually recognized in Chinese. From this, the analysis unit 13 may analyze that the user is interested in component labels written in English.

続いて以下では、上述の実施形態で説明された、情報処理装置10及び情報処理装置20(以下、情報処理装置10等とする)の構成例について説明する。 Next, configuration examples of the information processing device 10 and the information processing device 20 (hereinafter referred to as the information processing device 10 and the like) described in the above embodiments will be described.

図12は、情報処理装置10等の構成例を示すブロック図である。図12を参照すると、情報処理装置10等は、ネットワーク・インターフェース1201、プロセッサ1202、及びメモリ1203を含む。ネットワーク・インターフェース1201は、通信システムを構成する他のネットワークノード装置と通信するために使用される。ネットワーク・インターフェース1201は、例えば、IEEE 802.3 seriesに準拠したネットワークインターフェースカード(NIC)を含んでもよい。もしくは、ネットワーク・インターフェース1201は、無線通信を行うために使用されてもよい。例えば、ネットワーク・インターフェース1201は、無線LAN通信、もしくは3GPP(3rd Generation Partnership Project)において規定されたモバイル通信を行うために使用されてもよい。 FIG. 12 is a block diagram showing a configuration example of the information processing apparatus 10 and the like. Referring to FIG. 12, the information processing apparatus 10 and the like include a network interface 1201, a processor 1202, and a memory 1203. FIG. The network interface 1201 is used to communicate with other network node devices that make up the communication system. Network interface 1201 may include, for example, a network interface card (NIC) conforming to the IEEE 802.3 series. Alternatively, network interface 1201 may be used to conduct wireless communications. For example, the network interface 1201 may be used for wireless LAN communication or mobile communication defined in 3GPP (3rd Generation Partnership Project).

プロセッサ1202は、メモリ1203からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態においてシーケンス図及びフローチャートを用いて説明された情報処理装置10等の処理を行う。プロセッサ1202は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ1202は、複数のプロセッサを含んでもよい。 The processor 1202 reads out software (computer program) from the memory 1203 and executes it to perform the processing of the information processing apparatus 10 and the like described using the sequence diagrams and flowcharts in the above-described embodiments. The processor 1202 may be, for example, a microprocessor, an MPU (Micro Processing Unit), or a CPU (Central Processing Unit). Processor 1202 may include multiple processors.

メモリ1203は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1203は、プロセッサ1202から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1202は、図示されていないI/Oインタフェースを介してメモリ1203にアクセスしてもよい。 The memory 1203 is composed of a combination of volatile memory and non-volatile memory. Memory 1203 may include storage remotely located from processor 1202 . In this case, processor 1202 may access memory 1203 via an I/O interface, not shown.

図12の例では、メモリ1203は、ソフトウェアモジュール群を格納するために使用される。プロセッサ1202は、これらのソフトウェアモジュール群をメモリ1203から読み出して実行することで、上述の実施形態において説明された情報処理装置10等の処理を行うことができる。 In the example of FIG. 12, memory 1203 is used to store software modules. The processor 1202 reads and executes these software modules from the memory 1203, thereby performing the processing of the information processing apparatus 10 and the like described in the above embodiments.

図12を用いて説明したように、情報処理装置10等が有するプロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。 As described with reference to FIG. 12, each of the processors included in the information processing apparatus 10 and the like executes one or more programs including instruction groups for causing the computer to execute the algorithm described with reference to the drawings.

上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリを含む。磁気記録媒体は、例えばフレキシブルディスク、磁気テープ、ハードディスクドライブであってもよい。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)であってもよい。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 In the above examples, the programs can be stored and delivered to computers using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media, magneto-optical recording media (eg, magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R/Ws, and semiconductor memories. The magnetic recording medium may be, for example, a floppy disk, magnetic tape, hard disk drive. The semiconductor memory may be mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, or RAM (Random Access Memory), for example. The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.

なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 It should be noted that the present disclosure is not limited to the above embodiments, and can be modified as appropriate without departing from the scope of the present disclosure.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。 Some or all of the above-described embodiments can also be described in the following supplementary remarks, but are not limited to the following.

(付記1)
対象物が撮像された撮像画像を取得する画像取得部と、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させる表示制御部と、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置と、前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析する分析部と、を備える情報処理装置。
(付記2)
前記分析部は、
前記予め定められた位置と、前記対象物及び前記関連情報の位置との間の距離を用いて前記ユーザの関心を分析する、付記1に記載の情報処理装置。
(付記3)
前記分析部は、
前記予め定められた位置を含む領域に前記対象物が表示された期間及び前記予め定められた位置を含む領域に前記関連情報が表示された期間をさらに用いて、前記ユーザの関心を分析する、請求項1又は2に記載の情報処理装置。
(付記4)
前記対象物は第1の領域及び第2の領域を含み、
前記分析部は、
前記予め定められた位置を含む領域に前記第1の領域が表示された期間及び前記第2の領域が表示された期間をさらに用いて、前記ユーザの関心を分析する、付記1乃至3のいずれか1項に記載の情報処理装置。
(付記5)
前記画像取得部は、
複数の前記対象物が撮像された撮像画像を取得し、
前記表示制御部は、
それぞれの対象物の関連情報を前記撮像画像に重畳して前記表示部へ表示させ、
前記分析部は、
前記予め定められた位置を含む領域にそれぞれの前記対象物が表示された期間及び前記予め定められた位置を含む領域にそれぞれの前記対象物の関連情報が表示された期間をさらに用いて、前記ユーザの関心を分析する、付記1乃至4のいずれか1項に記載の情報処理装置。
(付記6)
前記画像取得部は、
第1の対象物が撮像された第1の撮像画像と、前記第1の対象物が撮像されたタイミングと異なるタイミングに第2の対象物が撮像された第2の撮像画像とを取得し、
前記分析部は、
前記予め定められた位置を含む領域に前記第1の対象物が表示された期間、前記予め定められた位置を含む領域に前記第2の対象物が表示された期間、前記予め定められた位置を含む領域に前記第1の対象物の第1の関連情報が表示された期間、及び前記予め定められた位置を含む領域に前記第2の対象物の第2の関連情報が表示された期間、を用いて前記ユーザの関心を分析する、付記1乃至4のいずれか1項に記載の情報処理装置。
(付記7)
前記分析部は、
前記予め定められた位置を含む領域に前記対象物及び前記関連情報の少なくとも1つが表示された回数をさらに用いて、前記ユーザの関心を分析する、付記1乃至6のいずれか1項に記載の情報処理装置。
(付記8)
前記分析部は、
前記表示部に表示される前記対象物、前記表示部に表示される前記関連情報、及び前記ユーザから入力された入力情報の少なくとも1つを用いて前記ユーザの属性を推定する、付記1乃至7のいずれか1項に記載の情報処理装置。
(付記9)
前記分析部は、
前記撮像画像に含まれる前記対象物が前記ユーザによって購入されたか否かを示す情報を取得し、前記ユーザの関心として、前記ユーザが前記対象物の購入に至った理由を分析する、付記1乃至8のいずれか1項に記載の情報処理装置。
(付記10)
前記分析部は、
前記ユーザが前記対象物を購入に至った理由に基づいて、前記ユーザが購買した前記対象物に関連する他の対象物の購入を促す情報を前記表示部へ表示させる、付記9に記載の情報処理装置。
(付記11)
前記対象物を撮像し前記撮像画像を生成する撮像部と、
前記撮像画像に前記対象物の関連情報が重畳された表示画像を表示する表示部をさらに備える、付記1乃至10のいずれか1項に記載の情報処理装置。
(付記12)
対象物が撮像された撮像画像を取得し、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、
前記表示部内の予め定められた位置と、前記表示部内における前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析する、情報処理装置を用いた分析方法。
(付記13)
前記表示部に表示される前記対象物、前記表示部に表示される前記関連情報、及び前記ユーザから入力された入力情報の少なくとも1つを用いて前記ユーザの属性をさらに推定する、付記12に記載の分析方法。
(付記14)
前記撮像画像に含まれる前記対象物が前記ユーザによって購入されたか否かを示す情報を取得し、
前記ユーザの関心として、前記ユーザが前記対象物の購入に至った理由を分析し、
前記ユーザが前記対象物を購入に至った理由に基づいて、前記ユーザが購買した前記対象物に関連する他の対象物の購入を促す情報を前記表示部へ表示させる、付記12又は13に記載の分析方法。
(付記15)
対象物が撮像された撮像画像を取得し、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、
前記表示部内の予め定められた位置と、前記表示部内における前記対象物及び前記関連情報の位置とを用いて、前記表示部を介して前記対象物を視認するユーザの関心を分析することをコンピュータに実行させるプログラム。
(Appendix 1)
an image acquisition unit that acquires a captured image in which an object is captured;
a display control unit that superimposes information related to the object on the captured image and displays it on a display unit;
obtaining positions of the object and the related information within the display unit, and displaying the object via the display unit using a predetermined position within the display unit and the positions of the object and the related information; and an analysis unit that analyzes the interest of a user who visually recognizes an object.
(Appendix 2)
The analysis unit
The information processing apparatus according to supplementary note 1, wherein the interest of the user is analyzed using a distance between the predetermined position and the positions of the object and the related information.
(Appendix 3)
The analysis unit
analyzing the interest of the user by further using the period during which the object is displayed in the area containing the predetermined position and the period during which the relevant information is displayed in the area containing the predetermined position; The information processing apparatus according to claim 1 or 2.
(Appendix 4)
the object includes a first region and a second region;
The analysis unit
Any of appendices 1 to 3, further using the period during which the first area is displayed and the period during which the second area is displayed in the area including the predetermined position to analyze the user's interest 1. The information processing apparatus according to 1.
(Appendix 5)
The image acquisition unit is
Acquiring a captured image in which a plurality of the objects are captured,
The display control unit
superimposing information related to each object on the captured image and displaying it on the display unit;
The analysis unit
Further using the period during which the respective objects are displayed in the areas containing the predetermined positions and the period during which the relevant information of the respective objects is displayed in the areas containing the predetermined positions, 5. The information processing device according to any one of appendices 1 to 4, which analyzes a user's interest.
(Appendix 6)
The image acquisition unit is
Acquiring a first captured image in which a first object is captured and a second captured image in which a second object is captured at a timing different from the timing when the first object is captured,
The analysis unit
A period during which the first object is displayed in an area including the predetermined position, a period during which the second object is displayed in an area including the predetermined position, and the predetermined position and a period during which the second relevant information of the second object is displayed in an area containing the predetermined position. 5. The information processing apparatus according to any one of appendices 1 to 4, wherein the interest of the user is analyzed using .
(Appendix 7)
The analysis unit
7. The user's interest is further analyzed by using the number of times at least one of the object and the related information is displayed in the area including the predetermined position. Information processing equipment.
(Appendix 8)
The analysis unit
Supplementary notes 1 to 7, wherein attributes of the user are estimated using at least one of the object displayed on the display unit, the related information displayed on the display unit, and input information input by the user. The information processing device according to any one of .
(Appendix 9)
The analysis unit
Obtaining information indicating whether or not the object included in the captured image was purchased by the user, and analyzing the reason why the user purchased the object as the user's interest. 9. The information processing apparatus according to any one of 8.
(Appendix 10)
The analysis unit
The information according to appendix 9, wherein information prompting purchase of another object related to the object purchased by the user is displayed on the display unit based on the reason why the user purchased the object. processing equipment.
(Appendix 11)
an imaging unit that images the object and generates the captured image;
11. The information processing apparatus according to any one of additional notes 1 to 10, further comprising a display unit that displays a display image in which information related to the object is superimposed on the captured image.
(Appendix 12)
Acquiring a captured image in which an object is captured,
superimposing information related to the object on the captured image and displaying it on a display unit;
Acquiring the position of the object and the related information in the display unit;
information processing for analyzing interest of a user viewing the object through the display unit using a predetermined position within the display unit and positions of the object and the related information within the display unit; Analysis method using equipment.
(Appendix 13)
Supplementary note 12, further estimating the attribute of the user using at least one of the object displayed on the display unit, the related information displayed on the display unit, and input information input by the user The analytical method described.
(Appendix 14)
obtaining information indicating whether or not the object included in the captured image has been purchased by the user;
Analyze the reason why the user purchased the object as the user's interest,
14. The method according to appendix 12 or 13, wherein, based on the reason why the user purchased the target object, information prompting purchase of another target object related to the target object purchased by the user is displayed on the display unit. analysis method.
(Appendix 15)
Acquiring a captured image in which an object is captured,
superimposing information related to the object on the captured image and displaying it on a display unit;
Acquiring the position of the object and the related information in the display unit;
a computer analyzing interest of a user viewing the object through the display unit using a predetermined position within the display unit and positions of the object and the related information within the display unit; program to run.

10 情報処理装置
11 画像取得部
12 表示制御部
13 分析部
20 情報処理装置
21 撮像部
22 表示部
23 関連情報生成部
30 表示領域
31 注視点
32 商品ラベル
33 成分ラベル
34 関連情報
35 注視領域
REFERENCE SIGNS LIST 10 information processing device 11 image acquisition unit 12 display control unit 13 analysis unit 20 information processing device 21 imaging unit 22 display unit 23 related information generation unit 30 display area 31 gaze point 32 product label 33 ingredient label 34 related information 35 gaze area

Claims (9)

対象物が撮像された撮像画像を取得する画像取得部と、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させる表示制御部と、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置から、前記対象物及び前記関連情報の位置までの距離が近いほど、前記表示部を介して前記対象物を視認するユーザの前記対象物もしくは前記関連情報への関心が高いと分析する分析部と、を備える情報処理装置。
an image acquisition unit that acquires a captured image in which an object is captured;
a display control unit that superimposes information related to the object on the captured image and displays it on a display unit;
The positions of the object and the related information within the display unit are acquired, and the closer the distance from the predetermined position within the display unit to the positions of the object and the related information, the closer the distance is to the position of the object and the related information, the and an analysis unit that analyzes that a user visually recognizing the object has a high interest in the object or the related information .
対象物が撮像された撮像画像を取得する画像取得部と、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させる表示制御部と、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、前記表示部内の予め定められた位置を含む領域に前記対象物が表示された期間が前記予め定められた位置を含む領域に前記関連情報が表示された期間よりも長い場合、前記表示部を介して前記対象物を視認するユーザが、前記関連情報よりも前記対象物上に示された情報に関心があると分析し、前記予め定められた位置を含む領域に前記関連情報が表示された期間が、前記予め定められた位置を含む領域に前記対象物が表示された期間よりも長い場合、前記ユーザが、前記対象物上に示された情報よりも前記関連情報に対する関心がある、と分析する分析部と、を備える情報処理装置。
an image acquisition unit that acquires a captured image in which an object is captured;
a display control unit that superimposes information related to the object on the captured image and displays it on a display unit;
obtaining the positions of the object and the related information in the display unit, and displaying the object in an area including a predetermined position in the display unit during a period in which the area including the predetermined position is displayed; Analyzing that, if the relevant information is displayed for a period longer than the period, the user viewing the object through the display unit is more interested in the information displayed on the object than the relevant information; When the period during which the related information is displayed in the area containing the predetermined position is longer than the period during which the object is displayed in the area containing the predetermined position, the user may display the object and an analysis unit that analyzes that there is more interest in the related information than in the information shown above .
前記対象物は第1の領域及び第2の領域を含み、
前記分析部は、
前記予め定められた位置を含む領域に前記第1の領域が表示された期間が、前記第2の領域が表示された期間よりも長い場合、前記ユーザが、前記第2の領域に示された情報よりも前記第1の領域に示された情報に関心があると分析し、前記予め定められた位置を含む領域に前記第2の領域が表示された期間が、前記第1の領域が表示された期間よりも長い場合、前記ユーザが、前記第1の領域に示された情報よりも前記第2の領域に示された情報に関心があると分析する、請求項に記載の情報処理装置。
the object includes a first region and a second region;
The analysis unit
When the period during which the first area is displayed in the area containing the predetermined position is longer than the period during which the second area is displayed, the user is displayed in the second area . analyzing that the information displayed in the first area is more interesting than the information, and the period during which the second area is displayed in the area including the predetermined position is the period in which the first area is displayed 3. The information processing according to claim 2 , analyzing that the user is more interested in the information shown in the second area than the information shown in the first area, if the period is longer than the period of time indicated in the first area. Device.
前記画像取得部は、
複数の前記対象物が撮像された撮像画像を取得し、
前記表示制御部は、
それぞれの対象物の関連情報を前記撮像画像に重畳して前記表示部へ表示させ、
前記分析部は、
前記予め定められた位置を含む領域にそれぞれの前記対象物が表示された期間及び前記予め定められた位置を含む領域にそれぞれの前記対象物の関連情報が表示された期間をさらに用いて、前記ユーザの関心を分析する、請求項2又は3に記載の情報処理装置。
The image acquisition unit is
Acquiring a captured image in which a plurality of the objects are captured,
The display control unit
superimposing information related to each object on the captured image and displaying it on the display unit;
The analysis unit
Further using the period during which the respective objects are displayed in the areas containing the predetermined positions and the period during which the relevant information of the respective objects is displayed in the areas containing the predetermined positions, 4. The information processing apparatus according to claim 2 , which analyzes user interest.
前記画像取得部は、
第1の対象物が撮像された第1の撮像画像と、前記第1の対象物が撮像されたタイミングと異なるタイミングに第2の対象物が撮像された第2の撮像画像とを取得し、
前記分析部は、
前記予め定められた位置を含む領域に前記第1の対象物が表示された期間、前記予め定められた位置を含む領域に前記第2の対象物が表示された期間、前記予め定められた位置を含む領域に前記第1の対象物の第1の関連情報が表示された期間、及び前記予め定められた位置を含む領域に前記第2の対象物の第2の関連情報が表示された期間、を用いて前記ユーザの関心を分析する、請求項2又は3に記載の情報処理装置。
The image acquisition unit is
Acquiring a first captured image in which a first object is captured and a second captured image in which a second object is captured at a timing different from the timing when the first object is captured,
The analysis unit
A period during which the first object is displayed in an area including the predetermined position, a period during which the second object is displayed in an area including the predetermined position, and the predetermined position and a period during which the second relevant information of the second object is displayed in an area containing the predetermined position. 4. The information processing apparatus according to claim 2 , wherein the interest of the user is analyzed using .
前記分析部は、
前記予め定められた位置を含む領域に前記対象物及び前記関連情報の少なくとも1つが表示された回数をさらに用いて、前記ユーザの関心を分析する、請求項1乃至のいずれか1項に記載の情報処理装置。
The analysis unit
6. The method according to any one of claims 1 to 5 , further using the number of times at least one of said object and said related information has been displayed in an area including said predetermined position to analyze said user's interest. information processing equipment.
前記分析部は、
前記表示部に表示される前記対象物、前記表示部に表示される前記関連情報、及び前記ユーザから入力された入力情報の少なくとも1つを用いて前記ユーザの属性を推定する、請求項1乃至のいずれか1項に記載の情報処理装置。
The analysis unit
3. Estimate attributes of said user using at least one of said object displayed on said display unit, said related information displayed on said display unit, and input information input by said user. 7. The information processing device according to any one of 6 .
情報処理装置が
対象物が撮像された撮像画像を取得し、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、
前記表示部内の予め定められた位置から、前記表示部内における前記対象物及び前記関連情報までの距離が近いほど、前記表示部を介して前記対象物を視認するユーザの前記対象物もしくは前記関連情報への関心が高いと分析する、情報処理装置を用いた分析方法。
An information processing device acquires a captured image in which an object is captured,
superimposing information related to the object on the captured image and displaying it on a display unit;
Acquiring the position of the object and the related information in the display unit;
The closer the distance from the predetermined position in the display unit to the object and the related information in the display unit, the more the object or the related information of the user who visually recognizes the object through the display unit. An analysis method using an information processing device that analyzes that there is a high interest in
対象物が撮像された撮像画像を取得し、
前記対象物の関連情報を前記撮像画像に重畳して表示部へ表示させ、
前記表示部内における前記対象物及び前記関連情報の位置を取得し、
前記表示部内の予め定められた位置から、前記表示部内における前記対象物及び前記関連情報までの距離が近いほど、前記表示部を介して前記対象物を視認するユーザの前記対象物もしくは前記関連情報への関心が高いと分析することをコンピュータに実行させるプログラム。
Acquiring a captured image in which an object is captured,
superimposing information related to the object on the captured image and displaying it on a display unit;
Acquiring the position of the object and the related information in the display unit;
The closer the distance from the predetermined position in the display unit to the object and the related information in the display unit, the more the object or the related information of the user who visually recognizes the object through the display unit. A program that causes a computer to perform an analysis that is of high interest to .
JP2018203186A 2018-10-29 2018-10-29 Information processing device, analysis method, and program Active JP7206806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018203186A JP7206806B2 (en) 2018-10-29 2018-10-29 Information processing device, analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018203186A JP7206806B2 (en) 2018-10-29 2018-10-29 Information processing device, analysis method, and program

Publications (2)

Publication Number Publication Date
JP2020071530A JP2020071530A (en) 2020-05-07
JP7206806B2 true JP7206806B2 (en) 2023-01-18

Family

ID=70547830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018203186A Active JP7206806B2 (en) 2018-10-29 2018-10-29 Information processing device, analysis method, and program

Country Status (1)

Country Link
JP (1) JP7206806B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006511859A (en) 2002-12-19 2006-04-06 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Search for images
JP2013218417A (en) 2012-04-05 2013-10-24 Sharp Corp Recommend system, reading terminal device and recommend method
JP2015232913A (en) 2015-09-29 2015-12-24 株式会社東芝 Augmented reality device, method and program
JP2017182628A (en) 2016-03-31 2017-10-05 株式会社エヌ・ティ・ティ・データ Augmented reality user interface application device and control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006511859A (en) 2002-12-19 2006-04-06 ブリティッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー Search for images
JP2013218417A (en) 2012-04-05 2013-10-24 Sharp Corp Recommend system, reading terminal device and recommend method
JP2015232913A (en) 2015-09-29 2015-12-24 株式会社東芝 Augmented reality device, method and program
JP2017182628A (en) 2016-03-31 2017-10-05 株式会社エヌ・ティ・ティ・データ Augmented reality user interface application device and control method

Also Published As

Publication number Publication date
JP2020071530A (en) 2020-05-07

Similar Documents

Publication Publication Date Title
US11238655B2 (en) Offline shopping guide method and apparatus
US11074610B2 (en) Sales promotion system, sales promotion method, non-transitory computer readable medium, and shelf system
CN110033298B (en) Information processing apparatus, control method thereof, system thereof, and storage medium
KR102374861B1 (en) O2O(On-line to Off-line) BASED SYSTEM AND METHOD FOR SUGGESTING CUSTOMIZED INFORMATION
US20160203499A1 (en) Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
JP5238933B2 (en) Sales information generation system with customer base
KR102246109B1 (en) Product recommendation system and method based on consumer preference
JP7384516B2 (en) Information processing device, product recommendation method, program, and system
JPWO2014087725A1 (en) Product information processing apparatus, data processing method thereof, and program
KR20190007681A (en) Apparatus and method for shop analysis
US20140214618A1 (en) In-store customer scan process including nutritional information
US10521844B2 (en) Computer vision product recognition
US20190213610A1 (en) Evaluation device and evaluation method
JP7294663B2 (en) Customer service support device, customer service support method, and program
US20230401632A1 (en) Methods and Systems for Initiating a Virtual Try-On Application Running on a Computer System and Providing Interactive Augmented Reality (AR) Graphics
CN113887884A (en) Business-super service system
JP2019139321A (en) Customer behavior analysis system and customer behavior analysis method
JP2016173735A (en) Customer information system and program
WO2019192455A1 (en) Store system, article matching method and apparatus, and electronic device
JP7206806B2 (en) Information processing device, analysis method, and program
US11410216B2 (en) Customer service assistance apparatus, customer service assistance method, and computer-readable recording medium
US20240013287A1 (en) Real time visual feedback for augmented reality map routing and item selection
JP2016024601A (en) Information processing apparatus, information processing system, information processing method, commodity recommendation method, and program
KR102512371B1 (en) System for Selling Clothing Online
JP7515196B2 (en) Smart shelf management system and its operation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R151 Written notification of patent or utility model registration

Ref document number: 7206806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151