JP2019197430A - Information processing device, information processing method, program and information processing system - Google Patents

Information processing device, information processing method, program and information processing system Download PDF

Info

Publication number
JP2019197430A
JP2019197430A JP2018091642A JP2018091642A JP2019197430A JP 2019197430 A JP2019197430 A JP 2019197430A JP 2018091642 A JP2018091642 A JP 2018091642A JP 2018091642 A JP2018091642 A JP 2018091642A JP 2019197430 A JP2019197430 A JP 2019197430A
Authority
JP
Japan
Prior art keywords
content
attribute
information
person
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018091642A
Other languages
Japanese (ja)
Other versions
JP7102920B2 (en
Inventor
昌希 内田
Masaki Uchida
昌希 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018091642A priority Critical patent/JP7102920B2/en
Publication of JP2019197430A publication Critical patent/JP2019197430A/en
Application granted granted Critical
Publication of JP7102920B2 publication Critical patent/JP7102920B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processing device or the like capable of appropriately selecting the content.SOLUTION: An information processing device 1 includes: a storage part for storing the content corresponding to each of a plurality of articles; an acquisition part for acquiring the property information indicating the product owned by a person and the attribute information indicating the attribute of the person; a classification part for classifying the article purchase tendency for each attribute based on the article corresponding to the product and the attribute information; and a selection part for selecting the content according to the attribute information by referring to the classification result.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、プログラム及び情報処理システムに関する。   The present invention relates to an information processing apparatus, an information processing method, a program, and an information processing system.

近年、デジタルサイネージと呼ばれる表示装置の普及に伴い、デジタルサイネージを活用した種々のコンテンツ表示手法が提案されている。例えば、デジタルサイネージを閲覧する人物を撮像し、撮像画像から当該人物の属性を抽出して、属性に応じたコンテンツをデジタルサイネージに表示する技術がある(特許文献1、2参照)。   In recent years, with the widespread use of display devices called digital signage, various content display methods using digital signage have been proposed. For example, there is a technique in which a person browsing digital signage is imaged, attributes of the person are extracted from the captured image, and contents corresponding to the attributes are displayed on the digital signage (see Patent Documents 1 and 2).

特開2013−205430号公報JP 2013-205430 A 特開2016−61955号公報Japanese Unexamined Patent Publication No. 2006-61955

しかしながら、特許文献1、2に係る発明は、属性に応じて表示するコンテンツを定めたルールを人手で用意しておき、当該ルールに従ってコンテンツを選択するに過ぎず、表示すべきコンテンツを自動的に決定するに至っていない。   However, in the inventions according to Patent Documents 1 and 2, a rule that defines the content to be displayed according to the attribute is prepared manually, and the content to be displayed is automatically selected only by selecting the content according to the rule. It has not yet been decided.

一つの側面では、コンテンツを適切に選択することができる情報処理装置等を提供することを目的とする。   An object of one aspect is to provide an information processing apparatus and the like that can appropriately select content.

一つの側面では、情報処理装置は、複数の商品夫々に対応するコンテンツを記憶する記憶部と、人物が所有する物品を示す所有物情報と、前記人物の属性を示す属性情報とを取得する取得部と、前記物品に対応する前記商品と、前記属性情報とに基づき、前記属性毎の商品購入傾向を分類する分類部と、分類結果を参照して、前記属性情報に応じた前記コンテンツを選択する選択部とを備えることを特徴とする。   In one aspect, the information processing apparatus acquires a storage unit that stores content corresponding to each of a plurality of products, property information indicating an article owned by the person, and attribute information indicating the attribute of the person A classification unit that classifies a product purchase tendency for each attribute based on the product, the product corresponding to the product, and the attribute information, and selects the content according to the attribute information with reference to a classification result And a selection unit to perform.

一つの側面では、コンテンツを適切に選択することができる。   In one aspect, content can be selected appropriately.

コンテンツ配信システムの構成例を示す模式図である。It is a schematic diagram which shows the structural example of a content delivery system. サーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a server. コンテンツDB及び通行人DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of content DB and passerby DB. クラスタリング処理に関する説明図である。It is explanatory drawing regarding a clustering process. コンテンツ配信処理に関する説明図である。It is explanatory drawing regarding a content delivery process. コンテンツ配信処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of a content delivery process. クラスタリング処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of a clustering process. 実施の形態2の概要を示す説明図である。FIG. 6 is an explanatory diagram showing an outline of a second embodiment. 実施の形態2に係るコンテンツ配信処理の処理手順の一例を示すフローチャートである。10 is a flowchart illustrating an example of a processing procedure of content distribution processing according to the second embodiment. 実施の形態3に係るコンテンツ配信システムの構成例を示す模式図である。10 is a schematic diagram illustrating a configuration example of a content distribution system according to Embodiment 3. FIG. 実施の形態3に係るサーバの構成例を示すブロック図である。10 is a block diagram illustrating a configuration example of a server according to Embodiment 3. FIG. 会員DBのレコードレイアウトの一例を示す説明図である。It is explanatory drawing which shows an example of the record layout of member DB. 実施の形態3に係るサーバが実行する処理手順の一例を示すフローチャートである。12 is a flowchart illustrating an example of a processing procedure executed by a server according to the third embodiment. 上述した形態のサーバの動作を示す機能ブロック図である。It is a functional block diagram which shows operation | movement of the server of the form mentioned above.

以下、本発明をその実施の形態を示す図面に基づいて詳述する。
(実施の形態1)
図1は、コンテンツ配信システム(情報処理システム)の構成例を示す模式図である。本実施の形態では、デジタルサイネージの前を通行する通行人の属性に応じて、商品広告等のコンテンツをデジタルサイネージに配信するコンテンツ配信システムについて説明する。コンテンツ配信システムは、情報処理装置1、サイネージ(表示装置)2、及びカメラ(デバイス)3を有する。各装置は、インターネット等のネットワークNを介して通信接続されている。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
(Embodiment 1)
FIG. 1 is a schematic diagram illustrating a configuration example of a content distribution system (information processing system). In this embodiment, a content distribution system that distributes content such as product advertisements to digital signage according to the attributes of passers-by who pass before digital signage will be described. The content distribution system includes an information processing device 1, a signage (display device) 2, and a camera (device) 3. Each device is connected for communication via a network N such as the Internet.

情報処理装置1は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばサーバ装置、パーソナルコンピュータ等である。本実施の形態で情報処理装置1はサーバ装置であるものとし、以下の説明では簡潔のためサーバ1と読み替える。サーバ1は、サイネージ2が表示するコンテンツを格納したデータベースを備え、サイネージ2にコンテンツを配信して表示させる。本実施の形態では、百貨店などの大型商業施設に設置されたサイネージ2にコンテンツを配信するシステムを想定し、サーバ1は、商業施設内の各店舗の商品広告をコンテンツとしてサイネージ2に配信する。後述するように、サーバ1は、カメラ3で撮像した画像から通行人の性別、年齢、体型等の複数の属性を推定すると共に、通行人が購入したと推定される商品を特定する。そしてサーバ1は、通行人の属性に基づき商品の購入傾向を分類するクラスタリングを行う。サーバ1は、カメラ3で撮像した画像から新たに通行人を認識した場合、その通行人の属性に応じて、クラスタリング結果を参照して広告すべき商品を選択し、当該商品の広告に相当するコンテンツをサイネージ2に配信して表示させる。   The information processing apparatus 1 is an information processing apparatus capable of various information processing and information transmission / reception, and is, for example, a server apparatus or a personal computer. In the present embodiment, it is assumed that the information processing apparatus 1 is a server apparatus, and in the following description, the information processing apparatus 1 is read as the server 1 for the sake of brevity. The server 1 includes a database that stores content to be displayed by the signage 2, and distributes and displays the content on the signage 2. In the present embodiment, a system is assumed in which content is distributed to signage 2 installed in a large-scale commercial facility such as a department store, and server 1 distributes a product advertisement of each store in the commercial facility to signage 2 as content. As will be described later, the server 1 estimates a plurality of attributes such as the sex, age, and body shape of the passer-by from the image captured by the camera 3, and specifies a product estimated to be purchased by the passer-by. Then, the server 1 performs clustering that classifies the purchase tendency of products based on the attributes of passers-by. When the server 1 newly recognizes a passerby from an image captured by the camera 3, the server 1 selects a product to be advertised with reference to the clustering result according to the attribute of the passerby, and corresponds to the advertisement of the product. Distribute content to signage 2 and display it.

サイネージ2は、外部との通信が可能な表示装置であり、所謂デジタルサイネージである。サイネージ2は、上述の如く百貨店などの商業施設に設置されており、サーバ1からの配信を受けてコンテンツを表示する。   The signage 2 is a display device that can communicate with the outside, and is a so-called digital signage. As described above, the signage 2 is installed in a commercial facility such as a department store, and displays content by receiving distribution from the server 1.

カメラ3は、サイネージ2の前を通行する通行人を撮像する撮像装置であり、例えば図1に示すように、サイネージ2上部に設置されている。なお、カメラ3は通行人を撮像可能な位置に設置されていればよく、例えばサイネージ2から離れた場所に設置されていてもよい。また、例えばカメラ3はサイネージ2の内部に設けられていてもよい。カメラ3は、通行人を撮像した画像をサーバ1に送信する。サーバ1は、カメラ3から取得した画像に基づいて通行人の年齢、性別等の属性を推定し、通行人の属性に応じたコンテンツを選択してサイネージ2に配信する。
なお、図1では便宜上、サイネージ2及びカメラ3を一台ずつのみ図示しているが、サイネージ2及びカメラ3を複数台設ける構成としてもよいことは勿論である。
The camera 3 is an imaging device that images a passerby who passes in front of the signage 2, and is installed on the top of the signage 2, for example, as shown in FIG. 1. In addition, the camera 3 should just be installed in the position which can image a passerby, for example, may be installed in the place away from the signage 2. For example, the camera 3 may be provided inside the signage 2. The camera 3 transmits an image obtained by capturing a passerby to the server 1. The server 1 estimates the passerby's age, sex, and other attributes based on the image acquired from the camera 3, selects content according to the passer's attribute, and distributes it to the signage 2.
In FIG. 1, only one signage 2 and camera 3 are shown for convenience, but it is needless to say that a plurality of signage 2 and camera 3 may be provided.

図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、主記憶部12、通信部13、及び補助記憶部14を備える。
制御部11は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を有し、補助記憶部14に記憶されたプログラムPを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。主記憶部12は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、制御部11が演算処理を実行するために必要なデータを一時的に記憶する。通信部13は、通信に関する処理を行うための処理回路等を含み、サイネージ2等と情報の送受信を行う。
FIG. 2 is a block diagram illustrating a configuration example of the server 1. The server 1 includes a control unit 11, a main storage unit 12, a communication unit 13, and an auxiliary storage unit 14.
The control unit 11 includes an arithmetic processing unit such as one or a plurality of CPUs (Central Processing Units), MPUs (Micro-Processing Units), and GPUs (Graphics Processing Units), and stores the program P stored in the auxiliary storage unit 14. Various information processing, control processing, and the like related to the server 1 are performed by reading and executing. The main storage unit 12 is a temporary storage area such as a static random access memory (SRAM), a dynamic random access memory (DRAM), or a flash memory, and temporarily stores data necessary for the control unit 11 to execute arithmetic processing. Remember. The communication unit 13 includes a processing circuit for performing processing related to communication, and transmits and receives information to and from the signage 2 and the like.

補助記憶部14は大容量メモリ、ハードディスク等であり、制御部11が処理を実行するために必要なプログラムP、その他のデータを記憶している。また、補助記憶部14は、コンテンツDB141及び通行人DB142を記憶している。コンテンツDB141は、サイネージ2に配信するコンテンツを格納するデータベースである。通行人DB142は、サイネージ2の前を通行した通行人の情報を格納するデータベースである。   The auxiliary storage unit 14 is a large-capacity memory, a hard disk, or the like, and stores a program P and other data necessary for the control unit 11 to execute processing. The auxiliary storage unit 14 stores a content DB 141 and a passer-by DB 142. The content DB 141 is a database that stores content to be distributed to the signage 2. The passer-by DB 142 is a database that stores information on passers-by who have passed in front of the signage 2.

なお、補助記憶部14はサーバ1に接続された外部記憶装置であってもよい。また、サーバ1は複数のコンピュータからなるマルチコンピュータであってもよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。   The auxiliary storage unit 14 may be an external storage device connected to the server 1. Further, the server 1 may be a multi-computer composed of a plurality of computers, or may be a virtual machine constructed virtually by software.

また、本実施の形態においてサーバ1は上記の構成に限られず、例えば可搬型記憶媒体に記憶された情報を読み取る読取部等を含んでもよい。   Further, in the present embodiment, the server 1 is not limited to the above configuration, and may include, for example, a reading unit that reads information stored in a portable storage medium.

図3は、コンテンツDB141及び通行人DB142のレコードレイアウトの一例を示す説明図である。コンテンツDB141は、商品ID列、関連画像列、コンテンツ列を含む。商品ID列は、サイネージ2に表示する広告(コンテンツ)に係る商品であって、通行人が購入する商品を識別するための識別情報を記憶している。関連画像列は、商品IDと対応付けて、商品に対応する特定の物品(以下の説明では便宜上、「特定物」と呼ぶ)の画像データを記憶している。特定物は、例えば商業施設内で商品を提供する各店舗の買い物袋などである。後述するように、サーバ1は、各店舗での商品提供時に付与される買い物袋を通行人が所持(所有)しているか否かを特定することで、通行人が購入した商品(店舗)を特定する。コンテンツ列は、商品IDと対応付けて、商品の広告に相当するコンテンツを記憶している。   FIG. 3 is an explanatory diagram showing an example of the record layout of the content DB 141 and the passer-by DB 142. The content DB 141 includes a product ID column, a related image column, and a content column. The product ID column is a product related to an advertisement (content) displayed on the signage 2 and stores identification information for identifying a product purchased by a passerby. The related image sequence stores image data of a specific article corresponding to the product (referred to as “specific product” for convenience in the following description) in association with the product ID. The specific item is, for example, a shopping bag of each store that provides products in a commercial facility. As will be described later, the server 1 specifies whether or not a passerby possesses (owns) a shopping bag given at the time of providing a product at each store, thereby determining a product (store) purchased by the passerby. Identify. The content column stores the content corresponding to the product advertisement in association with the product ID.

通行人DB142は、商品ID列、属性列を含む。商品ID列は、通行人が購入したと推定される商品に係る商品IDを記憶している。属性列は、商品IDと対応付けて、商品IDが示す商品を購入した通行人の属性情報を記憶している。図3に示すように、属性列には、性別、年齢、体型など、通行人の複数の属性が記憶されている。   The passer-by DB 142 includes a product ID column and an attribute column. The product ID column stores a product ID related to a product estimated to be purchased by a passerby. The attribute column stores attribute information of a passerby who purchased the product indicated by the product ID in association with the product ID. As shown in FIG. 3, the attribute column stores a plurality of attributes of passersby such as sex, age, and body type.

図4は、クラスタリング処理に関する説明図である。図4では、カメラ3で撮像された画像から通行人の属性を推定し、推定した属性から商品のクラスタリングを行う様子を図示している。図4を用いて、サーバ1が実行するクラスタリング処理について説明する。
サーバ1は、サイネージ2に設置されたカメラ3から、通行人を撮像した画像を取得する。図4の右上に、撮像画像の一例を示す。例えばカメラ3はサイネージ2正面を撮像範囲とし、サイネージ2の前を通行する通行人を撮像して、撮像画像をサーバ1に転送する。
FIG. 4 is an explanatory diagram regarding clustering processing. FIG. 4 illustrates a state in which attributes of passers-by are estimated from an image captured by the camera 3 and product clustering is performed from the estimated attributes. A clustering process executed by the server 1 will be described with reference to FIG.
The server 1 acquires an image of passersby from the camera 3 installed in the signage 2. An example of the captured image is shown in the upper right of FIG. For example, the camera 3 captures a passerby passing in front of the signage 2 in the imaging range in front of the signage 2 and transfers the captured image to the server 1.

サーバ1は当該画像に対する画像認識を行い、商業施設内の各店舗での商品購入により付与される特定物を通行人が所持(所有)しているか否かを判定する。この特定物は、例えば商品を提供する際に付与する買い物袋のように、通行人が購入したと推定される商品を特定可能な所有物である。例えばサーバ1は、各店舗で商品を提供する際に用いられる買い物袋の画像データを予めコンテンツDB141に記憶しておく。サーバ1は、図4において点線矩形枠で示すように、撮像画像内で通行人が所持している物品の画像領域を認識する。そしてサーバ1は、当該画像領域に含まれる物品が、コンテンツDB141に記憶されている特定物の画像データと一致するか否かを判定する。より詳しくは、例えばサーバ1は、物品(買い物袋)の形状、又は物品に付されている標章(不図示)を認識することで、特定物か否かを判定する。なお、サーバ1は物品の形状又は標章だけでなく、例えば物品の色などを判定基準に加えてもよい。このように、サーバ1は、通行人を撮像した画像から通行人が所持(所有)している物品を示す所有物情報を取得し、この情報を元に購入商品を特定する。   The server 1 performs image recognition on the image, and determines whether or not a passerby possesses (owns) a specific object given by purchasing a product at each store in the commercial facility. This specific item is a property that can specify a product presumed to have been purchased by a passerby, such as a shopping bag that is provided when a product is provided. For example, the server 1 stores image data of shopping bags used in providing products at each store in the content DB 141 in advance. The server 1 recognizes an image area of an article possessed by a passer-by in a captured image, as indicated by a dotted rectangular frame in FIG. Then, the server 1 determines whether or not the article included in the image area matches the image data of the specific object stored in the content DB 141. More specifically, for example, the server 1 determines whether it is a specific object by recognizing the shape of an article (shopping bag) or a mark (not shown) attached to the article. Note that the server 1 may add not only the shape or mark of the article but also the color of the article, for example, to the determination criterion. As described above, the server 1 acquires property information indicating an article possessed (owned) by the passer-by from an image obtained by imaging the passer-by, and specifies a purchased product based on this information.

なお、サーバ1は商品に対応する特定物を通行人が所持しているか否かを判定可能であればよく、例えば商品がカバンである場合、カバン自体を認識してもよい。すなわちサーバ1は、商品自体を撮像画像から特定するようにしてもよい。   The server 1 only needs to be able to determine whether or not a passerby has a specific object corresponding to the product. For example, when the product is a bag, the server 1 may recognize the bag itself. That is, the server 1 may specify the product itself from the captured image.

サーバ1は、同じく撮像画像に対する画像認識を行い、通行人の複数の属性を推定する。サーバ1が推定する属性は、例えば通行人の性別、年齢、体型、服装のような情報であるが、その内容は特に限定されない。サーバ1は、図4において点線矩形枠で示す特定物の画像領域以外の画像領域から、上記の各種属性を推定する。サーバ1は、各種属性について、画像から抽出される特徴量毎に属性情報を関連付けた情報を補助記憶部14に記憶しており、撮像画像から抽出された特徴量から補助記憶部14を参照して属性情報を認識(取得)する。例えば性別の場合、サーバ1は、顔画像の特徴量と関連付けて男女の別を記憶しており、撮像画像から抽出した顔画像の特徴量から、男女の別を認識する。年齢、体型等のその他の属性についても同様である。これによりサーバ1は、通行人の複数の属性を示す属性情報を撮像画像から取得する。   Similarly, the server 1 performs image recognition on the captured image and estimates a plurality of attributes of passers-by. The attributes estimated by the server 1 are information such as passersby's gender, age, body type, and clothes, but the contents are not particularly limited. The server 1 estimates the various attributes described above from an image area other than the specific image area indicated by the dotted rectangular frame in FIG. The server 1 stores, in the auxiliary storage unit 14, information that associates attribute information for each feature amount extracted from the image with respect to various attributes, and refers to the auxiliary storage unit 14 from the feature amount extracted from the captured image. To recognize (acquire) attribute information. For example, in the case of gender, the server 1 stores gender distinction in association with the feature quantity of the face image, and recognizes gender distinction from the feature quantity of the face image extracted from the captured image. The same applies to other attributes such as age and body type. Thereby, the server 1 acquires attribute information indicating a plurality of attributes of passers-by from the captured image.

サーバ1は、撮像画像から取得した所有物情報及び属性情報に基づき、通行人の所持している特定物から特定される購入商品と、当該通行人の各種属性とを対応付けて通行人DB142に記憶する。サーバ1は、上述の処理を繰り返し、各通行人を撮像した画像から同様に購入商品及び属性の情報を取得して通行人DB142に蓄積する。   Based on the property information and attribute information acquired from the captured image, the server 1 associates the purchased product specified from the specific item possessed by the passer-by with the various attributes of the passer-by in the passer-by DB 142. Remember. The server 1 repeats the above-described processing, acquires the information on purchased products and attributes in the same manner from an image obtained by imaging each passerby, and stores it in the passerby DB 142.

サーバ1は、通行人DB142に蓄積したデータに基づき、各通行人による商品の購入傾向を、通行人の属性に応じてクラスタリングする。上述の如く、通行人DB142には、購入商品及び属性が互いに対応付けて記憶されている。すなわち、通行人DB142には、属性情報に対して購入商品がラベル付けされている。サーバ1は、この属性情報を1つのラベル付き多次元特徴量として扱い、通行人の複数の属性(特徴量)に応じて商品の購入傾向を分類(クラスタリング)する。   Based on the data stored in the passer-by DB 142, the server 1 clusters the purchase tendency of products by each passer according to the passer-by attributes. As described above, the passer-by DB 142 stores purchased products and attributes in association with each other. That is, in the passerby DB 142, the purchased product is labeled with respect to the attribute information. The server 1 treats this attribute information as one labeled multi-dimensional feature value, and classifies (clusters) the purchase tendency of products according to a plurality of attributes (feature values) of passers-by.

例えばサーバ1は、撮像画像から抽出した通行人の各属性を変数とした特徴ベクトルを、SOM(Self-Organizing Maps;自己組織化写像)の手法を用いて複数のクラスタに分類する。SOMは、ニューラルネットワークの一種であり、教師なし学習によって入力データを任意の次元へ写像する手法である。   For example, the server 1 classifies the feature vector using each attribute of the passerby extracted from the captured image as a variable into a plurality of clusters using a SOM (Self-Organizing Maps) technique. SOM is a kind of neural network and is a technique for mapping input data to an arbitrary dimension by unsupervised learning.

図4下側に、特徴量空間における特徴ベクトル(ハッチングを付した丸印で図示)を自己組織化マップ上の各ユニット(六角形で図示)へと写像する様子を概念的に示す。図4左下には、各通行人の属性情報に係る特徴ベクトルを表した特徴量空間を図示している。図4右下には、特徴ベクトルを写像した2次元の自己組織化マップを図示している。なお、図4左下では便宜的に通行人の属性を3次元で表しているが、実際にはさらに多次元で表される。また、本実施の形態では自己組織化マップが2次元平面であるものとして説明するが、自己組織化マップは1次元又は3次元で表されるものであってもよい。   The lower side of FIG. 4 conceptually shows how feature vectors in the feature amount space (shown by hatched circles) are mapped to each unit (shown by hexagons) on the self-organizing map. In the lower left of FIG. 4, a feature amount space representing feature vectors related to the attribute information of each passerby is illustrated. In the lower right of FIG. 4, a two-dimensional self-organizing map in which feature vectors are mapped is illustrated. In the lower left of FIG. 4, the passer-by attributes are represented in three dimensions for the sake of convenience, but are actually represented in more dimensions. In the present embodiment, the self-organizing map is described as being a two-dimensional plane, but the self-organizing map may be expressed in one or three dimensions.

サーバ1は、通行人の性別、年齢、体型といった各属性で表される特徴ベクトルを入力ベクトルとして、図4右下に示す自己組織化マップ内のいずれかのユニットに写像する。ニューラルネットワークの構成について詳細な図示及び説明は省略するが、サーバ1は、特徴ベクトルを入力する入力層と、いずれのユニットに属するかを出力する競合層(出力層)との2層から成るニューラルネットワークを構築する。入力層は、例えば特徴ベクトルに係る変数の数だけ入力用のニューロンを有する。競合層は、自己組織化マップ内のユニットの数だけ出力用のニューロンを有する。   The server 1 maps a feature vector represented by each attribute such as the passerby's sex, age, and body shape as an input vector to any unit in the self-organizing map shown in the lower right of FIG. Although detailed illustration and description of the configuration of the neural network are omitted, the server 1 is a neural network composed of two layers: an input layer for inputting feature vectors and a competitive layer (output layer) for outputting to which unit it belongs. Build a network. The input layer has, for example, as many neurons for input as the number of variables related to the feature vector. The competitive layer has as many neurons for output as the number of units in the self-organizing map.

特徴ベクトルを自己組織化マップに写像するため、自己組織化マップの各ユニットには、特徴量空間と同次元の参照ベクトル(バツ印で図示)が割り与えられている。サーバ1は、特徴ベクトルを参照ベクトルと比較し、特徴量空間において最も座標が近い参照ベクトルのユニットに特徴ベクトルを変換(写像)する。これにより、いわゆる「勝者」となる自己組織化マップのユニットが決定される。この場合にサーバ1は、勝者となったユニット(競合層のニューロン)と、自己組織化マップ内で勝者ユニットの周辺に位置するユニットとに対して重み付けを行う。   In order to map the feature vector to the self-organizing map, each unit of the self-organizing map is assigned a reference vector (shown by a cross) having the same dimension as the feature amount space. The server 1 compares the feature vector with the reference vector, and converts (maps) the feature vector to a reference vector unit having the closest coordinate in the feature amount space. As a result, a unit of the self-organizing map to be a so-called “winner” is determined. In this case, the server 1 weights the unit (competitive layer neuron) that has become the winner and the units located around the winner unit in the self-organizing map.

サーバ1は、各通行人の属性情報について上記の特徴ベクトルの写像を行い、自己組織化マップの更新を繰り返してニューラルネットワークを構築する。これにより、図4においてハッチングの種類で表すように、属性情報が相互に類似する各通行人の特徴ベクトルは、自己組織化マップにおいて近い位置のユニット群に写像されるようになる。このように、サーバ1は、属性情報を用いた通行人(人物)の相互の類似関係に基づき、属性毎の商品購入傾向を表す自己組織化マップ上の複数のクラスタ(集合)を教師なし学習で生成する。   The server 1 maps the above feature vectors for the attribute information of each passerby, and builds a neural network by repeating the update of the self-organizing map. As a result, as represented by the type of hatching in FIG. 4, the feature vectors of passersby whose attribute information is similar to each other are mapped to unit groups at close positions in the self-organizing map. In this way, the server 1 unsupervised learning a plurality of clusters (sets) on the self-organizing map representing merchandise purchase tendency for each attribute based on mutual similarity of passersby (persons) using attribute information. Generate with

上述の如く、サーバ1は、属性毎に商品の購入傾向を表す複数のクラスタを生成する。サーバ1は、通行人DB142において各通行人の属性情報に対応付けられた購入商品の情報(商品ID)を参照して、各クラスタがいずれの店舗の商品を購入した通行人の属性を表すか、ラベル付けを行う。例えば図4に示すように、左斜め線のハッチングで示されるクラスタは、店舗Aの買い物袋を持っていた通行人の属性が分類されたクラスタであるため、サーバ1は当該クラスタに対して「店舗A」のラベル付けを行う。同様に、ドットのハッチングで示されるクラスタは、店舗Bの買い物袋を持っていた通行人が分類されたクラスタであるため、サーバ1は、当該クラスタに対して「店舗B」のラベル付けを行う。これによってサーバ1は、教師なし学習で生成したニューラルネットワークを利用し、各属性を有する通行人がどの店舗の商品を購入しやすいか、商品の購入傾向を分類する分類モデルを生成する。   As described above, the server 1 generates a plurality of clusters representing purchase trends of products for each attribute. The server 1 refers to the information (product ID) of the purchased product associated with the attribute information of each passer in the passer-by DB 142, and indicates which passer's attribute each store has purchased the product of. , Label. For example, as shown in FIG. 4, the cluster indicated by hatching on the left diagonal line is a cluster in which the attributes of passers-by who have the shopping bag of the store A are classified. Label store A. Similarly, since the cluster indicated by hatching with dots is a cluster in which passers-by who had the shopping bag of the store B are classified, the server 1 labels the cluster as “store B”. . In this way, the server 1 uses a neural network generated by unsupervised learning, and generates a classification model that classifies the purchase tendency of the product, which store the passerby having each attribute can easily purchase.

なお、上記では一例としてSOMを挙げて説明したが、本実施の形態はこれに限定されるものではなく、例えばサーバ1は、ディープラーニング、SVM(Support Vector Machine)、ベイジアンネットワーク等のように、他のアルゴリズムを用いて商品購入傾向の分類を学習してもよい。   In the above description, the SOM has been described as an example. However, the present embodiment is not limited to this. For example, the server 1 may be a deep learning, an SVM (Support Vector Machine), a Bayesian network, or the like. Classification of merchandise purchase tendency may be learned using other algorithms.

図5は、コンテンツ配信処理に関する説明図である。図5上側では、サイネージ2が通行人に対してコンテンツを表示する様子を図示している。図5下側では、表示コンテンツを選択するためのクラスタリングの概念図を図示している。図5に基づき、上述の学習結果を用いて通行人の属性情報に応じたコンテンツを表示する処理について説明する。
サーバ1は、上記の学習時と同様に、カメラ3から撮像画像を取得して画像認識を行う。この場合に、例えばサーバ1は、撮像画像から通行人が特定物を所持していないと認識した場合、つまり通行人が店舗での買物を済ませていない場合、当該通行人をコンテンツ出力対象者として、当該通行人に対して商品広告に相当するコンテンツを提示する。
FIG. 5 is an explanatory diagram regarding content distribution processing. On the upper side of FIG. 5, the signage 2 displays content for passers-by. The lower side of FIG. 5 illustrates a conceptual diagram of clustering for selecting display content. Based on FIG. 5, a process of displaying content according to passerby attribute information using the learning result described above will be described.
The server 1 acquires a captured image from the camera 3 and performs image recognition as in the above learning. In this case, for example, when the server 1 recognizes from the captured image that the passerby does not possess the specific item, that is, when the passerby has not finished shopping at the store, the passerby is set as a content output target person. The content corresponding to the product advertisement is presented to the passerby.

サーバ1は、撮像画像から通行人の複数の属性を推定する。そしてサーバ1は、上記で生成した分類モデル(分類結果)を参照して、当該通行人の属性情報が、各商品に対応するクラスタのいずれに属するかを判定する。   The server 1 estimates a plurality of attributes of passers-by from the captured image. Then, the server 1 refers to the classification model (classification result) generated above and determines to which of the clusters corresponding to each product the attribute information of the passerby belongs.

具体的には、サーバ1は生成済みのニューラルネットワークを用いて、通行人の属性情報を自己組織化マップに写像する。図5下側に、その様子を概念的に図示してある。なお、図5では図示の便宜上、図4とは異なり、自己組織マップ上の各クラスタ(集合)をハッチングではなく太線枠で図示してある。   Specifically, the server 1 maps the passer-by attribute information to the self-organizing map using the generated neural network. This is conceptually illustrated at the bottom of FIG. In FIG. 5, for convenience of illustration, unlike FIG. 4, each cluster (set) on the self-organization map is illustrated by a thick line frame instead of hatching.

サーバ1は、通行人の属性をマップ上に写像した写像位置に応じて、サイネージ2に配信するコンテンツを選択する。例えば図5においてバツ印で示す位置に写像されたものとする。この場合、例えばサーバ1は、当該写像位置が店舗Bのクラスタに属するため、店舗Bの商品広告をコンテンツとして選択する。   The server 1 selects content to be distributed to the signage 2 according to the mapping position where the attribute of the passerby is mapped on the map. For example, it is assumed that the image is mapped to the position indicated by the cross in FIG. In this case, for example, the server 1 selects the product advertisement of the store B as the content because the mapping position belongs to the cluster of the store B.

また、サーバ1は、上記のように写像位置が属するクラスタ(店舗)に対応したコンテンツをそのまま選択するだけでなく、マップ上で写像位置が近い他のクラスタ(店舗)に対応するコンテンツを選択してもよい。例えば図5では、通行人の属性が写像された位置は、店舗A、C、Dのクラスタに隣接している。サーバ1は、店舗Bだけでなく、店舗A、C、Dの商品広告をコンテンツとして選択してもよい。   Further, the server 1 not only selects the content corresponding to the cluster (store) to which the mapping position belongs as described above, but also selects the content corresponding to another cluster (store) whose mapping position is close on the map. May be. For example, in FIG. 5, the position where the attribute of the passerby is mapped is adjacent to the clusters of stores A, C, and D. The server 1 may select not only the store B but also the product advertisements of the stores A, C, and D as contents.

例えばサーバ1は、自己組織化マップ上での距離を、クラスタ毎の類似度(類似関係)を表す評価値として用いて、通行人の属性を写像した写像位置と各クラスタとの距離からコンテンツを選択する。例えばサーバ1は、通行人の属性の写像位置と各クラスタとの類似度(距離)を算出し、類似度が閾値以上のクラスタを、通行人の商品購入傾向と類似するクラスタと判定する。サーバ1は、類似すると判定したクラスタの商品広告をコンテンツとして選択する。   For example, the server 1 uses the distance on the self-organizing map as an evaluation value indicating the degree of similarity (similarity relationship) for each cluster, and uses the distance between each cluster and the mapping position where the attribute of the passer-by is mapped. select. For example, the server 1 calculates the similarity (distance) between the mapping position of the attribute of the passer-by and each cluster, and determines that the cluster whose similarity is equal to or greater than the threshold is similar to the passer-by's product purchase tendency. The server 1 selects a product advertisement of a cluster determined to be similar as content.

サーバ1は、上記のようにして選択したクラスタに対応するコンテンツをコンテンツDB141から読み出し、サイネージ2に配信(出力)する。サイネージ2は、サーバ1から配信されたコンテンツを表示する。これによりサイネージ2は、当該通行人と属性が類似する人物が買物をした店舗の商品広告を提示することができ、効果的な販売促進を行うことができる。また、サーバ1は、通行人(コンテンツ出力対象者)と属性が類似する他の通行人(人物)が商品を実際に購入した店舗の広告だけでなく、自己組織化マップによって購入傾向が類似するであろうと予測される他の店舗の広告も提示することができ、さらに効果的な販売促進を行うことができる。   The server 1 reads content corresponding to the cluster selected as described above from the content DB 141 and distributes (outputs) it to the signage 2. The signage 2 displays the content distributed from the server 1. Thereby, the signage 2 can present the product advertisement of the store where the person whose attribute is similar to the passerby shopped, and can perform effective sales promotion. Further, the server 1 has a similar purchase tendency not only by advertisements of stores where other passersby (persons) whose attributes are similar to those of passersby (content output target persons) but also by self-organizing maps. It is also possible to present advertisements of other stores that are expected to be, and to promote sales more effectively.

なお、上記では特定物(買い物袋等)を所持していない通行人に対してコンテンツを表示するものとして説明したが、後述する実施の形態3のように、特定物を所持している通行人に対してもコンテンツを表示してもよいことは勿論である。   In the above description, the content is displayed to a passerby who does not have a specific item (such as a shopping bag). However, a passerby who owns the specific item as in the third embodiment to be described later. Of course, content may also be displayed.

図6は、コンテンツ配信処理の処理手順の一例を示すフローチャートである。図6に基づき、サーバ1が実行するコンテンツ配信処理の処理内容について説明する。
サーバ1の制御部11は、通行人を撮像した撮像画像をカメラ3から取得する(ステップS11)。制御部11は撮像画像に対する画像認識を行う(ステップS12)。
FIG. 6 is a flowchart illustrating an example of a processing procedure of content distribution processing. Based on FIG. 6, the processing content of the content distribution processing which the server 1 performs is demonstrated.
The control part 11 of the server 1 acquires the captured image which imaged the passerby from the camera 3 (step S11). The control unit 11 performs image recognition on the captured image (step S12).

制御部11は、画像認識の結果、商品に対応する特定物を通行人が所持(所有)しているか否かを判定する(ステップS13)。例えば制御部11は、上述の如く、商品の提供時に通行人(人物)に付与される買い物袋、あるいは商品自体などを撮像画像から特定する。例えば制御部11は、撮像画像の一部の画像領域から通行人の所有物を認識し、所有物の形状、所有物に付されている標章等を特定することで、通行人が買い物袋を所持しているか否かを判定する。   As a result of the image recognition, the control unit 11 determines whether or not a passerby possesses (owns) a specific object corresponding to the product (step S13). For example, as described above, the control unit 11 specifies, from the captured image, a shopping bag to be given to a passerby (person) when the product is provided, or the product itself. For example, the control unit 11 recognizes the passerby's possession from a part of the image area of the captured image, and specifies the shape of the possession, the mark attached to the possession, etc. It is determined whether or not it is possessed.

特定物を所持していないと判定した場合(S13:NO)、制御部11は、撮像画像から、通行人(コンテンツ出力対象者)の性別、年齢、体型等の複数の属性を推定する(ステップS14)。制御部11は、推定した複数の属性に基づき、通行人に提示するコンテンツを選択する(ステップS15)。具体的には上述の如く、制御部11は、特定物を所持していた通行人の属性を自己組織化マップに写像することで、商品の購入傾向を通行人の属性毎に分類した分類モデル(ニューラルネットワーク)を生成しておく。制御部11は、この分類モデルを参照して、特定物を所持していない通行人(コンテンツ出力対象者)の属性を自己組織化マップに写像することで、当該通行人の商品購入傾向を複数のクラスタ(集合)のいずれかに分類する。制御部11は、当該通行人の属性が写像されたマップ上の写像位置と、各クラスタとのマップ上での距離を算出することで、クラスタ毎の類似度(類似関係)を算出する。制御部11は、例えば類似度が閾値以上(距離が閾値以下)のクラスタを選択する等して、類似関係に基づくコンテンツの選択を行う。制御部11は、選択したコンテンツをコンテンツDB141から読み出し、サイネージ2に出力(配信)して表示させる(ステップS16)。制御部11は、一連の処理を終了する。   When it is determined that the specific object is not possessed (S13: NO), the control unit 11 estimates a plurality of attributes such as the sex, age, and body shape of the passerby (content output target person) from the captured image (step) S14). The control part 11 selects the content shown to a passer-by based on several estimated attributes (step S15). Specifically, as described above, the control unit 11 maps the attributes of passers-by who possessed a specific object to the self-organizing map, thereby classifying the purchase tendency of products for each attribute of the passers-by. (Neural network) is generated. The control unit 11 refers to the classification model and maps the attribute of the passerby who does not possess the specific object (content output target person) to the self-organizing map, thereby allowing the passerby to purchase a plurality of merchandise purchase tendencies. Into one of the clusters (sets). The control unit 11 calculates the degree of similarity (similarity relationship) for each cluster by calculating the mapping position on the map where the attribute of the passerby is mapped and the distance between each cluster on the map. The control unit 11 selects content based on the similarity relationship, for example, by selecting a cluster having a similarity greater than or equal to a threshold (distance is less than or equal to a threshold). The control unit 11 reads the selected content from the content DB 141, outputs (distributes) it to the signage 2, and displays it (step S16). The control unit 11 ends the series of processes.

特定物を所持していると判定した場合(S13:YES)、制御部11は、撮像画像において、ステップS13で特定物を特定した画像領域以外の画像領域から、通行人の複数の属性を推定する(ステップS17)。制御部11は、特定物により通行人が購入したと推定される商品を示す情報(例えば商品ID)と、通行人の複数の属性を示す属性情報とを対応付けて通行人DB142に記憶する(ステップS18)。制御部11は、一連の処理を終了する。   When it determines with having a specific thing (S13: YES), the control part 11 estimates several attributes of a passerby from image areas other than the image area which specified the specific thing in step S13 in a captured image. (Step S17). The control unit 11 stores information (for example, a product ID) indicating a product presumed to be purchased by a passerby by a specific item and attribute information indicating a plurality of passerby attributes in the passer-by DB 142 ( Step S18). The control unit 11 ends the series of processes.

図7は、クラスタリング処理の処理手順の一例を示すフローチャートである。図7に基づき、サーバ1が実行するクラスタリング処理の処理内容について説明する。
サーバ1の制御部11は、通行人DB142から、通行人が購入したと推定される商品の情報と、当該通行人の複数の属性を示す属性情報とを読み出す(ステップS31)。例えば制御部11は、上述の如く、通行人が所持していた特定物から特定された商品の商品IDと、当該IDに対応付けて記憶されている通行人の性別、年齢、体型等の属性情報とを読み出す。
FIG. 7 is a flowchart illustrating an example of a processing procedure of the clustering process. Based on FIG. 7, the processing content of the clustering process which the server 1 performs is demonstrated.
The control unit 11 of the server 1 reads, from the passer-by DB 142, information on a product estimated to be purchased by the passer-by and attribute information indicating a plurality of attributes of the passer-by (step S31). For example, as described above, the control unit 11 includes a product ID of a product specified from a specific item possessed by a passer-by and attributes such as a passer-by's gender, age, and body shape stored in association with the ID. Read information.

制御部11は、ステップS31で取得した商品及び属性に係る情報に基づき、属性毎の商品購入傾向を分類するクラスタリングを行う(ステップS32)。例えば制御部11は、上述の如く、SOMを用いたクラスタリングを行う。制御部11は、各通行人の複数の属性で表される特徴ベクトルを自己組織化マップに写像することで、各通行人の相互の類似関係に基づく複数のクラスタ(集合)を生成する。そして制御部11は、各通行人が所持していた特定物より特定した購入商品を、各クラスタを表す出力値としてラベル付けすることで、通行人による商品の購入傾向を属性毎に分類する分類モデルを生成する。制御部11は、一連の処理を終了する。   The control unit 11 performs clustering for classifying the product purchase tendency for each attribute based on the information related to the product and the attribute acquired in step S31 (step S32). For example, the control unit 11 performs clustering using SOM as described above. The control unit 11 maps a feature vector represented by a plurality of attributes of each passer-by to the self-organizing map, thereby generating a plurality of clusters (sets) based on the mutual similarity of each passer-by. And the control part 11 classifies the purchase tendency of the goods by a passerby for every attribute by labeling the purchase goods specified from the specific thing which each passerby possessed as an output value showing each cluster. Generate a model. The control unit 11 ends the series of processes.

なお、上記ではサーバ1がネットワークNを介してサイネージ2にコンテンツを配信するシステムについて説明したが、ローカル装置(例えばパーソナルコンピュータ)が上述の各店舗の商品に係るコンテンツを記憶しておき、サイネージ2にコンテンツを出力するようにしてもよい。   In the above description, the system in which the server 1 distributes content to the signage 2 via the network N has been described. However, the local device (for example, a personal computer) stores the content related to the products of each store described above, and the signage 2 You may make it output a content.

また、上記ではデジタルサイネージにおいてコンテンツを表示する形態について述べたが、本実施の形態はこれに限定されるものではなく、後述の実施の形態3のように、コンテンツ出力対象者が所有する端末装置等にコンテンツを配信してもよい。また、配信コンテンツは画像に限定されず、例えば音声などであってもよい。   Moreover, although the form which displays a content in digital signage was described above, this Embodiment is not limited to this, The terminal apparatus which a content output subject owns like Embodiment 3 mentioned later For example, the content may be distributed. Further, the distribution content is not limited to images, and may be, for example, audio.

以上より、本実施の形態1によれば、サーバ1は、通行人(人物)が所有する特定物(物品)を示す所有物情報と、通行人の複数の属性を示す属性情報とを取得し、属性毎の商品購入傾向を分類(クラスタリング)し、分類結果を参照して通行人(コンテンツ出力対象者)の属性に応じたコンテンツを選択する。サーバ1は、購入品情報及び属性情報からコンテンツ選択の際に用いるクラスタを自動的に生成することから、人手で作成された複雑なルールを予め用意する必要なく、適切なコンテンツを選択して通行人に提示することができる。   As described above, according to the first embodiment, the server 1 acquires property information indicating a specific object (article) owned by a passerby (person) and attribute information indicating a plurality of attributes of the passerby. The product purchase tendency for each attribute is classified (clustered), and the content corresponding to the attribute of the passerby (content output target person) is selected with reference to the classification result. Since the server 1 automatically generates a cluster to be used for content selection from purchased product information and attribute information, it is not necessary to prepare in advance complicated rules created manually, and the appropriate content is selected and passed. Can be presented to a person.

また、本実施の形態1によれば、SOMを用いてクラスタリングを行うことで、教師なし学習で商品の分類を行うことができる。   Further, according to the first embodiment, it is possible to classify products by unsupervised learning by performing clustering using SOM.

また、本実施の形態1によれば、SOMを用いたクラスタリングにより、各クラスタ(集合)の類似関係を算出し、算出した類似関係に応じてコンテンツを選択することができる。従って、サーバ1は、通行人(コンテンツ出力対象者)と属性が類似する他の通行人が商品を実際に購入した商品のコンテンツだけでなく、自己組織化マップによって購入傾向が類似するであろうと予測される他の商品のコンテンツも提示することができる。   Further, according to the first embodiment, it is possible to calculate the similarity relationship of each cluster (set) by clustering using the SOM, and select content according to the calculated similarity relationship. Accordingly, the server 1 may have similar purchase tendencies based on the self-organizing map as well as the content of the products that other passers-by who have similar attributes to the passers-by (content output target person). The content of other products that are predicted can also be presented.

また、本実施の形態1によれば、サーバ1は、カメラ3で撮像された画像から商品に対応する特定物(買い物袋、又は商品自体等)を特定すると共に、当該画像から通行人の属性を推定し、クラスタリングを行う。これにより、サーバ1は上記の購入品情報及び属性情報を適切に取得し、クラスタリングを行うことができる。   Further, according to the first embodiment, the server 1 specifies a specific object (such as a shopping bag or the product itself) corresponding to the product from the image captured by the camera 3, and the attribute of the passerby from the image. Is estimated and clustering is performed. Thereby, the server 1 can appropriately acquire the purchase item information and the attribute information and perform clustering.

また、本実施の形態1によれば、サーバ1は商品を入れる買い物袋を特定物として認識することで、商品の出所(店舗)を適切に判別し、クラスタリングを行うことができる。   Further, according to the first embodiment, the server 1 can appropriately identify the origin (store) of the product and perform clustering by recognizing the shopping bag into which the product is placed as a specific item.

また、本実施の形態1によれば、サーバ1は、カメラ3に対応する位置に設置されたサイネージ2にコンテンツを出力することで、より適切な態様でコンテンツの提示を行うことができる。   Further, according to the first embodiment, the server 1 can present the content in a more appropriate manner by outputting the content to the signage 2 installed at a position corresponding to the camera 3.

(実施の形態2)
本実施の形態では、買い物袋等の特定物を所持している通行人に対し、特定物を所持していない通行人とは異なるコンテンツを提示する形態について述べる。なお、実施の形態1と重複する内容については同一の符号を付して説明を省略する。
図8は、実施の形態2の概要を示す説明図である。図8では、実施の形態1における図5と対比して、商品を入れた買い物袋等の特定物を所持している通行人、つまり買物を済ませた通行人に対し、買物をしていない通行人とは異なるコンテンツを表示している様子を図示している。
(Embodiment 2)
In the present embodiment, a mode will be described in which a content different from that of a passerby who does not possess a specific object is presented to a passerby who possesses a specific object such as a shopping bag. In addition, about the content which overlaps with Embodiment 1, the same code | symbol is attached | subjected and description is abbreviate | omitted.
FIG. 8 is an explanatory diagram showing an outline of the second embodiment. In FIG. 8, in contrast to FIG. 5 in the first embodiment, a passer who has a specific item such as a shopping bag containing a product, that is, a passer who does not make a purchase for a passerby who has finished shopping. A state in which content different from a person is displayed is illustrated.

本実施の形態でサイネージ2は、買い物袋等の特定物を所持していない通行人だけでなく、特定物を所持している通行人に対してもコンテンツを表示する。この場合にサイネージ2は、特定物の所持の有無に基づき、属性が類似する通行人であっても異なるコンテンツを表示する。   In this embodiment, the signage 2 displays content not only for passers-by who do not have a specific item such as a shopping bag, but also for passers-by who have the specific item. In this case, the signage 2 displays different contents even for passers-by with similar attributes based on whether or not a specific object is possessed.

例えばサイネージ2は、通行人が買い物袋等を所持しておらず、まだ買物を行っていない状態であると推定される場合、通行人を店舗に誘導するためのコンテンツを表示する(図5参照)。一方で、例えばサイネージ2は、買い物袋等を所持している通行人に対し、再来店を誘導するためのコンテンツを表示する。例えば図8に示すように、サイネージ2は、今後の商品のセール予定などの情報を表示する。なお、コンテンツの内容は特に限定されるものではなく、特定物の所持の有無に応じて異なればよい。   For example, the signage 2 displays content for guiding the passer-by to the store when the passer-by does not have a shopping bag or the like and is not shopping yet (see FIG. 5). ). On the other hand, for example, the signage 2 displays content for inducing a revisit to a passerby who has a shopping bag or the like. For example, as shown in FIG. 8, the signage 2 displays information such as a future sale schedule of the product. Note that the content is not particularly limited, and may be different depending on whether or not a specific item is possessed.

例えばサーバ1は、各商品の商品IDと対応付けて、特定物の所持の有無に応じた2通り以上のコンテンツをコンテンツDB141に用意しておく。サーバ1は、カメラ3から取得した撮像画像によって特定物の所持の有無を判定し、判定結果に応じて異なるコンテンツを選択し、サイネージ2に配信する。このように、本システムでは通行人の属性だけでなく、通行人の状況に応じてコンテンツを変更することで、より適切な販売促進を行うことができる。   For example, the server 1 prepares two or more types of contents in the content DB 141 in association with the product ID of each product in accordance with the possession of a specific item. The server 1 determines whether or not the specific object is possessed based on the captured image acquired from the camera 3, selects different content according to the determination result, and distributes the content to the signage 2. In this way, in this system, it is possible to perform more appropriate sales promotion by changing the content according to not only the attribute of the passer but also the situation of the passer.

なお、上記でサーバ1は特定物の所持の有無に基づきコンテンツを変更したが、本実施の形態はこれに限定されるものではない。例えばサーバ1は、時間帯に応じてコンテンツを変更してもよい。このように、コンテンツの選択基準は特定物の所持の有無に限定されず、その他の情報を基準としてもよい。   In addition, although the server 1 changed the content based on the presence or absence of a specific thing in the above, this Embodiment is not limited to this. For example, the server 1 may change the content according to the time zone. As described above, the content selection criterion is not limited to whether or not a specific item is possessed, and other information may be used as a criterion.

図9は、実施の形態2に係るコンテンツ配信処理の処理手順の一例を示すフローチャートである。図9に基づき、本実施の形態におけるコンテンツ配信処理の処理内容について説明する。
通行人が特定物を所持していると判定し(S13:YES)、ステップS17、S18の処理を実行した後、サーバ1の制御部11は以下の処理を実行する。制御部11は、通行人の属性情報に基づき、特定物を所持していない通行人に対して提示するコンテンツとは異なるコンテンツを選択する(ステップS201)。例えば上述の如く、制御部11は、通行人の再来店を促すコンテンツ(広告)をコンテンツDB141から選択する。制御部11は当該コンテンツをサイネージ2に出力し(ステップS202)、一連の処理を終了する。
FIG. 9 is a flowchart illustrating an example of a processing procedure of content distribution processing according to the second embodiment. Based on FIG. 9, the processing content of the content distribution processing in this Embodiment is demonstrated.
After determining that the passerby possesses the specific object (S13: YES) and executing the processing of steps S17 and S18, the control unit 11 of the server 1 executes the following processing. Based on the attribute information of the passerby, the control unit 11 selects content different from the content presented to the passerby who does not possess the specific object (step S201). For example, as described above, the control unit 11 selects, from the content DB 141, content (advertisement) that prompts passers-by to return to the store. The control unit 11 outputs the content to the signage 2 (step S202), and ends a series of processes.

以上より、本実施の形態によれば、商品に対応する特定物(例えば店舗の買い物袋等)の所持の有無に応じて異なるコンテンツを選択し、通行人に提示する。これにより、すでに商品を購入済みの通行人に対して適切なコンテンツを提示し、さらなる商品の販売促進を図ることができる。   As described above, according to the present embodiment, different contents are selected depending on whether or not a specific item (for example, a shopping bag in a store) corresponding to a product is possessed and presented to a passerby. As a result, appropriate content can be presented to a passerby who has already purchased the product, and further sales promotion of the product can be promoted.

(実施の形態3)
実施の形態1では、サイネージ2にコンテンツを配信し、不特定多数の通行人に対してコンテンツを提示する形態について述べた。本実施の形態ではサイネージ2ではなく会員顧客が所持する端末4にコンテンツを配信し、実店舗、オンラインストア等の会員顧客向けにコンテンツを提示する形態について述べる。
図10は、実施の形態3に係るコンテンツ配信システムの構成例を示す模式図である。本実施の形態に係るコンテンツ配信システムは、サイネージ2及びカメラ3に代えて、端末(デバイス)4、4、4…を有する。端末4は、実店舗やオンラインストアを利用する所定の会員顧客が所持している端末装置であり、例えばスマートフォン、パーソナルコンピュータ、タブレット端末等である。本実施の形態でサーバ1は、端末4を介して事前登録された属性情報を含む会員情報と、商品の購入履歴を含む会員の決済情報とに基づいて、各会員の端末4に商品広告などのコンテンツを配信する。
(Embodiment 3)
In the first embodiment, the content is distributed to the signage 2 and the content is presented to an unspecified number of passersby. In the present embodiment, a mode will be described in which content is distributed not to signage 2 but to a terminal 4 possessed by a member customer and presented to the member customer such as an actual store or an online store.
FIG. 10 is a schematic diagram illustrating a configuration example of a content distribution system according to the third embodiment. The content distribution system according to the present embodiment includes terminals (devices) 4, 4, 4,... Instead of the signage 2 and the camera 3. The terminal 4 is a terminal device possessed by a predetermined member customer who uses an actual store or an online store, and is, for example, a smartphone, a personal computer, a tablet terminal, or the like. In the present embodiment, the server 1 uses the member information including the attribute information pre-registered via the terminal 4 and the member payment information including the purchase history of the product, a product advertisement, etc. Deliver content.

図11は、実施の形態3に係るサーバ1の構成例を示すブロック図である。本実施の形態でサーバ1の補助記憶部14は、通行人DB142に代えて会員DB143を記憶している。会員DB143は、各会員の会員情報及び決済情報を格納するデータベースである。   FIG. 11 is a block diagram illustrating a configuration example of the server 1 according to the third embodiment. In this embodiment, the auxiliary storage unit 14 of the server 1 stores a member DB 143 instead of the passer-by DB 142. The member DB 143 is a database that stores member information and settlement information of each member.

図12は、会員DB143のレコードレイアウトの一例を示す説明図である。会員DB143は、会員ID列、氏名列、アドレス列、属性列、決済列を含む。会員IDは、各会員を識別するための識別情報を記憶している。氏名列は、会員IDと対応付けて、会員の氏名を記憶している。アドレス列は、会員IDと対応付けて、会員のメールアドレスを記憶している。属性列は、会員IDと対応付けて、会員の性別、年齢等の属性情報を記憶している。決済列は、会員IDと対応付けて、会員による商品の決済履歴(決済情報)を記憶している。   FIG. 12 is an explanatory diagram showing an example of the record layout of the member DB 143. As shown in FIG. The member DB 143 includes a member ID column, name column, address column, attribute column, and settlement column. The member ID stores identification information for identifying each member. The name column stores the name of the member in association with the member ID. The address column stores the member's mail address in association with the member ID. The attribute column stores attribute information such as the gender and age of the member in association with the member ID. The payment column stores the payment history (settlement information) of the product by the member in association with the member ID.

上述の如く、本実施の形態でサーバ1は、会員の氏名、属性等を含む会員情報と、会員が購入した商品、決済額等を含む決済情報とを、会員IDに対応付けて会員DB143に記憶している。すなわち、サーバ1は、会員が購入により所有する商品(物品)と、当該会員の属性とを対応付けて記憶している。サーバ1は当該情報に基づき、会員の属性に基づく商品購入傾向のクラスタリングを行う。具体的には実施の形態1と同様に、サーバ1は、SOM等の手法を用いて教師なし学習を行う。   As described above, in the present embodiment, the server 1 associates the member information including the member's name, attribute, and the like with the payment information including the product purchased by the member and the payment amount in the member DB 143 in association with the member ID. I remember it. That is, the server 1 stores a product (article) owned by a member by purchase and an attribute of the member in association with each other. Based on this information, the server 1 performs clustering of product purchase trends based on member attributes. Specifically, as in the first embodiment, the server 1 performs unsupervised learning using a technique such as SOM.

サーバ1はクラスタリング結果に基づき、各会員の属性に応じたコンテンツを端末4に配信する。このように、サーバ1はデジタルサイネージにおいて通行人にコンテンツを提示するだけでなく、各会員に直接的にコンテンツを提示し、商品の販売促進を行うことができる。   The server 1 distributes content corresponding to the attribute of each member to the terminal 4 based on the clustering result. As described above, the server 1 can not only present contents to passers-by in digital signage but also present contents directly to each member to promote sales of products.

図13は、実施の形態3に係るサーバ1が実行する処理手順の一例を示すフローチャートである。図13に基づき、本実施の形態においてサーバ1が実行する処理内容について説明する。
サーバ1の制御部11は、各会員の会員情報及び決済情報を会員DB143から読み出す(ステップS301)。会員情報は、各会員が登録してある情報であって、会員の複数の属性を示す属性情報を含む。決済情報は、各会員による商品購入の決済履歴であって、会員が購入により所有する商品(物品)を示す情報(所有物情報)を含む。制御部11は、会員情報及び決済情報に基づき、会員に提供する商品の購入傾向を属性毎に分類(クラスタリング)する(ステップS302)。具体的には、制御部11は実施の形態1と同様に、SOM等によるクラスタリングを行う。制御部11は、会員情報に含まれる会員の属性情報を特徴ベクトルとして自己組織化マップに写像する機械学習を行い、会員が購入により所有する商品(物品)を各クラスタに係る出力値としてラベル付けすることで、会員の属性毎に商品の購入傾向に分類するニューラルネットワークを構築する。
FIG. 13 is a flowchart illustrating an example of a processing procedure executed by the server 1 according to the third embodiment. Based on FIG. 13, the processing content which the server 1 performs in this Embodiment is demonstrated.
The control unit 11 of the server 1 reads the member information and settlement information of each member from the member DB 143 (Step S301). The member information is information registered by each member, and includes attribute information indicating a plurality of attributes of the member. The settlement information is a settlement history of product purchase by each member, and includes information (property information) indicating a product (article) owned by the member by purchase. Based on the member information and the payment information, the control unit 11 classifies (clusters) the purchase tendency of the products provided to the member for each attribute (step S302). Specifically, the control unit 11 performs clustering by SOM or the like as in the first embodiment. The control unit 11 performs machine learning that maps the member attribute information included in the member information as a feature vector to the self-organizing map, and labels the product (article) owned by the member as an output value related to each cluster. By doing so, a neural network that classifies the purchase tendency of the product for each member attribute is constructed.

制御部11は、ステップS302の分類結果を参照して、各会員の属性情報に基づき、各会員の端末4に配信するコンテンツを選択する(ステップS303)。制御部11は、選択したコンテンツを各会員の端末4に出力(配信)し(ステップS304)、一連の処理を終了する。   The control unit 11 refers to the classification result in step S302, and selects content to be distributed to each member's terminal 4 based on the attribute information of each member (step S303). The control unit 11 outputs (distributes) the selected content to the terminal 4 of each member (step S304), and ends a series of processes.

以上より、本実施の形態3によれば、実施の形態1のように撮像画像から抽出した情報に基づくクラスタリングだけでなく、会員の会員情報及び決済情報から同様にクラスタリングを行い、適切なコンテンツを選択して出力することができる。   As described above, according to the third embodiment, not only the clustering based on the information extracted from the captured image as in the first embodiment, but also the clustering is performed in the same manner from the member information and the payment information of the member, and appropriate content is obtained. You can select and output.

また、本実施の形態3によれば、会員が所有する端末4にコンテンツを出力(配信)することで、個々の会員に向けて適切にコンテンツを提示することができる。   Further, according to the third embodiment, content can be appropriately presented to individual members by outputting (distributing) the content to the terminal 4 owned by the member.

(実施の形態4)
図14は、上述した形態のサーバ1の動作を示す機能ブロック図である。制御部11がプログラムPを実行することにより、サーバ1は以下のように動作する。
記憶部1401は、複数の商品夫々に対応するコンテンツを記憶する。取得部1402は、人物が所有する物品を示す所有物情報と、前記人物の属性を示す属性情報とを取得する。分類部1403は、前記物品に対応する前記商品と、前記属性情報とに基づき、前記属性毎の商品購入傾向を分類する。選択部1404は、分類結果を参照して、前記属性情報に応じた前記コンテンツを選択する。
(Embodiment 4)
FIG. 14 is a functional block diagram showing the operation of the server 1 in the above-described form. When the control unit 11 executes the program P, the server 1 operates as follows.
The storage unit 1401 stores content corresponding to each of a plurality of products. The acquisition unit 1402 acquires property information indicating an article owned by a person and attribute information indicating the attribute of the person. The classifying unit 1403 classifies the product purchase tendency for each attribute based on the product corresponding to the article and the attribute information. The selection unit 1404 refers to the classification result and selects the content according to the attribute information.

本実施の形態4は以上の如きであり、その他は実施の形態1から3と同様であるので、対応する部分には同一の符号を付してその詳細な説明を省略する。   The fourth embodiment is as described above, and the other parts are the same as those of the first to third embodiments. Therefore, the corresponding parts are denoted by the same reference numerals, and detailed description thereof is omitted.

今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is to be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 サーバ(情報処理装置)
11 制御部
12 主記憶部
13 通信部
14 補助記憶部
P プログラム
141 コンテンツDB
142 通行人DB
143 会員DB
2 サイネージ(表示装置)
3 カメラ(デバイス)
4 端末(デバイス)
1 server (information processing equipment)
11 Control Unit 12 Main Storage Unit 13 Communication Unit 14 Auxiliary Storage Unit P Program 141 Content DB
142 Passerby DB
143 Member DB
2 Signage (display device)
3 Camera (device)
4 Terminal (device)

Claims (16)

複数の商品夫々に対応するコンテンツを記憶する記憶部と、
人物が所有する物品を示す所有物情報と、前記人物の属性を示す属性情報とを取得する取得部と、
前記物品に対応する前記商品と、前記属性情報とに基づき、前記属性毎の商品購入傾向を分類する分類部と、
分類結果を参照して、前記属性情報に応じた前記コンテンツを選択する選択部と
を備えることを特徴とする情報処理装置。
A storage unit for storing content corresponding to each of a plurality of products;
An acquisition unit that acquires property information indicating an article owned by a person and attribute information indicating an attribute of the person;
Based on the product corresponding to the article and the attribute information, a classification unit that classifies a product purchase tendency for each attribute;
An information processing apparatus comprising: a selection unit that selects a content corresponding to the attribute information with reference to a classification result.
コンテンツ出力対象者の属性情報を取得する属性取得部と、
前記コンテンツ出力対象者の属性情報に応じて、前記選択部が選択した前記コンテンツを出力する出力部と
を備えることを特徴とする請求項1に記載の情報処理装置。
An attribute acquisition unit for acquiring attribute information of a content output target person,
The information processing apparatus according to claim 1, further comprising: an output unit that outputs the content selected by the selection unit according to attribute information of the content output target person.
前記取得部は、
所定位置に設置された撮像装置から、前記人物を撮像した画像を取得し、
該画像から前記所有物情報及び属性情報を取得する
ことを特徴とする請求項2に記載の情報処理装置。
The acquisition unit
Obtain an image of the person from an imaging device installed at a predetermined position,
The information processing apparatus according to claim 2, wherein the property information and attribute information are acquired from the image.
前記記憶部は、特徴量毎に前記属性情報を関連付けた情報を有し、
前記取得部は、前記画像から抽出する前記人物の特徴量に応じて、前記記憶部から前記属性情報を取得する
ことを特徴とする請求項3に記載の情報処理装置。
The storage unit has information that associates the attribute information for each feature amount,
The information processing apparatus according to claim 3, wherein the acquisition unit acquires the attribute information from the storage unit according to a feature amount of the person extracted from the image.
前記分類部は、
前記属性情報を用いた前記人物の相互の類似関係と、前記所有物情報とから、商品購入傾向を複数の集合に分類し、
分類した前記集合毎の類似関係を算出する
ことを特徴とする請求項3又は4に記載の情報処理装置。
The classification unit includes:
From the similar relationship between the persons using the attribute information and the property information, the product purchase tendency is classified into a plurality of sets,
The information processing apparatus according to claim 3, wherein a similarity relationship for each of the classified sets is calculated.
前記選択部は、前記集合毎の類似関係に基づいて前記コンテンツを選択する
ことを特徴とする請求項5に記載の情報処理装置。
The information processing apparatus according to claim 5, wherein the selection unit selects the content based on a similarity relationship for each set.
前記取得部は、前記物品の形状、又は前記物品に付された標章から前記所有物情報を取得する
ことを特徴とする請求項5又は6に記載の情報処理装置。
The information processing apparatus according to claim 5, wherein the acquisition unit acquires the property information from a shape of the article or a mark attached to the article.
前記出力部は、前記撮像装置に対応する位置に設置された表示装置に前記コンテンツを出力する
ことを特徴とする請求項3〜7のいずれか1項に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the output unit outputs the content to a display device installed at a position corresponding to the imaging device.
前記選択部は、前記人物による前記物品の所持の有無に応じて、異なる前記コンテンツを選択する
ことを特徴とする請求項3〜8のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 3 to 8, wherein the selection unit selects the different content according to whether the person has the article.
前記取得部は、予め登録してある前記人物の会員情報と、前記人物による商品の決済情報とを取得し、
前記分類部は、前記決済情報が示す前記人物の購入商品と、前記会員情報が示す前記人物の属性情報とに基づき、属性毎の商品購入傾向を分類する
ことを特徴とする請求項2に記載の情報処理装置。
The acquisition unit acquires member information of the person registered in advance and payment information of a product by the person,
The said classification | category part classifies the goods purchase tendency for every attribute based on the said person's purchase goods which the said payment information shows, and the said person's attribute information which the said member information shows. Information processing device.
前記出力部は、前記コンテンツ出力対象者が所有する端末装置に前記コンテンツを出力する
ことを特徴とする請求項10に記載の情報処理装置。
The information processing apparatus according to claim 10, wherein the output unit outputs the content to a terminal device owned by the content output target person.
人物が所有する物品を示す所有物情報と、前記人物の属性を示す属性情報とを取得し、
前記物品に対応する商品と、前記属性情報とに基づき、前記属性毎の商品購入傾向を分類し、
分類結果を参照して、複数の前記商品夫々に対応するコンテンツを記憶する記憶部から、前記属性情報に応じた前記コンテンツを選択する
処理をコンピュータに実行させる情報処理方法。
Acquiring property information indicating an article owned by a person and attribute information indicating an attribute of the person;
Based on the product corresponding to the article and the attribute information, classify the product purchase tendency for each attribute,
An information processing method for causing a computer to execute a process of selecting a content corresponding to the attribute information from a storage unit that stores content corresponding to each of the plurality of products with reference to a classification result.
人物が所有する物品を示す所有物情報と、前記人物の属性を示す属性情報とを取得し、
前記物品に対応する商品と、前記属性情報とに基づき、前記属性毎の商品購入傾向を分類し、
分類結果を参照して、複数の前記商品夫々に対応するコンテンツを記憶する記憶部から、前記属性情報に応じた前記コンテンツを選択する
処理をコンピュータに実行させるプログラム。
Acquiring property information indicating an article owned by a person and attribute information indicating an attribute of the person;
Based on the product corresponding to the article and the attribute information, classify the product purchase tendency for each attribute,
A program that causes a computer to execute a process of referring to a classification result and selecting the content according to the attribute information from a storage unit that stores content corresponding to each of the plurality of products.
コンテンツ出力対象者の情報を取得するデバイスと、コンテンツを出力する情報処理装置とを有するシステムであって、
前記情報処理装置は、
複数の商品夫々に対応するコンテンツを記憶する記憶部と、
人物が所有する物品を示す所有物情報と、前記人物の属性を示す属性情報とを取得する取得部と、
前記物品に対応する前記商品と、前記属性情報とに基づき、前記属性毎の商品購入傾向を分類する分類部と、
前記デバイスから、前記コンテンツ出力対象者の属性情報を取得する対象者属性取得部と、
前記分類部による分類結果を参照して、前記コンテンツ出力対象者の属性情報に応じた前記コンテンツを選択する選択部と、
選択した前記コンテンツを出力する出力部と
を備えることを特徴とする情報処理システム。
A system having a device that acquires information about a content output target person and an information processing apparatus that outputs content,
The information processing apparatus includes:
A storage unit for storing content corresponding to each of a plurality of products;
An acquisition unit that acquires property information indicating an article owned by a person and attribute information indicating an attribute of the person;
Based on the product corresponding to the article and the attribute information, a classification unit that classifies a product purchase tendency for each attribute;
A target person attribute acquisition unit for acquiring attribute information of the content output target person from the device;
A selection unit that refers to the classification result by the classification unit and selects the content according to the attribute information of the content output target person;
An information processing system comprising: an output unit that outputs the selected content.
前記デバイスは、所定位置に設置された撮像装置、又は前記コンテンツ出力対象者が所持する端末装置であり、
前記対象者属性取得部は、前記撮像装置が前記コンテンツ出力対象者を撮像した画像、又は前記端末装置を介して予め登録してある前記コンテンツ出力対象者の会員情報から、前記属性情報を取得する
ことを特徴とする請求項14に記載の情報処理システム。
The device is an imaging device installed at a predetermined position, or a terminal device possessed by the content output target person,
The target person attribute acquisition unit acquires the attribute information from an image obtained by the image capturing device capturing the content output target person or member information of the content output target person registered in advance via the terminal device. The information processing system according to claim 14.
所定位置に設置された撮像装置から、人物を撮像した画像を取得する取得部と、
前記画像における一部の画像領域から、商品の提供時に前記人物に付与される物品であって、前記人物が所持する該物品を特定する特定部と、
前記画像における前記一部の画像領域以外の画像領域から、前記人物の複数の属性を推定する推定部と、
前記物品から特定される前記商品の購入傾向を、推定した前記複数の属性に基づいて分類する分類部と
を備えることを特徴とする情報処理装置。
An acquisition unit that acquires an image of a person from an imaging device installed at a predetermined position;
A specifying unit that specifies an article that is given to the person at the time of providing a product from a partial image area in the image and that the person has;
An estimation unit that estimates a plurality of attributes of the person from an image region other than the partial image region in the image;
An information processing apparatus comprising: a classification unit that classifies a purchase tendency of the product specified from the article based on the estimated plurality of attributes.
JP2018091642A 2018-05-10 2018-05-10 Information processing equipment, information processing methods, programs and information processing systems Active JP7102920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018091642A JP7102920B2 (en) 2018-05-10 2018-05-10 Information processing equipment, information processing methods, programs and information processing systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018091642A JP7102920B2 (en) 2018-05-10 2018-05-10 Information processing equipment, information processing methods, programs and information processing systems

Publications (2)

Publication Number Publication Date
JP2019197430A true JP2019197430A (en) 2019-11-14
JP7102920B2 JP7102920B2 (en) 2022-07-20

Family

ID=68537942

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018091642A Active JP7102920B2 (en) 2018-05-10 2018-05-10 Information processing equipment, information processing methods, programs and information processing systems

Country Status (1)

Country Link
JP (1) JP7102920B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021111240A (en) * 2020-01-14 2021-08-02 大栄トレーディング株式会社 Advertisement system
WO2022091658A1 (en) * 2020-10-29 2022-05-05 日本電気株式会社 Commodity recommendation device, method, and recording medium
JP2022090355A (en) * 2020-12-07 2022-06-17 フジテック株式会社 Information provision system
WO2023181109A1 (en) * 2022-03-22 2023-09-28 シャープNecディスプレイソリューションズ株式会社 Information processing device, display system, and information processing method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216369A (en) * 2000-01-31 2001-08-10 Sony Corp System and method for article purchase data processing
JP2003099582A (en) * 2001-06-06 2003-04-04 Hitachi Ltd Method and system for supporting situation analysis using picture data
JP2008203916A (en) * 2007-02-16 2008-09-04 Hitachi Ltd Image processing apparatus, program, and image processing method
WO2013147003A1 (en) * 2012-03-30 2013-10-03 日本電気株式会社 Digital signage system, digital signage, article information presentation method, and program
JP2015111806A (en) * 2013-11-08 2015-06-18 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Display method
US20150332323A1 (en) * 2014-05-19 2015-11-19 Toshiba Tec Kabushiki Kaisha Server and program
JP2016009416A (en) * 2014-06-26 2016-01-18 株式会社リコー Sales promotion system, sales promotion management device, and sales promotion management program
JP2016057940A (en) * 2014-09-11 2016-04-21 富士ゼロックス株式会社 Image processing device and image processing program
JP2017068713A (en) * 2015-09-30 2017-04-06 日本電気株式会社 Pos system, pos device, data processing method thereof, and program
JP2017215667A (en) * 2016-05-30 2017-12-07 サイジニア株式会社 Recommendation device, recommendation method, and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216369A (en) * 2000-01-31 2001-08-10 Sony Corp System and method for article purchase data processing
JP2003099582A (en) * 2001-06-06 2003-04-04 Hitachi Ltd Method and system for supporting situation analysis using picture data
JP2008203916A (en) * 2007-02-16 2008-09-04 Hitachi Ltd Image processing apparatus, program, and image processing method
WO2013147003A1 (en) * 2012-03-30 2013-10-03 日本電気株式会社 Digital signage system, digital signage, article information presentation method, and program
JP2015111806A (en) * 2013-11-08 2015-06-18 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Display method
US20150332323A1 (en) * 2014-05-19 2015-11-19 Toshiba Tec Kabushiki Kaisha Server and program
JP2015219783A (en) * 2014-05-19 2015-12-07 東芝テック株式会社 Server and program
JP2016009416A (en) * 2014-06-26 2016-01-18 株式会社リコー Sales promotion system, sales promotion management device, and sales promotion management program
JP2016057940A (en) * 2014-09-11 2016-04-21 富士ゼロックス株式会社 Image processing device and image processing program
JP2017068713A (en) * 2015-09-30 2017-04-06 日本電気株式会社 Pos system, pos device, data processing method thereof, and program
JP2017215667A (en) * 2016-05-30 2017-12-07 サイジニア株式会社 Recommendation device, recommendation method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021111240A (en) * 2020-01-14 2021-08-02 大栄トレーディング株式会社 Advertisement system
WO2022091658A1 (en) * 2020-10-29 2022-05-05 日本電気株式会社 Commodity recommendation device, method, and recording medium
JP2022090355A (en) * 2020-12-07 2022-06-17 フジテック株式会社 Information provision system
JP7188427B2 (en) 2020-12-07 2022-12-13 フジテック株式会社 Information provision system
WO2023181109A1 (en) * 2022-03-22 2023-09-28 シャープNecディスプレイソリューションズ株式会社 Information processing device, display system, and information processing method

Also Published As

Publication number Publication date
JP7102920B2 (en) 2022-07-20

Similar Documents

Publication Publication Date Title
US20240144340A1 (en) Remote SKU On-Boarding of Products for Subsequent Video Identification and Sale
JP7102920B2 (en) Information processing equipment, information processing methods, programs and information processing systems
US10810543B2 (en) Populating catalog data with item properties based on segmentation and classification models
US11842378B2 (en) Systems and methods for product identification using image analysis and trained neural network
US20220101420A1 (en) Computer-implemented methods and system for customized interactive image collection based on customer data
BR112019027187A2 (en) system for aggregating metadata of consumer behavior events in the store, data verification and artificial intelligence analysis for data interpretation and triggering associated action
KR102509199B1 (en) Method and system for providing marketing service based on artificial intelligence and blockchain
CN111028029B (en) Off-line commodity recommendation method and device and electronic equipment
US20240112135A1 (en) Dynamic Product Marketing Through Computer Vision
JP2019159468A (en) Advertisement display system, display device, advertisement output device, program and advertisement display method
CN109034887B (en) Method, device and system for adjusting price of article
US11244382B1 (en) Computer-implemented method and system for auto-generation of multi-merchant interactive image collection
Skenderi et al. The multi-modal universe of fast-fashion: the Visuelle 2.0 benchmark
US20190019339A1 (en) Systems and methods for dynamically displaying information about an object using augmented reality
US20220198356A1 (en) System and method for product rearrangement in retail environment based on position adjacency awareness plan
JP2021105945A (en) Processor, processing method, and program
KR102512371B1 (en) System for Selling Clothing Online
US20230099904A1 (en) Machine learning model prediction of interest in an object
Dantu et al. Real-Time Retail Smart Space Optimization and Personalized Store Assortment with Two-Stage Object Detection Using Faster Regional Convolutional Neural Network
US20220318878A1 (en) Digital preferences based on physical store patterns
US20230259997A1 (en) Curated Collections Based On Templates
Pietrini Deep Understanding of Shopper Behaviours and Interactions in Intelligent Retail Environment
Karthik et al. Hybrid Approach for Retail Store Auditing Using CRNN
CN117952654A (en) Commercial big data analysis system
CN113657273A (en) Method, device, electronic equipment and medium for determining commodity information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220620

R150 Certificate of patent or registration of utility model

Ref document number: 7102920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150