JP2017139010A - Information processing apparatus and information processing program - Google Patents

Information processing apparatus and information processing program Download PDF

Info

Publication number
JP2017139010A
JP2017139010A JP2017075119A JP2017075119A JP2017139010A JP 2017139010 A JP2017139010 A JP 2017139010A JP 2017075119 A JP2017075119 A JP 2017075119A JP 2017075119 A JP2017075119 A JP 2017075119A JP 2017139010 A JP2017139010 A JP 2017139010A
Authority
JP
Japan
Prior art keywords
customer
module
image
promotion
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017075119A
Other languages
Japanese (ja)
Other versions
JP6418270B2 (en
Inventor
福井 基文
Motofumi Fukui
基文 福井
祐介 宇野
Yusuke Uno
祐介 宇野
昌嗣 外池
Masatsugu Sotoike
昌嗣 外池
公亮 村口
Kosuke Muraguchi
公亮 村口
新宮 淳
Atsushi Shingu
淳 新宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017075119A priority Critical patent/JP6418270B2/en
Publication of JP2017139010A publication Critical patent/JP2017139010A/en
Application granted granted Critical
Publication of JP6418270B2 publication Critical patent/JP6418270B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus that can display an appropriate advertisement according to a user's degree of interest in a commodity.SOLUTION: In an information processing apparatus, an imaging part photographs a customer at a place where an advertisement for a commodity is performed; an extraction part extracts a movement of the customer and a commodity in which the customer has an interest from a result of photographing from the imaging part; a selection part performs selection of advertisement according to the customer's interest in the commodity extracted from the movement of the customer.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置及び情報処理プログラムに関する。   The present invention relates to an information processing apparatus and an information processing program.

特許文献1には、広告の効果をより客観的、正確さを持って検証できるプロモーション効果判定技術を提供することを目的とし、ターゲティング条件に適合する対象顧客を、広告を渡すべき実験顧客と広告を渡さない制御顧客とに分ける制御条件演算手段と、実験顧客に対して広告用情報を出力する広告出力手段とを備え、また、当該実験顧客が購入する商品が広告用情報に含まれている広告対象商品であるか否かを判断するための第一演算手段と、制御顧客が購入する商品が前記広告用情報に含まれている広告対象商品であるか否かを判断するための第二演算手段と、第一演算手段及び第二演算手段の演算結果を比較する比較手段とを備えることが開示されている。   Patent Document 1 aims to provide a promotion effect determination technology that can verify the effectiveness of advertisements more objectively and accurately, and target customers that meet the targeting conditions are identified as experimental customers to whom advertisements should be passed and advertisements. Control condition calculation means that divides the control customer into a non-passing control customer, and an advertisement output means that outputs advertising information to the experimental customer, and the product purchased by the experimental customer is included in the advertising information A first computing means for determining whether or not the product is an advertising target product, and a second for determining whether or not the product purchased by the control customer is the advertising target product included in the advertising information It is disclosed that a calculation means and a comparison means for comparing calculation results of the first calculation means and the second calculation means are provided.

特許文献2には、視聴者の放送中のCMに対する反応の程度を正確かつリアルタイムで集計することを可能にすることを課題とし、放送局から顧客へ配信されるCMに対する顧客の反応を調査するコマーシャルメッセージ反応調査方法であり、CMに対応付けられ、そのCMに対する反応の程度を表す反応情報を顧客が入力可能なデータ放送用コンテンツを作成し、作成したコンテンツを放送局に対して送信するステップと、放送局から顧客に対して配信されたデータ放送用コンテンツに応じて顧客から送信されてきたCMに対する反応情報を受信するステップとを備えていることが開示されている。   Patent Document 2 investigates customer responses to CMs distributed from broadcast stations to customers, with the objective of being able to accurately and in real time totalize the degree of viewer response to CMs being broadcast. A method for investigating a commercial message response, the step of creating data broadcasting content associated with a CM and allowing a customer to input response information indicating the degree of response to the CM, and transmitting the created content to a broadcasting station And receiving the response information for the CM transmitted from the customer according to the data broadcasting content distributed from the broadcasting station to the customer.

特許文献3には、精密かつ柔軟性のある放送広告の評価情報収集方式を得ることを課題とし、広告に関する評価情報を収集する調査会社は、インターネット等のネットワーク通信網により視聴者が自由にアクセス・ダウンロード可能なホームページを開設し、このホームページは、放送番組の内容や、それに付随して放送されるCMについての視聴者の評価・反応を通信網を介して視聴者に番組情報・CM情報・番組制作詳細情報・CM制作詳細情報・景品情報などを提供することにより、このホームページで視聴者からの各種評価情報を収集して、整理・分析し、調査会社はこの整理・分析した評価情報を放送局に有償提供し、このように、インターネット等の広く普及したネットワーク通信網を利用することにより、放送局が行っている放送に対する視聴者からの広告に関する具体的な評価を、簡便に大規模に収集することが可能となることが開示されている。   Patent Document 3 has a problem of obtaining a precise and flexible evaluation information collection method for broadcast advertisements, and a research company that collects evaluation information about advertisements can freely access viewers through a network communication network such as the Internet.・ A downloadable website has been established. This website provides viewers with the program information, CM information, and the contents of the broadcast program and the viewer's evaluation and reaction of the CM broadcast accompanying it. By providing program production detailed information, CM production detailed information, premium information, etc., various evaluation information from viewers is collected, organized and analyzed on this homepage, and the research company collects the evaluated and analyzed evaluation information. The broadcasting stations are providing them for a fee, and thus using the widely used network communication networks such as the Internet. A specific assessment of the ad from the audience, that it is possible to easily collect on a large scale has been disclosed for the transmission.

特許文献4には、ユーザ(顧客)にアプローチするためのサプライヤのプロモーション情報並びにプロモーションの実施によるユーザのレスポンス情報や、プロモーション情報とレスポンス情報との照合、分析によるプロモーション効果の検証情報を低労力にて短時間で提供できるようにすることを課題とし、プロモーション情報登録手段と、サプライヤが管理する販売企画情報データベース、販売管理情報データ、ユーザ情報データベースと、ユーザ端末機にネットワークを介して接続され、そのユーザからの注文や問い合わせやユーザの登録申請などの受け付けと、そのユーザに対してプロモーション企画など販売企画情報の提供をするデータサーバを備え、登録されたプロモーション情報やユーザレスポンス情報、プロモーション効果情報の提供サービスをすることが開示されている。   In Patent Document 4, the promotion information of the supplier for approaching the user (customer), the response information of the user by carrying out the promotion, the verification of the promotion information and the response information, and the verification information of the promotion effect by the analysis are made with low labor. It is a problem to be able to be provided in a short time, and is connected to a promotion information registration means, a sales planning information database managed by a supplier, sales management information data, a user information database, and a user terminal via a network, It has a data server that accepts orders, inquiries, and user registration applications from the user, and provides sales plan information such as promotion plans to the user. The registered promotion information, user response information, and promotional effects It is disclosed that the broadcast service offerings.

特許文献5には、視聴者自身による記入などといった作業負荷を軽減し、通常の視聴形態におけるコンテンツの視聴質の自動集計を可能とする技術の提供を目的とし、センシング装置で、視聴者についてのセンシングデータやそれを認識処理することで得られる視聴者についての認識データを収集することで、再生コンテンツに対しての視聴者の反応を示す視聴者反応データを収集し、一方、ユーザ端末で、画面操作履歴の情報を含む再生コンテンツについての視聴データを収集すると、ユーザ端末あるいは情報提供装置で、その収集した視聴者反応データとその収集した視聴データとを時間同期させて統合し、情報提供装置で、その統合データに基づいて、再生コンテンツに対しての視聴者の質的な反応を示す視聴質データを生成して、その生成した視聴質データの流通用の視聴メタデータを作成することが開示されている。   Patent Document 5 aims to provide a technique for reducing the work load such as entry by the viewer himself and enabling the automatic tabulation of the audience quality of the content in the normal viewing mode. By collecting sensing data and recognition data about the viewer obtained by recognizing it, viewer response data indicating the viewer's response to the playback content is collected. When viewing data on the playback content including information on the screen operation history is collected, the collected viewer response data and the collected viewing data are integrated in time synchronization by the user terminal or the information providing device, and the information providing device Based on the integrated data, audience quality data indicating the viewer's qualitative reaction to the playback content is generated and It is disclosed that creates a viewing metadata for distribution of the generated audience quality data.

特許文献6には、広告や番組の視聴者のプライバシーを保護しつつ広告メディアや広告番組の効果をより客観的に評価できるコンテンツ評価装置及びコンテンツ評価方法を提供することを課題とし、コンテンツ評価装置は、カメラが撮影した画像から動領域を検出する動領域検出部と、該動領域が人物であるか否かを検出する人物検出部とを有する通行人物検出部と、該人物の顔を検出する顔検出処理部と、該顔の方向を検出する顔方向検出処理部とを有する注視人物検出部とを備えたシステムサーバと、通行人物検出部により検出された通行人数を算出する通行人数算出部と、注視人物検出部により検出されたコンテンツの注視人数を算出する注視人数算出部と、通行人数と注視人数とから該コンテンツの注視率を算出する注視率算出部とを備えた集計センタサーバとを有することが開示されている。   It is an object of Patent Document 6 to provide a content evaluation device and a content evaluation method that can more objectively evaluate the effects of advertising media and advertisement programs while protecting the privacy of viewers of advertisements and programs. Detects a moving person detecting unit having a moving region detecting unit that detects a moving region from an image captured by the camera, and a person detecting unit that detects whether or not the moving region is a person, and detects a face of the person And a system server comprising a gaze person detection unit having a face detection processing unit that detects the direction of the face, and a traffic number calculation that calculates the number of people detected by the passer-by detection unit A gaze number calculation unit that calculates the gaze number of content detected by the gaze person detection unit, and a gaze rate calculation unit that calculates a gaze rate of the content from the number of people passing and the number of gazes It is disclosed to have a summary center server equipped.

特許文献7には、閲覧者が特定の広告ディスプレイと向き合っている時間量に基づいて広告の好みを確定するビジネスシステム及び方法を提供することを課題とし、消費者が広告ディスプレイを見ている時間量を求め、一連の画像が、広告ディスプレイの正面のシーンのカメラによって取得され、一連の画像から顔が検出され、検出された顔のそれぞれについて、広告ディスプレイに対する顔の向きが求められ、特定の広告についての好みを確定できることが開示されている。   In Patent Document 7, it is an object to provide a business system and method for determining advertisement preferences based on the amount of time that a viewer faces a specific advertisement display. A series of images is acquired by a camera in the scene in front of the advertising display, a face is detected from the series of images, and for each detected face, the orientation of the face relative to the advertising display is determined and It is disclosed that preferences for advertisements can be determined.

特許文献8には、宣伝広告の評価を的確に実施できる宣伝効果評価システム及びシステムに適用される装置、プログラム、広告訴求度測定装置を提供することを課題とし、商品を販売する店舗に、予め定めた宣伝広告対象商品の宣伝広告を前記店舗の営業時間内の1つ以上の時点で行うPOP装置を設け、提供される宣伝広告を視聴した人とその人の視聴時間を広告訴求度測定手段が検出し、その訴求度情報を、訴求度時系列データ書き込み手段が時系列的に記録して宣伝広告訴求度の時系列的データを作成し、前記店舗内の前記宣伝広告対象商品の売り上げ情報の時系列的データをPOS装置のPOS取引ジャーナル書き込み手段が求め、店舗サーバ装置の宣伝効果評価手段が、前記宣伝広告対象商品の売り上げ情報の時系列的データと前記宣伝広告訴求度の時系列的データとの相関関係を統計的に分析評価することが開示されている。   Patent Document 8 aims to provide an advertising effectiveness evaluation system and a system, a program applied to the system, and an advertising appeal measurement device that can accurately carry out evaluation of advertising advertisements. A POP device is provided for performing a promotional advertisement for a determined promotional advertisement target product at one or more points in time of the store's business hours, and a person who has viewed the provided advertising advertisement and the viewing time of the person are advertised. Is detected, and the appeal level information is recorded in time series by the appeal level time series data writing means to create time series data of the promotional level, and sales information of the advertisement target product in the store The POS transaction journal writing means of the POS device obtains the time-series data of the POS device, and the advertising effectiveness evaluation means of the store server device determines the time-series data Statistically analyzing evaluate the correlation of the time series data of the advertising appeal degree is disclosed.

特許文献9には、顔検出が不完全なものであっても、精度の高い注目者数を算出でき、広告効果として測定できる広告効果測定装置を提供することを課題とし、画像入力部と、顔検出部と、顔の姿勢を表すパラメータ値を推定する顔姿勢推定部と、検出された顔の現フレームの状態を判別する状態判別部と、前記現フレームの顔状態と前検出状態記憶から渡される検出ID及び注視時間に基づいて、検出された顔の検出IDと注視時間情報を付与する検出ID・注視時間付与部と、顔検出時刻、検出位置、大きさ、顔状態と、検出ID、注視時間の各情報を一時的に記憶する前検出状態記憶と、検出結果である検出時刻、検出ID、注視時間の各情報を注目者ログとして蓄積する注目者ログ記憶部と、前記注目者ログから指定期間内の注目者を計数する注目者数集計部と、集計結果を出力する結果出力部とを備えることが開示されている。   Patent Document 9 has an object to provide an advertising effect measuring device that can calculate the number of high-accuracy attentions and measure it as an advertising effect even when face detection is incomplete, and an image input unit; From a face detection unit, a face posture estimation unit that estimates a parameter value representing the posture of the face, a state determination unit that determines the current frame state of the detected face, and the face state and previous detection state storage of the current frame Based on the detection ID and gaze time passed, a detection ID / gaze time giving unit for giving detection ID and gaze time information of the detected face, face detection time, detection position, size, face state, and detection ID A pre-detection state storage for temporarily storing each information of the gaze time, a focus log storage unit for storing each information of the detection time, detection ID, and gaze time as detection results, and the focus Attention from the log within the specified period And interest The number counting unit that counts, it and a result output unit for outputting the counting result is disclosed.

特許文献10には、コンテンツの改善への活用が容易なコンテンツの評価を視聴ユーザの生体信号から決定可能なコンテンツ評価装置を提供することを課題とし、コンテンツ評価装置は、ユーザの脳血流と視線位置とを取得する取得部と、取得した脳血流を基にユーザの画像コンテンツに対する反応種別を識別する反応識別部と、画像コンテンツ内に含まれる画像である提供画像の表示領域と提供画像が表示領域に表示される表示時間とを含む情報である提供情報を蓄積している提供情報蓄積部と、提供情報を参照し、視線位置に基づいてユーザの提供画像への注視度を算出する注視度算出部と、評価情報テンプレートを蓄積している評価情報蓄積部と、評価情報テンプレートを参照し、注視度と反応種別とに対応する評価情報を画像コンテンツに対するユーザの評価として決定する評価情報決定部とを備えることが開示されている。   It is an object of Patent Document 10 to provide a content evaluation apparatus capable of determining content evaluation that can be easily used for content improvement from a viewing user's biological signal. An acquisition unit that acquires a line-of-sight position, a reaction identification unit that identifies a response type to a user's image content based on the acquired cerebral blood flow, a display area and a provided image of a provided image that is an image included in the image content Refers to the provision information and the provision information storage unit that accumulates the provision information that is information including the display time displayed in the display area, and calculates the degree of gaze on the provision image of the user based on the line-of-sight position The gaze degree calculation unit, the evaluation information accumulation unit that accumulates the evaluation information template, and the evaluation information template are referred to, and the evaluation information corresponding to the gaze degree and the reaction type is displayed as an image container. It is disclosed that includes an evaluation information determination unit for determining as an evaluation of the user for tools.

特許文献11には、広告の有効性を良好に評価及び判定する広告システムを提供することを課題とし、システムは、ディスプレイを備えた、ディスプレイを通じて潜在顧客に広告コンテンツを提供するように構成された広告ステーションと、この広告ステーションに潜在顧客が接近すると、この潜在顧客の画像を捕捉するように構成された1つ以上のカメラとを含み、さらに、データ処理システムを含み、捕捉された画像を解析することにより、潜在顧客の視線方向及び身体姿勢方向を判定し、判定された視線方向及び身体姿勢方向に基づいて、広告コンテンツにおける潜在顧客の関心度を判定することが開示されている。   Patent Document 11 has an object to provide an advertisement system that evaluates and evaluates the effectiveness of advertisements, and the system is configured to provide advertisement content to potential customers through a display. Including an advertising station and one or more cameras configured to capture an image of the potential customer when the potential customer approaches the advertising station, and further includes a data processing system for analyzing the captured image By doing so, it is disclosed that the line-of-sight direction and body posture direction of the potential customer are determined, and the degree of interest of the potential customer in the advertisement content is determined based on the determined line-of-sight direction and body posture direction.

特開2000−056720号公報JP 2000-056720 A 特開2001−357191号公報JP 2001-357191 A 特開2002−109139号公報JP 2002-109139 A 特開2003−030404号公報JP 2003-030404 A 特開2005−142975号公報JP 2005-142975 A 特開2007−181070号公報JP 2007-181070 A 特開2008−305379号公報JP 2008-305379 A 特開2009−140238号公報JP 2009-140238 A 特開2009−301085号公報JP 2009-301085 A 特開2012−234405号公報JP 2012-234405 A 特開2013−050945号公報JP 2013-050945 A

本発明は、顧客の商品への関心度合いに応じて適切な広告を表示することができる情報処理装置及び情報処理プログラムを提供することを目的としている。   An object of this invention is to provide the information processing apparatus and information processing program which can display a suitable advertisement according to the customer's interest degree in goods.

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、商品の広告を行っている場所にいる顧客を撮影する撮影部と、前記撮影部の撮影結果から前記顧客の動き及び前記顧客が関心を持っている商品を抽出する抽出部と、前記顧客の動きから抽出される前記商品に対する前記顧客の関心に応じて広告の選択を行う選択部と、を有する情報処理装置である。
The gist of the present invention for achieving the object lies in the inventions of the following items.
The invention of claim 1 is an image capturing unit that captures a customer in a place where a product advertisement is performed, and an extraction that extracts the customer's movement and the product that the customer is interested in from the image capturing result of the image capturing unit. And a selection unit that selects an advertisement in accordance with the customer's interest in the product extracted from the customer's movement.

請求項2の発明は、コンピュータを、商品の広告を行っている場所にいる顧客を撮影する撮影部と、前記撮影部の撮影結果から前記顧客の動き及び前記顧客が関心を持っている商品を抽出する抽出部と、前記顧客の動きから抽出される前記商品に対する前記顧客の関心に応じて広告の選択を行う選択部として機能させるための情報処理プログラムである。   The invention of claim 2 is a computer that shoots a customer in a place where a product is advertised, a movement of the customer and a product that the customer is interested in based on the shooting result of the shooting unit. An information processing program for causing an extraction unit to extract and a selection unit that selects an advertisement in accordance with the customer's interest in the product extracted from the movement of the customer.

請求項1の情報処理装置によれば、顧客の商品への関心度合いに応じて適切な広告を表示することができる。   According to the information processing apparatus of the first aspect, it is possible to display an appropriate advertisement according to the degree of interest in the customer's product.

請求項2の情報処理プログラムによれば、顧客の商品への関心度合いに応じて適切な広告を表示することができる。   According to the information processing program of the second aspect, it is possible to display an appropriate advertisement according to the degree of interest in the customer's product.

本実施の形態(情報処理(判定)装置)の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of this Embodiment (information processing (judgment) apparatus). 本実施の形態(情報処理(学習)装置)の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of this Embodiment (information processing (learning) apparatus). 本実施の形態(情報処理(判定・学習)装置)の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of this Embodiment (information processing (judgment / learning) apparatus). 本実施の形態を実現した場合のシステム構成例を示す説明図である。It is explanatory drawing which shows the system configuration example at the time of implement | achieving this Embodiment. 本実施の形態(情報処理(判定)装置)による処理例を示すフローチャートである。It is a flowchart which shows the process example by this Embodiment (information processing (judgment) apparatus). 本実施の形態(モニタ)による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment (monitor). 本実施の形態による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment. 本実施の形態(情報処理(学習)装置)による処理例を示すフローチャートである。It is a flowchart which shows the process example by this Embodiment (information processing (learning) apparatus). 教師信号作成モジュール内の構成例とその周辺のモジュールとの関係構成図である。It is a related block diagram with the example of a structure in a teacher signal preparation module, and its peripheral module. 画像特徴テーブルのデータ構造例を示す説明図である。It is explanatory drawing which shows the example of a data structure of an image feature table. 本実施の形態による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment. 本実施の形態による処理例を示す説明図である。It is explanatory drawing which shows the process example by this Embodiment. 第2の教師信号作成モジュールを加えた場合の本実施の形態の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of this Embodiment at the time of adding the 2nd teacher signal preparation module. 教師信号テーブルのデータ構造例を示す説明図である。It is explanatory drawing which shows the example of a data structure of a teacher signal table. 第3の教師信号作成モジュールを加えた場合の本実施の形態の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of this Embodiment at the time of adding the 3rd teacher signal preparation module. 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the computer which implement | achieves this Embodiment.

以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態(情報処理(判定)装置)の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するの意である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じて定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、すべての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という意味を有する記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
Hereinafter, an example of a preferred embodiment for realizing the present invention will be described with reference to the drawings.
FIG. 1 shows a conceptual module configuration diagram of a configuration example of the present embodiment (information processing (judgment) device).
The module generally refers to components such as software (computer program) and hardware that can be logically separated. Therefore, the module in the present embodiment indicates not only a module in a computer program but also a module in a hardware configuration. Therefore, the present embodiment is a computer program for causing these modules to function (a program for causing a computer to execute each procedure, a program for causing a computer to function as each means, and a function for each computer. This also serves as an explanation of the program and system and method for realizing the above. However, for the sake of explanation, the words “store”, “store”, and equivalents thereof are used. However, when the embodiment is a computer program, these words are stored in a storage device or stored in memory. It is the control to be stored in the device. Modules may correspond to functions one-to-one, but in mounting, one module may be configured by one program, or a plurality of modules may be configured by one program, and conversely, one module May be composed of a plurality of programs. The plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers in a distributed or parallel environment. Note that one module may include other modules. Hereinafter, “connection” is used not only for physical connection but also for logical connection (data exchange, instruction, reference relationship between data, etc.). “Predetermined” means that the process is determined before the target process, and not only before the process according to this embodiment starts but also after the process according to this embodiment starts. In addition, if it is before the target processing, it is used in accordance with the situation / state at that time or with the intention to be decided according to the situation / state up to that point. When there are a plurality of “predetermined values”, the values may be different from each other, or two or more values (of course, including all values) may be the same. In addition, the description having the meaning of “do B when it is A” is used in the meaning of “determine whether or not it is A and do B when it is judged as A”. However, the case where it is not necessary to determine whether or not A is excluded.
In addition, the system or device is configured by connecting a plurality of computers, hardware, devices, and the like by communication means such as a network (including one-to-one correspondence communication connection), etc., and one computer, hardware, device. The case where it implement | achieves by etc. is included. “Apparatus” and “system” are used as synonymous terms. Of course, the “system” does not include a social “mechanism” (social system) that is an artificial arrangement.
In addition, when performing a plurality of processes in each module or in each module, the target information is read from the storage device for each process, and the processing result is written to the storage device after performing the processing. is there. Therefore, description of reading from the storage device before processing and writing to the storage device after processing may be omitted. Here, the storage device may include a hard disk, a RAM (Random Access Memory), an external storage medium, a storage device via a communication line, a register in a CPU (Central Processing Unit), and the like.

以下の説明で用いる用語の説明をする。
二分類器とは、入力に対して排他的な2つのラベルのいずれかを付与する装置であり、例えば、“○”か“×”か等を付与するものである。例えば、サポートベクタマシン、ブースティング等がある。
学習とは、学習データを用いて上記のような二分類器を作成することである。二分類器を複数作成することにより、多分類器を構築することも可能である。
度数とは、対象となるものの個数を示す。
Terms used in the following description will be explained.
The two-classifier is a device that assigns one of two labels exclusive to the input, for example, “O” or “X”. Examples include support vector machines and boosting.
Learning is to create the above two classifier using learning data. It is also possible to construct a multi-classifier by creating a plurality of two classifiers.
The frequency indicates the number of objects.

小売業等においては、顧客の購買意欲を刺激するために人による実演販売やキャンペーン動画の提供など様々な広告(以下、プロモーションともいう)を展開している。しかしながらプロモーションが本当に有効なものであるのかを知ることは非常に難しい。アンケート調査等で知ることはできるが、実態を必ずしも反映できているとはいえない。
本実施の形態は、顧客の画像情報を使った学習モデルを作成することにより、そのプロモーションを見ている顧客が対象商品を買うのか買わないのかを事前に予想する。また、複数の顧客の購買意欲に関する予想結果からプロモーションのどの箇所が顧客の購買意欲を活性化させるのに貢献するのか、逆にプロモーションのどの箇所が購買意欲を減退化させるのかを判定する。
In the retail industry and the like, various advertisements (hereinafter also referred to as promotions) such as demonstration sales by humans and provision of campaign videos are provided in order to stimulate customers' willingness to purchase. However, it is very difficult to know if a promotion is really effective. Although it is possible to know through questionnaire surveys, it does not necessarily reflect the actual situation.
In the present embodiment, by creating a learning model using customer image information, it is predicted in advance whether the customer who is watching the promotion will buy the target product or not. In addition, it is determined which part of the promotion contributes to activating the customer's purchasing motivation, and conversely, which part of the promotion reduces the purchasing motivation from the expected results regarding the purchasing motivation of a plurality of customers.

図3は、本実施の形態全体を示す図である。本実施の形態は、大きく分けて情報処理(学習)装置200と情報処理(判定)装置100によって構成されている。情報処理(学習)装置200は、画像特徴と教師信号の関係を表現する学習モデルを構築する装置である。情報処理(判定)装置100は、その作成された学習モデルを用いて現在得た画像特徴が購買意欲のあるものかどうかを判定する装置である。さらに、プロモーションにおいて価値のある箇所(つまり顧客の購買意欲を高める箇所)及び価値のない又は修正すべき箇所を選択することもできる。   FIG. 3 is a diagram showing the entire embodiment. The present embodiment is roughly composed of an information processing (learning) apparatus 200 and an information processing (determination) apparatus 100. The information processing (learning) apparatus 200 is an apparatus that constructs a learning model that expresses the relationship between image features and teacher signals. The information processing (determination) device 100 is a device that determines whether or not an image feature currently obtained by using the created learning model is motivated to purchase. Furthermore, it is also possible to select places that are valuable in the promotion (that is, places that increase the customer's willingness to purchase) and places that are not worthwhile or should be corrected.

本実施の形態である情報処理(判定)装置100は、機械学習された学習モデルを用いて顧客の購入意欲を判定するものであって、図1の例に示すように、人・顔検出モジュール130、画像特徴抽出モジュール140、顧客購買意欲判定モジュール150、プロモーション選択モジュール160を有している。顧客購買意欲判定モジュール150は、学習モデル記憶モジュール155を有している。また、情報処理(判定)装置100は、プロモーション装置110、撮像装置120と接続されている。
情報処理(判定)装置100は、例えば、プロモーションを見た顧客に購買意欲があるのか否かを事前に(つまり、実際に対象商品を購入するかどうかを判断する前に)、店員に知らせること等に用いる。
具体的には、プロモーションを見た顧客の動画像を取得しておき、実際にその顧客が対象商品を購入したかどうかを教師信号として学習モデルを作成しておく。そしてそのプロモーションを見た顧客群の動画情報から作成した学習モデルを用いて、プロモーションを見たある顧客が対象商品を購入するかどうかを事前に判断する。
The information processing (determination) apparatus 100 according to the present embodiment determines a customer's willingness to purchase using a machine-learned learning model. As shown in the example of FIG. 130, an image feature extraction module 140, a customer purchase motivation determination module 150, and a promotion selection module 160. The customer purchase willingness determination module 150 has a learning model storage module 155. The information processing (judgment) device 100 is connected to the promotion device 110 and the imaging device 120.
The information processing (judgment) device 100 informs the store clerk in advance, for example, whether or not the customer who saw the promotion is willing to purchase (that is, before judging whether or not to actually purchase the target product). Used for etc.
Specifically, a moving image of a customer who saw the promotion is acquired, and a learning model is created using whether or not the customer actually purchased the target product as a teacher signal. Then, using a learning model created from the video information of the customer group who saw the promotion, it is determined in advance whether a certain customer who saw the promotion purchases the target product.

プロモーション装置110は、撮像装置120、情報処理(判定)装置100のプロモーション選択モジュール160と接続されている。プロモーション装置110は、人(販売員等)の実演販売や商品プロモーションビデオをモニタリングする巨大モニタ、スクリーン等の装置である。なお、人の実演販売(パフォーマンス)そのものであってもよい。
撮像装置120は、プロモーション装置110、情報処理(判定)装置100の人・顔検出モジュール130と接続されている。撮像装置120は、プロモーション装置110を見ている顧客を撮像するための装置である。ビデオカメラ等が該当する。
The promotion device 110 is connected to the imaging device 120 and the promotion selection module 160 of the information processing (determination) device 100. The promotion device 110 is a device such as a huge monitor or a screen for monitoring demonstration sales of a person (salesperson or the like) or a product promotion video. In addition, it may be human demonstration sales (performance) itself.
The imaging device 120 is connected to the promotion device 110 and the human / face detection module 130 of the information processing (judgment) device 100. The imaging device 120 is a device for imaging a customer who is looking at the promotion device 110. Applicable to video cameras.

人・顔検出モジュール130は、撮像装置120、画像特徴抽出モジュール140と接続されている。人・顔検出モジュール130は、撮像装置120によって撮像した画像データから人領域(又は顔領域)を抽出する。なお、リアルタイム性はあってもなくてもよい。
画像特徴抽出モジュール140は、人・顔検出モジュール130、顧客購買意欲判定モジュール150と接続されている。画像特徴抽出モジュール140は、商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴を抽出する。具体的には、画像特徴抽出モジュール140は、人(又は顔)と判断した領域から画像特徴を抽出する。例えば、Gabor特徴やHaar特徴、Haar−like特徴などテクスチャに関連した画像特徴等を抽出する。
The human / face detection module 130 is connected to the imaging device 120 and the image feature extraction module 140. The human / face detection module 130 extracts a human region (or a facial region) from the image data captured by the imaging device 120. Note that the real-time property may or may not be present.
The image feature extraction module 140 is connected to the person / face detection module 130 and the customer purchase motivation determination module 150. The image feature extraction module 140 extracts a feature of a customer's body or face in an image obtained by photographing a place where a product advertisement is performed. Specifically, the image feature extraction module 140 extracts image features from an area determined to be a person (or face). For example, image features related to texture such as Gabor feature, Haar feature, Haar-like feature, and the like are extracted.

顧客購買意欲判定モジュール150は、画像特徴抽出モジュール140、プロモーション選択モジュール160と接続されている。顧客購買意欲判定モジュール150は、抽出した画像特徴を入力として学習モデルを使って、対象人物(顧客)に購買意欲があるか否かを判定する。つまり、顧客購買意欲判定モジュール150は、画像特徴抽出モジュール140によって抽出された特徴を、学習モデル記憶モジュール155内の学習モデル(後述する情報処理(学習)装置200の学習モデル作成保存モジュール270によって作成された学習モデル)に適用することによって、顧客の購入意欲を判定する。この購入意欲は、広告の対象となっている商品の購入意欲としてもよい。
学習モデル記憶モジュール155は、後述する情報処理(学習)装置200の学習モデル作成保存モジュール270によって作成された学習モデルを記憶している。顧客購買意欲判定モジュール150は、学習モデル記憶モジュール155内の学習モデルを用いて判定処理を行う。
The customer purchase willingness determination module 150 is connected to the image feature extraction module 140 and the promotion selection module 160. The customer purchase motivation determination module 150 determines whether or not the target person (customer) is willing to purchase by using the extracted image feature as an input and using a learning model. That is, the customer purchase willingness determination module 150 creates the features extracted by the image feature extraction module 140 by the learning model in the learning model storage module 155 (the learning model creation / save module 270 of the information processing (learning) device 200 described later). Applied to the learning model), the customer's willingness to purchase is determined. This willingness to purchase may be the willingness to purchase the product that is the subject of the advertisement.
The learning model storage module 155 stores the learning model created by the learning model creation / storing module 270 of the information processing (learning) apparatus 200 described later. The customer purchase willingness determination module 150 performs determination processing using the learning model in the learning model storage module 155.

プロモーション選択モジュール160は、プロモーション装置110、顧客購買意欲判定モジュール150と接続されている。プロモーション選択モジュール160は、複数顧客の購買意欲判定結果(顧客購買意欲判定モジュール150による処理結果)からプロモーションの時間単位での注目プロモーション領域を検出する。なお、プロモーション装置110が人の実演販売そのものである場合は、その人に対して、検出したプロモーションを、液晶ディスプレイ等の表示装置に提示するようにしてもよい。   The promotion selection module 160 is connected to the promotion device 110 and the customer purchase willingness determination module 150. The promotion selection module 160 detects an attention promotion area in units of promotions from the purchase motivation determination results of multiple customers (processing results by the customer purchase motivation determination module 150). When the promotion device 110 is a person's demonstration sale itself, the detected promotion may be presented to the display device such as a liquid crystal display.

図2は、本実施の形態(情報処理(学習)装置200)の構成例についての概念的なモジュール構成図である。情報処理(学習)装置200は、顧客の購入意欲を判定できるように、学習モデルを作成するものであって、図2の例に示すように、人・顔検出モジュール230、画像特徴抽出モジュール240、画像特徴DB250、教師信号作成モジュール260、学習モデル作成保存モジュール270を有している。
プロモーション装置210は、撮像装置220と接続されている。プロモーション装置210は、前述のプロモーション装置110と同等のものである。
撮像装置220は、プロモーション装置210、情報処理(学習)装置200の人・顔検出モジュール230と接続されている。撮像装置220は、前述の撮像装置120と同等のものである。
人・顔検出モジュール230は、撮像装置220、画像特徴抽出モジュール240と接続されている。人・顔検出モジュール230は、前述の人・顔検出モジュール130と同等のものである。
FIG. 2 is a conceptual module configuration diagram of an exemplary configuration of the present embodiment (information processing (learning) apparatus 200). The information processing (learning) apparatus 200 creates a learning model so that the customer's willingness to purchase can be determined. As shown in the example of FIG. 2, the person / face detection module 230 and the image feature extraction module 240 , An image feature DB 250, a teacher signal creation module 260, and a learning model creation storage module 270.
The promotion device 210 is connected to the imaging device 220. Promotion device 210 is equivalent to the aforementioned promotion device 110.
The imaging device 220 is connected to the promotion device 210 and the human / face detection module 230 of the information processing (learning) device 200. The imaging device 220 is equivalent to the imaging device 120 described above.
The human / face detection module 230 is connected to the imaging device 220 and the image feature extraction module 240. The person / face detection module 230 is equivalent to the person / face detection module 130 described above.

画像特徴抽出モジュール240は、人・顔検出モジュール230、画像特徴DB250と接続されている。画像特徴抽出モジュール240は、前述の画像特徴抽出モジュール140と同等のものであり、商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴を抽出する。
画像特徴DB250は、画像特徴抽出モジュール240、教師信号作成モジュール260、学習モデル作成保存モジュール270と接続されている。画像特徴DB250は、画像特徴抽出モジュール240によって抽出された画像特徴等を格納するデータベースである。
教師信号作成モジュール260は、画像特徴DB250、学習モデル作成保存モジュール270と接続されている。教師信号作成モジュール260は、対象としている人物(顧客)が対象商品を購入したか否かの情報を作成する。
The image feature extraction module 240 is connected to the person / face detection module 230 and the image feature DB 250. The image feature extraction module 240 is equivalent to the image feature extraction module 140 described above, and extracts a feature of a customer's body or face in an image obtained by photographing a place where a product is advertised.
The image feature DB 250 is connected to the image feature extraction module 240, the teacher signal creation module 260, and the learning model creation / save module 270. The image feature DB 250 is a database that stores image features and the like extracted by the image feature extraction module 240.
The teacher signal creation module 260 is connected to the image feature DB 250 and the learning model creation / save module 270. The teacher signal creation module 260 creates information on whether or not the target person (customer) has purchased the target product.

学習モデル作成保存モジュール270は、画像特徴DB250、教師信号作成モジュール260、情報処理(判定)装置100の学習モデル記憶モジュール155と接続されている。学習モデル作成保存モジュール270は、画像特徴抽出モジュール240によって特徴を抽出した顧客が購入したか否かを示す情報を教師信号として、学習モデルを作成する。学習モデルの作成として、例えば、ニューラルネットワークサポートベクタマシン等を利用すればよい。また、画像特徴抽出モジュール240によって特徴が抽出された顧客が、プロモーションが対象としている商品を購買したか否かを示す情報を教師信号として、学習モデルを作成してもよい。そして、作成した学習モデルを、情報処理(判定)装置100の学習モデル記憶モジュール155に記憶させる。
また、ここで、教師信号に関して、レジカウンター又は店舗の出口における画像内の顧客の体又は顔の特徴と画像特徴抽出モジュール240によって抽出された特徴との照合結果を、教師信号として用いるようにしてもよい。例えば、レジカウンターにおける画像内の顧客は購入した者とし、それ以外の顧客は購入していない者としてもよい。さらに、店舗の出口における画像内の顧客であって、それ以前のレジカウンターにおける画像内の顧客以外の顧客は、購入していない者としてもよい。この教師信号の作成処理については、図9、図15の例を用いて後述する。
また、学習モデル作成保存モジュール270は、商品を顧客が触れた(手にする、手にもつ等)か否かを、その商品に対する興味があるか否かを示す教師信号として用いるようにしてもよい。この教師信号の作成処理については、図13の例を用いて後述する。
The learning model creation / save module 270 is connected to the image feature DB 250, the teacher signal creation module 260, and the learning model storage module 155 of the information processing (judgment) device 100. The learning model creation / save module 270 creates a learning model by using, as a teacher signal, information indicating whether or not the customer whose feature has been extracted by the image feature extraction module 240 has been purchased. For example, a neural network support vector machine may be used to create the learning model. Further, a learning model may be created by using, as a teacher signal, information indicating whether or not a customer whose features have been extracted by the image feature extraction module 240 has purchased a product targeted for promotion. Then, the created learning model is stored in the learning model storage module 155 of the information processing (determination) device 100.
Here, regarding the teacher signal, the matching result between the feature of the customer's body or face in the image at the checkout counter or the store exit and the feature extracted by the image feature extraction module 240 is used as the teacher signal. Also good. For example, the customer in the image at the checkout counter may be a purchaser, and the other customers may be those who have not purchased. Further, customers in the image at the store exit, and customers other than the customer in the image at the cashier counter before that may be those who have not purchased. This teacher signal creation processing will be described later with reference to the examples of FIGS.
Further, the learning model creation / storing module 270 may use whether or not the product has been touched by the customer (in hand, held in hand, etc.) as a teacher signal indicating whether or not the product is interested. Good. This teacher signal creation processing will be described later using the example of FIG.

また、広告は映像を用いたものである場合には、次のような処理を行うようにしてもよい。
画像特徴抽出モジュール240は、その映像の各フレーム時に対応する静止画像における特徴を抽出する。
そして、学習モデル作成保存モジュール270は、各フレーム時に対応する静止画像における特徴に教師信号による学習モデルを生成するようにしてもよい。
そして、その学習モデルを図1の例に示した情報処理(判定)装置100で利用した場合、その情報処理(判定)装置100のプロモーション選択モジュール160は、フレーム時に対応する静止画像で購入と判断される度合いが高いフレームを、広告の映像において購入効果のあるフレームとして判定する、又は、フレーム時に対応する静止画像で購入と判断される度合いが低いフレームを、広告の映像において購入効果のないフレームとして判定するようにしてもよい。この判定処理については、図11、図12の例を用いて後述する。
前述の学習モデルで、顧客の静止画像に基づいて学習しておき、そのプロモーションを見ている顧客の静止画像情報に基づいて逐次、顧客がその商品を購入しそうかしないかを判定する。多くの顧客が「購入しない」の状態から「購入する」の状態に移行する時間に対応するプロモーションがよいプロモーションだと判断する。そして、例えば、プロモーションのその部分を強調するようにしてもよい。逆に、「購入する」の状態から「購入しない」の状態に移行する時間に対応する部分のプロモーションが悪い部分のプロモーションだと判断する。そして、例えば、プロモーションのその部分を改善点として指摘するようにしてもよい。
Further, when the advertisement uses video, the following processing may be performed.
The image feature extraction module 240 extracts features in a still image corresponding to each frame of the video.
Then, the learning model creation / save module 270 may generate a learning model based on a teacher signal for the feature in the still image corresponding to each frame.
When the learning model is used in the information processing (determination) device 100 shown in the example of FIG. 1, the promotion selection module 160 of the information processing (determination) device 100 determines that the purchase is based on the still image corresponding to the frame. A frame that is highly likely to be purchased is determined as a frame that has a purchase effect in the advertisement video, or a frame that is less likely to be determined to be purchased in the still image corresponding to the frame is a frame that does not have a purchase effect in the advertisement video You may make it determine as. This determination process will be described later with reference to the examples of FIGS.
With the above learning model, learning is performed based on the still image of the customer, and it is determined whether or not the customer is likely to purchase the product sequentially based on the still image information of the customer who is viewing the promotion. It is determined that the promotion corresponding to the time when many customers shift from the “not purchased” state to the “purchased” state is a good promotion. For example, the portion of the promotion may be emphasized. Conversely, it is determined that the portion of the promotion corresponding to the time to shift from the “purchase” state to the “not purchase” state is a bad portion promotion. For example, the portion of the promotion may be pointed out as an improvement point.

図3は、本実施の形態(情報処理(判定・学習)装置300)の構成例についての概念的なモジュール構成図である。
情報処理(判定・学習)装置300は、情報処理(判定)装置100、情報処理(学習)装置200を有しており、一体化させたものである。つまり、情報処理(判定・学習)装置300の情報処理(学習)装置200が学習モデルを作成し、情報処理(判定)装置100がその学習モデルを用いて判定処理を行う。
なお、プロモーション装置110とプロモーション装置210、撮像装置120と撮像装置220、人・顔検出モジュール130と人・顔検出モジュール230、画像特徴抽出モジュール140と画像特徴抽出モジュール240をそれぞれ有しているが、いずれか一方であってもよい。つまり、情報処理(判定)装置100と情報処理(学習)装置200で、それらのモジュールを共有して利用してもよい。
FIG. 3 is a conceptual module configuration diagram of a configuration example of the present embodiment (information processing (determination / learning) device 300).
The information processing (determination / learning) apparatus 300 includes an information processing (determination) apparatus 100 and an information processing (learning) apparatus 200, which are integrated. That is, the information processing (learning) apparatus 200 of the information processing (determination / learning) apparatus 300 creates a learning model, and the information processing (determination) apparatus 100 performs a determination process using the learning model.
The promotion device 110 and the promotion device 210, the imaging device 120 and the imaging device 220, the person / face detection module 130 and the person / face detection module 230, and the image feature extraction module 140 and the image feature extraction module 240, respectively. , Either one may be sufficient. That is, the information processing (determination) apparatus 100 and the information processing (learning) apparatus 200 may share these modules.

図4は、本実施の形態を実現した場合のシステム構成例を示す説明図である。
店舗システム400A、店舗システム400B、店舗システム400C、店舗システム400D、店舗(学習)システム410A、情報処理(判定)装置100E、情報処理(学習)装置200B等が通信回線290を介して接続されている。通信回線290は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのインターネット等であってもよい。
店舗システム400Aは、情報処理(判定)装置100A、プロモーション装置110A、撮像装置120Aを有している。店舗システム400Bは、情報処理(判定)装置100B、プロモーション装置110B、撮像装置120Bを有している。店舗システム400Cは、プロモーション装置110C、撮像装置120Cを有している。店舗システム400Dは、プロモーション装置110D、撮像装置120Dを有している。店舗(学習)システム410Aは、情報処理(学習)装置200A、プロモーション装置210A、撮像装置220Aを有している。
例えば、各店舗内にプロモーション装置110、撮像装置120、情報処理(判定)装置100の組み合わせ(例えば、店舗システム400A、店舗システム400B)を有していてもよい。また、プロモーション装置110、撮像装置120の組み合わせ(例えば、店舗システム400C、店舗システム400D)を有して、情報処理(判定)装置100Eによって判定させてもよい。その判定結果を各店舗内のパーソナルコンピュータ等の情報処理装置に送信するようにしてもよい。
また、学習モデル作成用にプロモーション装置210、撮像装置220、情報処理(学習)装置200の組み合わせ(例えば、店舗(学習)システム410A)を有していてもよいし、各店舗内の撮像装置120、撮像装置220から、映像を受信して、情報処理(学習)装置200Bによって学習モデルを作成してもよい。そして、情報処理(学習)装置200A又は情報処理(学習)装置200Bによって作成された学習モデルを情報処理(判定)装置100A、情報処理(判定)装置100B、情報処理(判定)装置100Eに送信する。
なお、図3の例に示した情報処理(判定・学習)装置300を通信回線290に接続させるようにしてもよい。
FIG. 4 is an explanatory diagram showing an example of a system configuration when the present embodiment is realized.
Store system 400A, store system 400B, store system 400C, store system 400D, store (learning) system 410A, information processing (determination) device 100E, information processing (learning) device 200B, etc. are connected via communication line 290. . The communication line 290 may be wireless, wired, or a combination thereof, for example, the Internet as a communication infrastructure.
The store system 400A includes an information processing (determination) device 100A, a promotion device 110A, and an imaging device 120A. The store system 400B includes an information processing (determination) device 100B, a promotion device 110B, and an imaging device 120B. The store system 400C includes a promotion device 110C and an imaging device 120C. Store system 400D has promotion device 110D and imaging device 120D. The store (learning) system 410A includes an information processing (learning) device 200A, a promotion device 210A, and an imaging device 220A.
For example, each store may have a combination of the promotion device 110, the imaging device 120, and the information processing (determination) device 100 (for example, the store system 400A and the store system 400B). Further, a combination of the promotion device 110 and the imaging device 120 (for example, the store system 400C and the store system 400D) may be included and the information processing (determination) device 100E may make the determination. The determination result may be transmitted to an information processing apparatus such as a personal computer in each store.
In addition, a combination of a promotion device 210, an imaging device 220, and an information processing (learning) device 200 (for example, a store (learning) system 410A) may be used for creating a learning model, or the imaging device 120 in each store. The video may be received from the imaging device 220 and a learning model may be created by the information processing (learning) device 200B. Then, the learning model created by the information processing (learning) apparatus 200A or the information processing (learning) apparatus 200B is transmitted to the information processing (determination) apparatus 100A, the information processing (determination) apparatus 100B, and the information processing (determination) apparatus 100E. .
Note that the information processing (determination / learning) apparatus 300 illustrated in the example of FIG. 3 may be connected to the communication line 290.

図5は、本実施の形態(情報処理(判定)装置100)による処理例を示すフローチャートである。
ステップS502では、プロモーション装置110が、プロモーションを開始する。具体的には、図6の例を用いて後述する。
ステップS504では、撮像装置120が、プロモーション装置110の近辺にいる顧客を撮影する。
ステップS506では、人・顔検出モジュール130が、画像から人又は顔の領域を検出する。
ステップS508では、画像特徴抽出モジュール140が、人又は顔の領域内の特徴を抽出する。
ステップS510では、顧客購買意欲判定モジュール150が、特徴を学習モデル記憶モジュール155内の学習モデルに適用して顧客の購買意欲を判定する。
ステップS512では、プロモーション選択モジュール160が、判定結果にしたがって、プロモーションを選択する。
ステップS514では、プロモーション選択モジュール160が、最後であるか否かを判断し、最後である場合は処理を終了し(ステップS599)、それ以外の場合はステップS502へ戻る。
FIG. 5 is a flowchart showing an example of processing by the present embodiment (information processing (judgment) device 100).
In step S502, the promotion device 110 starts a promotion. Specifically, it will be described later using the example of FIG.
In step S <b> 504, the imaging device 120 captures a customer in the vicinity of the promotion device 110.
In step S506, the person / face detection module 130 detects a person or face area from the image.
In step S508, the image feature extraction module 140 extracts features in the person or face area.
In step S510, the customer purchase motivation determination module 150 applies the characteristics to the learning model in the learning model storage module 155 to determine the customer's purchase intention.
In step S512, the promotion selection module 160 selects a promotion according to the determination result.
In step S514, the promotion selection module 160 determines whether or not it is the last, and if it is the last, the process ends (step S599), and otherwise returns to step S502.

図6は、本実施の形態(モニタ610)による処理例を示す説明図である。
モニタ610は、プロモーション装置110、プロモーション装置210の例であり、撮像装置620は、撮像装置120、撮像装置220の例である。
プロモーションには様々な形態があるが、ここでは、大きなモニタに対象商品のプロモーションとしてのビデオが流れているものを例にあげる。そして、このモニタ610で繰り返し同じプロモーションビデオが流れている場合を想定するが、例えば、複数種類のキャンペーン動画を顧客がボタン等で選択する形式のものでもよい。モニタ610にはビデオカメラなどの撮像装置620が取り付けられており、キャンペーン動画を見る顧客600を捉えることができる。撮像対象となる顧客600は複数人が同時に映っていてもよい。撮像装置620で撮像された画像は人・顔検出モジュール230に送られる。
FIG. 6 is an explanatory diagram showing a processing example according to the present exemplary embodiment (monitor 610).
The monitor 610 is an example of the promotion device 110 and the promotion device 210, and the imaging device 620 is an example of the imaging device 120 and the imaging device 220.
There are various forms of promotions, but here we take an example where a video as a promotion of a target product is played on a large monitor. A case is assumed in which the same promotion video is repeatedly played on the monitor 610. For example, the customer may select a plurality of types of campaign videos using buttons or the like. An imaging device 620 such as a video camera is attached to the monitor 610, and the customer 600 who sees the campaign video can be captured. A plurality of customers 600 to be imaged may be shown at the same time. The image picked up by the image pickup device 620 is sent to the human / face detection module 230.

図7は、本実施の形態による処理例を示す説明図である。
人・顔検出モジュール130、230は、撮像装置120、220から送られてきた画像から人や人の顔を検出するモジュールである。対象となる画像はフレーム毎に区切られた静止画像でも動画像であってもよい。人や人の顔を抽出する方法は既存技術を使うものとする。例えば、顔画像の抽出として、
非特許情報:P.Viola and MJ.Jones, ”Robust Real−Time Face Detection.”,IJCV, 57(2), 2004.
人画像の抽出として、
非特許情報:N.Dalal and B.Triggs, ”Histograms of Oriented Gradients for Human Detection.”,CVPR, 2005.
等に記載の技術を使うことによって実現できる。こうして獲得された人物領域は画像中の矩形領域として検出される。図7はその例であり、図7(A)は顔領域検出の例を示しており、図7(B)は人領域検出の例を示している。例えば、画像710から顧客602の顔領域712、顧客604の顔領域714を抽出している。画像720から顧客606の人領域726、顧客608の人領域728を抽出している。
FIG. 7 is an explanatory diagram illustrating a processing example according to the present exemplary embodiment.
The person / face detection modules 130 and 230 are modules for detecting a person and a person's face from images sent from the imaging devices 120 and 220. The target image may be a still image or a moving image divided for each frame. It is assumed that a method for extracting a person or a person's face uses existing technology. For example, as a face image extraction,
Non-patent information: Viola and MJ. Jones, “Robust Real-Time Face Detection.”, IJCV, 57 (2), 2004.
As human image extraction,
Non-patent information: Dalal and B.M. Triggs, “Histograms of Oriented Gradients for Human Detection.”, CVPR, 2005.
It can be realized by using the technique described in the above. The person area acquired in this way is detected as a rectangular area in the image. FIG. 7 shows an example, FIG. 7A shows an example of face area detection, and FIG. 7B shows an example of human area detection. For example, the face area 712 of the customer 602 and the face area 714 of the customer 604 are extracted from the image 710. A human area 726 of the customer 606 and a human area 728 of the customer 608 are extracted from the image 720.

次に、選択した矩形領域から画像特徴抽出モジュール140、240において、画像特徴を抽出する。この画像特徴は、人物検出に用いた画像特徴を用いてもよいし、別の画像特徴を用いてもよい。画像特徴は、静止画フレームに対して抽出するものとし、1つの矩形領域に対して1つの画像特徴を抽出する。簡単のため、人・顔検出モジュール130、230では、特定人物が映っている間、とり逃しフレームが存在しないと仮定する。人物HがフレームF1〜Fnに映っているものとし、フレームFiから抽出した人物画像特徴をfiとする。f1〜fnから顧客Hに対する画像特徴fを生成する。生成方法としては、各fiの統計値(例えば、平均値、中央値、最頻値等)を取ったり、画像特徴fiの特徴次元をdとして画像特徴をnxd次元の行列Lとして表現し、事前にdxn次元の行列Kを作成することでf=K*Lとする等の方法がある。また、別の形態として、fを作成せずに、n個の画像特徴f1〜fnをそのまま利用する手法であってもよい。
画像特徴抽出モジュール140で抽出した画像特徴fは、顧客購買意欲判定モジュール150に渡される。画像特徴抽出モジュール240で抽出した画像特徴fは、画像特徴DB250に蓄えられる。
Next, the image feature extraction modules 140 and 240 extract image features from the selected rectangular area. As this image feature, an image feature used for person detection may be used, or another image feature may be used. Image features are extracted for still image frames, and one image feature is extracted for one rectangular area. For the sake of simplicity, it is assumed that the person / face detection modules 130 and 230 do not have any missing frames while a specific person is shown. It is assumed that the person H is reflected in the frames F1 to Fn, and the person image feature extracted from the frame Fi is fi. generating image features f H to the customer H from f1 to fn. As a generation method, a statistical value (for example, an average value, a median value, a mode value, etc.) of each fi is taken, or a feature dimension of the image feature fi is represented as d, and an image feature is represented as an nxd-dimensional matrix L. In other words, there is a method of setting f H = K * L by creating a dxn-dimensional matrix K. Further, as another form, without creating a f H, the n-number of the image feature f1~fn may be directly technique using.
The image feature f H extracted by the image feature extraction module 140 is passed to the customer purchase willingness determination module 150. The image feature f H extracted by the image feature extraction module 240 is stored in the image feature DB 250.

図8は、本実施の形態(情報処理(学習)装置200)による処理例を示すフローチャートである。
ステップS802では、プロモーション装置210が、プロモーションを開始する。
ステップS804では、撮像装置220が、プロモーション装置210の近辺にいる顧客を撮影する。
ステップS806では、人・顔検出モジュール230が、画像から人又は顔の領域を検出する。
ステップS808では、画像特徴抽出モジュール240が、人又は顔の領域内の特徴を抽出し、その特徴を画像特徴DB250に記憶させる。
ステップS810では、教師信号作成モジュール260が、教師信号を作成する。
ステップS812では、学習モデル作成保存モジュール270が、画像特徴DB250内の特徴と教師信号により学習モデルを作成する。
ステップS814では、学習モデル作成保存モジュール270が、学習モデルを各情報処理(判定)装置100の学習モデル記憶モジュール155に記憶させる。
FIG. 8 is a flowchart showing an example of processing by the present embodiment (information processing (learning) apparatus 200).
In step S802, the promotion device 210 starts promotion.
In step S <b> 804, the imaging device 220 captures a customer in the vicinity of the promotion device 210.
In step S806, the person / face detection module 230 detects a person or face area from the image.
In step S <b> 808, the image feature extraction module 240 extracts features in a person or face area and stores the features in the image feature DB 250.
In step S810, the teacher signal creation module 260 creates a teacher signal.
In step S812, the learning model creation / save module 270 creates a learning model based on the features in the image feature DB 250 and the teacher signal.
In step S814, the learning model creation / storing module 270 stores the learning model in the learning model storage module 155 of each information processing (judgment) device 100.

教師信号作成モジュール260は、実際に顧客Hが対象商品を購入したか否かの情報を入手するモジュールである。対象商品を購入したか否かは、顧客Hがレジカウンターを通過したか否かによって判定可能である。顧客Hを特定する手法として、例えば、次のように行ってもよい。
(1)画像特徴を使う、
(2)ポイントカード、クレジットカード等の各種カードを使う手法、
がある。
画像特徴を使う場合、既存技術である顔照合技術を使う方法が使用可能である。撮像装置620において撮像した顔画像とレジカウンターで撮像した顔画像とを照合し、レジカウンターにおいて顧客Hを特定する。また、プロモーション装置(モニタ610)からレジカウンターまで人物を追跡し続けることによって、顧客Hを認証することも可能である。
図9の例は、顔画像を用いて個人認証する場合の処理例を示している。図9は、教師信号作成モジュール260内の構成例とその周辺のモジュールとの関係構成図である。プロモーション装置210、撮像装置220、顔検出モジュール930、画像特徴抽出モジュール240、画像特徴DB250、教師信号作成モジュール260の関係例を示したものである。前述の実施の形態と同種の部位には同一符号を付し重複した説明を省略する。なお、図9に示す例は、図2に示す例の人・顔検出モジュール230を顔画像を主な対象とする顔検出モジュール930(人・顔検出モジュール230内の機能のうち、顔画像に関する処理を行うモジュール)としたものであるが、人・顔検出モジュール230を人画像を主な対象とする人検出モジュールとしてもよい。その場合、顔検出モジュール964、顔照合モジュール966を、それぞれ人検出モジュール、人照合モジュールとすればよい。また、図9の例では顔検出モジュール930と画像特徴DB250を接続しているが、図2の例と同様に画像特徴抽出モジュール240を介して接続するようにしてもよいし、逆に、図2の例に示す人・顔検出モジュール230と画像特徴DB250を接続するようにしてもよい。つまり、人・顔検出モジュール230による処理結果を画像特徴DB250に記憶させるようにしてもよい。以下、照合のために顔画像を用いる場合の例を示す。
The teacher signal creation module 260 is a module for obtaining information on whether or not the customer H has actually purchased the target product. Whether or not the target product has been purchased can be determined based on whether or not the customer H has passed the checkout counter. As a method for specifying the customer H, for example, the following may be performed.
(1) Use image features,
(2) Methods using various cards such as point cards and credit cards,
There is.
When using image features, a method using a face matching technique, which is an existing technique, can be used. The face image captured by the imaging device 620 is collated with the face image captured by the cashier counter, and the customer H is specified at the cashier counter. It is also possible to authenticate customer H by keeping track of the person from the promotion device (monitor 610) to the cashier counter.
The example of FIG. 9 shows a processing example when personal authentication is performed using a face image. FIG. 9 is a configuration diagram of a relationship between a configuration example in the teacher signal creation module 260 and peripheral modules. The relationship example of the promotion apparatus 210, the imaging device 220, the face detection module 930, the image feature extraction module 240, the image feature DB 250, and the teacher signal creation module 260 is shown. The same parts as those in the above-described embodiment are denoted by the same reference numerals, and redundant description is omitted. In the example shown in FIG. 9, the human / face detection module 230 in the example shown in FIG. However, the human / face detection module 230 may be a human detection module mainly for human images. In that case, the face detection module 964 and the face verification module 966 may be a human detection module and a human verification module, respectively. Further, in the example of FIG. 9, the face detection module 930 and the image feature DB 250 are connected, but they may be connected via the image feature extraction module 240 as in the example of FIG. The person / face detection module 230 and the image feature DB 250 shown in the example 2 may be connected. That is, the processing result by the person / face detection module 230 may be stored in the image feature DB 250. Hereinafter, an example in the case of using a face image for collation will be shown.

画像特徴DB250は、顔検出モジュール930、画像特徴抽出モジュール240、教師信号作成モジュール260の顔照合モジュール966と接続されている。画像特徴DB250は、顔検出モジュール930の処理結果である顔画像の領域、その顔画像に対する画像特徴抽出モジュール240による処理結果を記憶している。顔情報は、顔画像又は顔画像特徴である(顔画像特徴と前述の画像特徴fが一致する場合もありうる)。顔情報はフレーム毎に入手できるが、照合に必要な数フレーム分保存しておけばよい。
教師信号作成モジュール260は、レジ撮像装置962、顔検出モジュール964、顔照合モジュール966を有している。教師信号作成モジュール260による処理結果を学習モデル作成保存モジュール270に渡す。
レジ撮像装置962は、顔検出モジュール964と接続されている。レジ撮像装置962は、レジカウンターの周囲(又は購入する顧客)を撮影する。
顔検出モジュール964は、レジ撮像装置962、顔照合モジュール966と接続されている。顔検出モジュール964は、レジ撮像装置962によって撮影された画像から、顔検出モジュール930(人・顔検出モジュール230内の機能のうち、顔画像に関する処理)と同等の処理を行い、顔画像を検出する。
顔照合モジュール966は、顔検出モジュール964、画像特徴DB250と接続されている。顔照合モジュール966は、現在レジカウンターにいる顧客と画像特徴DB250にあるデータとの照合処理を行う。レジカウンターにいる顧客の画像特徴が画像特徴DB250のデータと一致する場合、その顧客が対象となる商品を購入したことを示す情報を画像特徴DB250に記憶する。
The image feature DB 250 is connected to the face detection module 930, the image feature extraction module 240, and the face collation module 966 of the teacher signal creation module 260. The image feature DB 250 stores a face image region, which is a processing result of the face detection module 930, and a processing result of the image feature extraction module 240 for the face image. The face information is a face image or a face image feature (the face image feature and the image feature f H described above may match). The face information can be obtained for each frame, but it may be stored for several frames necessary for collation.
The teacher signal creation module 260 includes a cash register imaging device 962, a face detection module 964, and a face collation module 966. The processing result by the teacher signal creation module 260 is passed to the learning model creation storage module 270.
The cash register imaging device 962 is connected to the face detection module 964. The cash register imaging device 962 captures the area around the cash register counter (or the customer who purchases it).
The face detection module 964 is connected to the cash register imaging device 962 and the face matching module 966. The face detection module 964 performs a process equivalent to the face detection module 930 (a process related to a face image among the functions in the person / face detection module 230) from an image taken by the cash register imaging device 962, and detects a face image To do.
The face collation module 966 is connected to the face detection module 964 and the image feature DB 250. The face matching module 966 performs a matching process between the customer currently at the cashier counter and the data stored in the image feature DB 250. When the image feature of the customer at the checkout counter matches the data in the image feature DB 250, information indicating that the customer has purchased the target product is stored in the image feature DB 250.

図10に示す例は、画像特徴DB250に格納されているデータの一例を示す。図10は、画像特徴テーブル1000のデータ構造例を示す説明図である。画像特徴テーブル1000は、顧客ID欄1010、顔画像特徴欄1020、顔画像欄1030、プロモーションの種類欄1040、画像特徴欄1050、購入・非購入欄1060を有している。顧客ID欄1010は、本実施の形態において、顧客を一意に識別するための情報(顧客ID:IDentification)を記憶している。顔画像特徴欄1020は、その顧客IDの顧客の顔画像特徴を記憶している。顔画像欄1030は、その顧客の顔画像を記憶している。顔画像そのものであってもよいし、その顔画像のファイル名等であってもよい。プロモーションの種類欄1040は、その顧客が見たプロモーションの種類を示す情報記憶している。画像特徴欄1050は、画像特徴を記憶している。購入・非購入欄1060は、プロモーションの対象としている商品毎に、購入・非購入を示す情報を記憶している。つまり、顧客が参加したプロモーションの種類とその画像特徴及び、購入又は非購入の情報が入っており、購入/非購入が確定していない場合は空欄になっている。顔画像特徴、顔画像は少なくとも1つあればよく、照合精度を向上させるため、複数の顔画像特徴及び顔画像を登録することができる。顧客がレジカウンターを通過しない場合、教師信号を画像特徴DB250に付与することはできない。画像特徴が画像特徴DB250に保存されてから予め定められた時間後に教師信号が得られない場合は、“非購入”のラベルを付与するようにしてもよい。
一方、人物照合を顔画像を用いないで、各種カードや指紋認証等を使用するようにしてもよい。この場合、次のような処理を行えばよい。顧客がプレゼンテーションを見る直前等に各種認証方法で個人を特定し、画像特徴と顧客を関連付ける。さらに、レジカウンターで精算をする際に、カード等にて個人を特定し、画像特徴と照合させる等の処理を行う。このような処理の結果、画像特徴DB250の中では、画像特徴と購入・非購入の対からなる学習データが作成される。
The example shown in FIG. 10 shows an example of data stored in the image feature DB 250. FIG. 10 is an explanatory diagram showing an example of the data structure of the image feature table 1000. The image feature table 1000 includes a customer ID column 1010, a face image feature column 1020, a face image column 1030, a promotion type column 1040, an image feature column 1050, and a purchase / non-purchase column 1060. In the present embodiment, customer ID column 1010 stores information (customer ID: IDentification) for uniquely identifying a customer. The face image feature column 1020 stores the face image feature of the customer with the customer ID. The face image column 1030 stores the customer's face image. It may be the face image itself or the file name of the face image. The promotion type column 1040 stores information indicating the type of promotion viewed by the customer. The image feature column 1050 stores image features. The purchase / non-purchase column 1060 stores information indicating purchase / non-purchase for each product to be promoted. In other words, it contains the type of promotion that the customer participated in, its image characteristics, and purchase or non-purchase information, and is blank if purchase / non-purchase has not been confirmed. There may be at least one face image feature or face image, and a plurality of face image features and face images can be registered in order to improve collation accuracy. If the customer does not pass the checkout counter, the teacher signal cannot be given to the image feature DB 250. If a teacher signal is not obtained after a predetermined time after the image feature is stored in the image feature DB 250, a label “not purchased” may be added.
On the other hand, various cards or fingerprint authentication may be used for person verification without using a face image. In this case, the following processing may be performed. Just before the customer sees the presentation, the individual is identified by various authentication methods, and the image feature is associated with the customer. Further, when the checkout is performed at the checkout counter, an individual is identified with a card or the like, and processing such as collating with image features is performed. As a result of such processing, in the image feature DB 250, learning data including image features and purchase / non-purchase pairs is created.

次に、学習モデル作成保存モジュール270は、前述の学習データを用いて学習モデル(判定モデル)を作成し、その学習モデルを保存する。教師信号が購入と非購入しかない場合、汎用的な二分類器(例えば、サポートベクタマシン、ブースティング等)を用いて、学習モデルを構築する。作成した学習モデルは、情報処理(判定)装置100の学習モデル記憶モジュール155に記憶させる。例えば、サーバコンピュータのストレージ等に格納しておき、情報処理(判定)装置100の顧客購買意欲判定モジュール150は、そのストレージ等から学習モデルを学習モデル記憶モジュール155にダウンロードする。また、対象プロモーションが複数に及ぶ場合、学習モデルはそのプロモーションの数だけ作成される。以上が情報処理(学習)装置200の説明である。   Next, the learning model creation / storing module 270 creates a learning model (determination model) using the learning data described above, and stores the learning model. When the teacher signal is only purchased or not purchased, a learning model is constructed using a general-purpose two classifier (for example, support vector machine, boosting, etc.). The created learning model is stored in the learning model storage module 155 of the information processing (judgment) device 100. For example, the data is stored in a storage of a server computer or the like, and the customer purchase willingness determination module 150 of the information processing (determination) apparatus 100 downloads the learning model from the storage or the like to the learning model storage module 155. When there are a plurality of target promotions, learning models are created for the number of promotions. The information processing (learning) apparatus 200 has been described above.

次に情報処理(判定)装置100について説明する。情報処理(判定)装置100で実施することは、以下の2つである。
1)プロモーションを見ている顧客が対象商品を購入しそうか否かを予想すること、
2)プロモーションの中で良い箇所と悪い箇所を発見すること、
画像特徴抽出モジュール140は、対象プロモーションPを見ている顧客の画像特徴を抽出する。使用する画像特徴の種類は学習モデル作成の時と同じものを使う。対象顧客のプロモーションPに対する画像特徴がすでに存在する場合、対象顧客のデータは学習モデルの中で使われているので使用しない(例えば、同じプロモーションに対して複数回訪れた顧客が該当する)。得られた画像特徴を、顧客購買意欲判定モジュール150は、学習モデルに入力してその出力を得る。その出力値は“購入する”又は“購入しない”のいずれかを示すラベルの値である。例えば、プロモーションを見た顧客が“購入しない”と判定した場合には、その判定結果を店舗内のパーソナルコンピュータに送信し、判定結果を通知された店員はその顧客に商品を購入してもらえるようなアプローチをかけることが可能となる。
Next, the information processing (determination) device 100 will be described. The information processing (judgment) apparatus 100 implements the following two methods.
1) Predicting whether a customer watching a promotion is likely to purchase the target product,
2) Discover good and bad points in the promotion,
The image feature extraction module 140 extracts an image feature of a customer who is watching the target promotion P. The type of image feature used is the same as that used when creating the learning model. If an image feature for the target customer's promotion P already exists, the target customer's data is not used because it is used in the learning model (for example, a customer who visited the same promotion multiple times corresponds). The obtained image feature is input to the customer purchase motivation determination module 150 into the learning model, and the output is obtained. The output value is a label value indicating either “purchase” or “not purchase”. For example, if a customer who saw a promotion determines that he / she does not purchase, the determination result is transmitted to a personal computer in the store, and the store clerk who is notified of the determination result can purchase the product. It is possible to take a different approach.

次にプロモーションの中の良い箇所・悪い箇所を特定する手法について説明する。つまり、顧客に影響を与えるプロモーションの時間位置(開始何秒後など)を特定し、プロモーションを改善するために行う処理である。
その際、学習モデルを作成するための画像特徴は、複数フレームの出力値を変換して1つにまとめたものではなく、各フレームから抽出した画像特徴を使う。つまり、あるプロモーションPを見た顧客Hに対する画像フレームからの画像特徴fiをすべて使うものとし、教師信号として実際に対象商品を購入したか否かを示す情報を付与するものとする。つまり、プロモーションP、顧客Hに関連付けされる画像特徴には、すべて同一のラベルが教師信号として付与される。又は、すべての画像特徴を使うのではなく、購入・非購入の判定に重要だと思われる対象フレームの後半に対する画像特徴を学習データの対象としてもよい。なお、ここでの後半とは、プロモーションの開始から予め定められた時間以降をいう。これらを用いて、学習モデルを前述の説明と同様に構成する。
次に、あるプロモーションPを見ている顧客の画像特徴を抽出し、それを学習モデルの入力データとすることで、“購入”又は“非購入”の予想ラベルをフレーム毎に付与する。このようなデータを、複数人分収集する。図11に示す例は、プロモーションビデオの時間軸に対して、“購入”と判定された画像(静止画像)を何枚収集できたかを示す図である。p番目のフレームFpに対する画像特徴で“購入”と判定された度数が最も大きく、またq番目のフレームFqに対する画像特徴で“非購入”と判定された度数が最も小さいとする。このとき、Fp周辺のフレームが良いプロモーションだと判定し、Fq周辺のフレームが悪いプロモーションだと判定する。図11の例では、度数が最大のところ、及び最小のところのみに着目したが、図11の度数分布で極大及び極小をとる時間軸を抽出して、極大周辺のフレームは良いプロモーション、極小周辺のプロモーションは悪いプロモーションと判定するようにしてもよい。図12に示す例では、極大値がp1,p2,p3であり、極小値がq1,q2となっており、それぞれの極値を中心として良いフレーム、悪いフレームを判定することで、良いプロモーションと悪いプロモーションを抽出する。又は、プロモーションPを見て良いと判定された画像の総数をフレーム数で割ったもの(特定フレームを見て“購入”と判定する平均枚数)が予め定められた閾値A以上の場合、そのプロモーション自体が良いプロモーション、予め定められた閾値B未満の場合、悪いプロモーションと判定するようにしてもよい。閾値Aと閾値Bは、同じ値であってもよいし、異なる値であってもよい。
Next, a method for identifying good and bad points in the promotion will be described. In other words, it is a process performed to identify the time position (such as how many seconds after the start) of the promotion that affects the customer and improve the promotion.
At this time, the image features for creating the learning model are not obtained by converting the output values of a plurality of frames into one, but use image features extracted from each frame. That is, all the image features fi from the image frame for the customer H who saw a certain promotion P are used, and information indicating whether or not the target product has actually been purchased is given as a teacher signal. In other words, all the image features associated with the promotion P and the customer H are given the same label as a teacher signal. Alternatively, not all image features may be used, but the image features for the second half of the target frame considered to be important for the purchase / non-purchase determination may be used as the target of the learning data. Note that the latter half here refers to a period after a predetermined time from the start of the promotion. Using these, the learning model is configured in the same manner as described above.
Next, an image feature of a customer who is looking at a certain promotion P is extracted and used as input data for a learning model, so that an expected label of “purchase” or “non-purchase” is given for each frame. Such data is collected for a plurality of people. The example shown in FIG. 11 is a diagram showing how many images (still images) determined to be “purchase” can be collected on the time axis of the promotion video. Assume that the frequency determined as “purchase” for the image feature for the p-th frame Fp is the largest, and the frequency determined as “non-purchase” for the image feature for the q-th frame Fq is the smallest. At this time, it is determined that the frame around Fp is a good promotion, and the frame around Fq is determined as a bad promotion. In the example of FIG. 11, attention is paid only to the place where the frequency is the maximum and the minimum, but the time axis taking the maximum and the minimum in the frequency distribution of FIG. 11 is extracted, and the frame around the maximum is a good promotion, the minimum periphery The promotion may be determined as a bad promotion. In the example shown in FIG. 12, the maximum values are p1, p2, and p3, and the minimum values are q1 and q2. By determining the good frame and the bad frame around each extreme value, Extract bad promotions. Alternatively, when the total number of images that are determined to be good to see the promotion P divided by the number of frames (the average number that is determined to be “purchase” by looking at a specific frame) is equal to or greater than a predetermined threshold A, the promotion If the promotion itself is good and less than a predetermined threshold B, it may be determined that the promotion is bad. The threshold value A and the threshold value B may be the same value or different values.

以上の説明では教師信号は“購入”か“非購入”の二択であった。“非購入”でも実際に対象商品を手に取ったかなど商品に関心を示したか否かの情報は、購買意欲という観点において重要な情報である。よって、“非購入だが関心がある”という教師信号を作成し、“非購入(関心示さず)”、“非購入(関心あり)”、“購入(明らかに関心あり)”の3つの教師信号を作成する例を示す。
図13は、第2の教師信号作成モジュール1360を加えた場合の本実施の形態の構成例についての概念的なモジュール構成図である。つまり、第二の教師信号を得るための説明図である。図9の例に教師信号作成モジュール1360を加えたものである。
教師信号作成モジュール1360は、商品設置場所撮像装置1362、顔検出モジュール1364、行動検出モジュール1366を有している。
画像特徴DB250は、顔検出モジュール930、画像特徴抽出モジュール240、教師信号作成モジュール260の顔照合モジュール966、教師信号作成モジュール1360の顔検出モジュール1364、行動検出モジュール1366と接続されている。
商品設置場所撮像装置1362は、顔検出モジュール1364、行動検出モジュール1366と接続されている。商品設置場所撮像装置1362は、商品の設置場所(商品売り場)に設置されており、その場所にいる顧客を撮影する。ここでの商品は、プロモーションの対象となっている商品であってもよい。
顔検出モジュール1364は、商品設置場所撮像装置1362、画像特徴DB250、教師信号作成モジュール260の顔照合モジュール966と接続されている。顔検出モジュール1364は、商品設置場所撮像装置1362によって撮影された画像から、顔検出モジュール930と同等の処理を行い、顔画像を検出する。
行動検出モジュール1366は、商品設置場所撮像装置1362、画像特徴DB250、教師信号作成モジュール260の顔照合モジュール966と接続されている。行動検出モジュール1366は、商品設置場所撮像装置1362によって撮影された画像から、対象としている商品を顧客が触れたことを検出する。
In the above explanation, the teacher signal has two choices of “purchase” or “non-purchase”. Information on whether or not the product has shown interest, such as whether or not the target product has actually been picked up, is “important” in terms of purchasing will. Therefore, a teacher signal “not purchased but interested” is created, and three teacher signals “not purchased (not shown interest)”, “not purchased (interested)”, and “purchased (obviously interested)”. An example of creating
FIG. 13 is a conceptual module configuration diagram of a configuration example of the present embodiment when the second teacher signal generation module 1360 is added. That is, it is an explanatory diagram for obtaining a second teacher signal. The teacher signal creation module 1360 is added to the example of FIG.
The teacher signal creation module 1360 includes a product installation location imaging device 1362, a face detection module 1364, and a behavior detection module 1366.
The image feature DB 250 is connected to the face detection module 930, the image feature extraction module 240, the face collation module 966 of the teacher signal creation module 260, the face detection module 1364 of the teacher signal creation module 1360, and the behavior detection module 1366.
The commodity installation location imaging device 1362 is connected to the face detection module 1364 and the behavior detection module 1366. The product installation location imaging device 1362 is installed at a product installation location (product sales location), and images customers at that location. The product here may be a product targeted for promotion.
The face detection module 1364 is connected to the product installation location imaging device 1362, the image feature DB 250, and the face collation module 966 of the teacher signal creation module 260. The face detection module 1364 performs a process equivalent to the face detection module 930 from the image photographed by the product installation location imaging device 1362 to detect a face image.
The behavior detection module 1366 is connected to the product installation location imaging device 1362, the image feature DB 250, and the face matching module 966 of the teacher signal creation module 260. The behavior detection module 1366 detects that the customer touches the target product from the image captured by the product installation location imaging device 1362.

具体的に説明する。
“非購入(関心あり)”の教師信号を作成するために、対象商品設置場所にビデオカメラ等の撮像装置220を設置して、近づいてきた顧客の顔を検出する。先にプロモーション装置210を見た顧客のみを対象とする場合、画像特徴DB250に保存されていない顔は検出対象から省いてもよい。又は、プロモーション装置210を見る前に対象商品設置場所に訪れる顧客も対象にする場合、検出した顔画像特徴及び行動検出モジュール1366で判定した対象商品に興味があるか否かを示す情報を画像特徴DB250に記憶させておき、プロモーション装置210設置場所に、その顧客が訪れたか否かの判断を行う。行動検出モジュール1366では視線検出や手検出を行い、
1)対象商品に触れたか、
2)どのくらいの時間、対象商品設置場所に滞在したか、
等の情報から総合的に顧客が対象商品に興味があるか否かを判定する。
図14に示す例は、図13の例に示すように教師信号作成モジュール1360を導入したことにより、図10の例に示した画像特徴テーブル1000に加えて画像特徴DB250に記憶される情報を示す。図14は、教師信号テーブル1400のデータ構造例を示す説明図である。教師信号テーブル1400は、顧客ID欄1410、顔画像特徴欄1420、顔画像欄1430、プロモーション(対象商品)の種類欄1440、関心あり・なし欄1450を有している。顧客ID欄1410は、顧客IDを記憶している。顔画像特徴欄1420は、その顧客IDの顧客の顔画像特徴を記憶している。顔画像欄1430は、その顧客の顔画像を記憶している。プロモーション(対象商品)の種類欄1440は、プロモーション(対象商品)の種類を記憶している。関心あり・なし欄1450は、プロモーションの対象としている商品毎に、関心あり・関心なしを示す情報を記憶している。
This will be specifically described.
In order to create a “non-purchase (interested)” teacher signal, an imaging device 220 such as a video camera is installed at the target product installation location, and the face of the approaching customer is detected. When only the customer who has seen the promotion device 210 first is targeted, faces that are not stored in the image feature DB 250 may be omitted from the detection target. Alternatively, when a customer who visits the target product installation location before viewing the promotion device 210 is also targeted, information indicating whether or not he / she is interested in the detected face image feature and the target product determined by the behavior detection module 1366 is an image feature. It is stored in the DB 250 and it is determined whether or not the customer has visited the place where the promotion device 210 is installed. The behavior detection module 1366 performs gaze detection and hand detection,
1) Did you touch the target product?
2) How long did you stay at the target product location?
It is determined whether or not the customer is interested in the target product comprehensively from such information.
The example shown in FIG. 14 shows information stored in the image feature DB 250 in addition to the image feature table 1000 shown in the example of FIG. 10 by introducing the teacher signal creation module 1360 as shown in the example of FIG. . FIG. 14 is an explanatory diagram showing an example of the data structure of the teacher signal table 1400. The teacher signal table 1400 includes a customer ID column 1410, a face image feature column 1420, a face image column 1430, a promotion (target product) type column 1440, and an interest / none column 1450. The customer ID column 1410 stores a customer ID. The face image feature column 1420 stores the face image feature of the customer with the customer ID. The face image column 1430 stores the face image of the customer. The promotion (target product) type column 1440 stores the type of promotion (target product). The interest / none column 1450 stores information indicating interest / no interest for each product targeted for promotion.

教師信号作成モジュール1360からの情報の中で、顔情報(顔画像特徴欄1420、顔画像欄1430)はプロモーション装置210で入手した顔情報との照合のみに必要であり、顔情報は、顔照合モジュール966による照合が終了すれば、画像特徴DB250から削除してもよい。照合の際、最終的に必要な情報は“関心ある・関心なし”に関する情報のうち、“関心がある”という情報であり、“関心がある”にもかかわらず実際に対象商品を購入しなかったという教師信号を得ることである。また、先に対象商品設置場所に行って、予め定められた時間以内に、プロモーション装置210に向かわない顧客は、画像特徴DB250から削除の対象とするようにしてもよい。
以上の処理例により、3つの教師信号からなる学習モデルを同様に作成し、プロモーションを見ている顧客の画像情報から、事前に“興味があるが購入しないだろう”という予想を得る。そして、非購入が予想される客の中から対象商品に関心がありそうな顧客を絞り込むことができる。これによって、さらに別の対応を事前に実施することができる。
また、別の処理例として顧客の分類をする際に、プロモーション装置210からの画像だけでなく、対象商品に関心を示したか否かの情報を教師信号作成モジュール1360同様の手法で入手し、“関心がありそう”に関する判定精度をさらに上昇させるようにしてもよい。
なお、学習モデルを作成する際には、所謂one−vs−allの識別器を2つ(例えば“購入”と「それ以外」の識別器、「それ以外」をさらに“関心あり”と“関心なし”の識別器)構築することによって学習モデルを作成することができる。
Of the information from the teacher signal creation module 1360, face information (face image feature field 1420, face image field 1430) is necessary only for matching with face information obtained by the promotion device 210, and face information is face matching. When the collation by the module 966 is completed, the image feature DB 250 may be deleted. At the time of collation, the information that is finally required is the information “interested” among the information related to “interested / not interested”, and the target product is not actually purchased despite being “interested” To get a teacher signal. Alternatively, a customer who does not go to the promotion device 210 within a predetermined time after going to the target product installation location may be deleted from the image feature DB 250.
With the above processing example, a learning model composed of three teacher signals is created in the same manner, and the prediction that “I am interested but will not purchase” is obtained in advance from the image information of the customer watching the promotion. Then, it is possible to narrow down customers who are likely to be interested in the target product from customers expected to be non-purchased. As a result, further countermeasures can be implemented in advance.
As another example of processing, when classifying a customer, not only the image from the promotion device 210 but also information indicating whether or not the target product has been shown is obtained in the same manner as the teacher signal creation module 1360. You may make it raise the determination precision regarding "it seems to be interested" further.
When creating a learning model, there are two so-called one-vs-all classifiers (for example, “purchase” and “other” classifiers, and “other” are further “interested” and “interested”. A learning model can be created by constructing a “none classifier”.

図15は、第3の教師信号作成モジュール1560を加えた場合の本実施の形態の構成例についての概念的なモジュール構成図である。図9の例に教師信号作成モジュール1560を加えたものである。店舗等の出口に、ビデオカメラ等の出口撮像装置1562を設置して、レジカウンターを通過しないで出口から出た人物の顔情報から“非購入”のラベルを付与するようにしてもよい。
教師信号作成モジュール1560は、出口撮像装置1562、顔検出モジュール1564を有している。
出口撮像装置1562は、顔検出モジュール1564と接続されている。出口撮像装置1562は、店舗等の出口に設置されており、店舗等から出る顧客を撮影する。
顔検出モジュール1564は、出口撮像装置1562、教師信号作成モジュール260の顔照合モジュール966と接続されている。顔検出モジュール1564は、出口撮像装置1562によって撮影された画像から、顔検出モジュール930と同等の処理を行い、顔画像を検出する。
顔照合モジュール966は、顔検出モジュール964、画像特徴DB250、顔検出モジュール1564と接続されている。顔照合モジュール966は、図9の例で示した顔照合モジュール966の処理に加えて、顔検出モジュール1564によって検出された顧客の顔画像の特徴と、レジカウンターにいた顧客の顔画像の特徴が合致しない場合、顔検出モジュール1564によって検出された顧客は、商品を購入しなかったことを示す情報を画像特徴DB250に記憶する。
FIG. 15 is a conceptual module configuration diagram of a configuration example of the present embodiment when a third teacher signal generation module 1560 is added. The teacher signal creation module 1560 is added to the example of FIG. An exit imaging device 1562 such as a video camera may be installed at the exit of a store or the like, and a “non-purchased” label may be assigned from the face information of the person exiting the exit without passing through the cashier counter.
The teacher signal creation module 1560 includes an exit imaging device 1562 and a face detection module 1564.
The exit imaging device 1562 is connected to the face detection module 1564. The exit imaging device 1562 is installed at an exit of a store or the like, and images a customer leaving the store or the like.
The face detection module 1564 is connected to the exit imaging device 1562 and the face collation module 966 of the teacher signal creation module 260. The face detection module 1564 performs a process equivalent to the face detection module 930 from the image captured by the exit imaging device 1562 to detect a face image.
The face matching module 966 is connected to the face detection module 964, the image feature DB 250, and the face detection module 1564. In addition to the processing of the face matching module 966 shown in the example of FIG. 9, the face matching module 966 has features of the customer face image detected by the face detection module 1564 and the feature of the customer face image at the checkout counter. If they do not match, the customer detected by the face detection module 1564 stores information indicating that the product has not been purchased in the image feature DB 250.

図16を参照して、本実施の形態の情報処理装置のハードウェア構成例について説明する。図16に示す構成は、例えばパーソナルコンピュータ(PC)等によって構成されるものであり、スキャナ等のデータ読み取り部1617と、プリンタ等のデータ出力部1618を備えたハードウェア構成例を示している。   A hardware configuration example of the information processing apparatus according to the present embodiment will be described with reference to FIG. The configuration illustrated in FIG. 16 is configured by, for example, a personal computer (PC) or the like, and illustrates a hardware configuration example including a data reading unit 1617 such as a scanner and a data output unit 1618 such as a printer.

CPU(Central Processing Unit)1601は、前述の実施の形態において説明した各種のモジュール、すなわち、人・顔検出モジュール130、画像特徴抽出モジュール140、顧客購買意欲判定モジュール150、プロモーション選択モジュール160、人・顔検出モジュール230、画像特徴抽出モジュール240、教師信号作成モジュール260、学習モデル作成保存モジュール270、顔検出モジュール930、レジ撮像装置962、顔検出モジュール964、顔照合モジュール966、商品設置場所撮像装置1362、顔検出モジュール1364、行動検出モジュール1366、出口撮像装置1562、顔検出モジュール1564等の各モジュールの実行シーケンスを記述したコンピュータ・プログラムにしたがった処理を実行する制御部である。   A CPU (Central Processing Unit) 1601 includes various modules described in the above-described embodiments, that is, a person / face detection module 130, an image feature extraction module 140, a customer purchase motivation determination module 150, a promotion selection module 160, a person / person Face detection module 230, image feature extraction module 240, teacher signal creation module 260, learning model creation and storage module 270, face detection module 930, cash register imaging device 962, face detection module 964, face matching module 966, product installation location imaging device 1362 , A computer program describing an execution sequence of each module such as the face detection module 1364, the action detection module 1366, the exit imaging device 1562, the face detection module 1564, etc. It is a control part which performs processing according to.

ROM(Read Only Memory)1602は、CPU1601が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)1603は、CPU1601の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバス等から構成されるホストバス1604により相互に接続されている。   A ROM (Read Only Memory) 1602 stores programs, calculation parameters, and the like used by the CPU 1601. A RAM (Random Access Memory) 1603 stores programs used in the execution of the CPU 1601, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 1604 including a CPU bus or the like.

ホストバス1604は、ブリッジ1605を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス1606に接続されている。   The host bus 1604 is connected to an external bus 1606 such as a PCI (Peripheral Component Interconnect / Interface) bus through a bridge 1605.

キーボード1608、マウス等のポインティングデバイス1609は、操作者により操作される入力デバイスである。ディスプレイ1610は、液晶表示装置又はCRT(Cathode Ray Tube)等があり、各種情報をテキストやイメージ情報として表示する。   A keyboard 1608 and a pointing device 1609 such as a mouse are input devices operated by an operator. The display 1610 includes a liquid crystal display device or a CRT (Cathode Ray Tube), and displays various types of information as text or image information.

HDD(Hard Disk Drive)1611は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU1601によって実行するプログラムや情報を記録又は再生させる。ハードディスクには、画像、画像内の顧客の人又は顔の特徴、教師信号、学習モデル等が格納される。さらに、その他の各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納される。   An HDD (Hard Disk Drive) 1611 includes a hard disk, drives the hard disk, and records or reproduces a program executed by the CPU 1601 and information. The hard disk stores images, customer person or facial features in the images, teacher signals, learning models, and the like. Further, various computer programs such as various other data processing programs are stored.

ドライブ1612は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体1613に記録されているデータ又はプログラムを読み出して、そのデータ又はプログラムを、インタフェース1607、外部バス1606、ブリッジ1605、及びホストバス1604を介して接続されているRAM1603に供給する。リムーバブル記録媒体1613も、ハードディスクと同様のデータ記録領域として利用可能である。   The drive 1612 reads data or a program recorded on a removable recording medium 1613 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and the data or program is read out from the interface 1607 and the external bus 1606. , A bridge 1605, and a RAM 1603 connected via the host bus 1604. The removable recording medium 1613 can also be used as a data recording area similar to the hard disk.

接続ポート1614は、外部接続機器1615を接続するポートであり、USB、IEEE1394等の接続部を持つ。接続ポート1614は、インタフェース1607、及び外部バス1606、ブリッジ1605、ホストバス1604等を介してCPU1601等に接続されている。通信部1616は、通信回線に接続され、外部とのデータ通信処理を実行する。データ読み取り部1617は、例えばスキャナであり、ドキュメントの読み取り処理を実行する。データ出力部1618は、例えばプリンタであり、ドキュメントデータの出力処理を実行する。   The connection port 1614 is a port for connecting an external connection device 1615 and has a connection unit such as USB, IEEE1394. The connection port 1614 is connected to the CPU 1601 and the like via the interface 1607, the external bus 1606, the bridge 1605, the host bus 1604, and the like. A communication unit 1616 is connected to a communication line and executes data communication processing with the outside. The data reading unit 1617 is a scanner, for example, and executes document reading processing. The data output unit 1618 is a printer, for example, and executes document data output processing.

なお、図16に示す情報処理装置のハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図16に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図16に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、複写機、ファックス、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファックス等のいずれか2つ以上の機能を有している画像処理装置)等に組み込まれていてもよい。   Note that the hardware configuration of the information processing apparatus shown in FIG. 16 shows one configuration example, and the present embodiment is not limited to the configuration shown in FIG. 16, and the modules described in this embodiment are executed. Any configuration is possible. For example, some modules may be configured with dedicated hardware (for example, Application Specific Integrated Circuit (ASIC), etc.), and some modules are in an external system and connected via a communication line In addition, a plurality of systems shown in FIG. 16 may be connected to each other via communication lines so as to cooperate with each other. Further, it may be incorporated in a copying machine, a fax machine, a scanner, a printer, a multifunction machine (an image processing apparatus having any two or more functions such as a scanner, a printer, a copying machine, and a fax machine).

また、前述の実施の形態の説明において、予め定められた値との比較において、「以上」、「以下」、「より大きい」、「より小さい(未満)」としたものは、その組み合わせに矛盾が生じない限り、それぞれ「より大きい」、「より小さい(未満)」、「以上」、「以下」としてもよい。   Further, in the description of the above-described embodiment, “more than”, “less than”, “greater than”, and “less than (less than)” in a comparison with a predetermined value contradicts the combination. As long as the above does not occur, “larger”, “smaller (less than)”, “more than”, and “less than” may be used.

なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
The program described above may be provided by being stored in a recording medium, or the program may be provided by communication means. In that case, for example, the above-described program may be regarded as an invention of a “computer-readable recording medium recording the program”.
The “computer-readable recording medium on which a program is recorded” refers to a computer-readable recording medium on which a program is recorded, which is used for program installation, execution, program distribution, and the like.
The recording medium is, for example, a digital versatile disc (DVD), which is a standard established by the DVD Forum, such as “DVD-R, DVD-RW, DVD-RAM,” and DVD + RW. Standard “DVD + R, DVD + RW, etc.”, compact disc (CD), read-only memory (CD-ROM), CD recordable (CD-R), CD rewritable (CD-RW), Blu-ray disc ( Blu-ray (registered trademark) Disc), magneto-optical disk (MO), flexible disk (FD), magnetic tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EEPROM (registered trademark)) )), Flash memory, Random access memory (RAM) SD (Secure Digital) memory card and the like.
The program or a part of the program may be recorded on the recording medium for storage or distribution. Also, by communication, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), a wired network used for the Internet, an intranet, an extranet, or a wireless communication It may be transmitted using a transmission medium such as a network or a combination of these, or may be carried on a carrier wave.
Furthermore, the program may be a part of another program, or may be recorded on a recording medium together with a separate program. Moreover, it may be divided and recorded on a plurality of recording media. Further, it may be recorded in any manner as long as it can be restored, such as compression or encryption.

前述の実施の形態は、商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴に対して、顧客が購入したか否かを示す情報を教師信号として、学習モデルを作成するようにした情報処理装置及び情報処理プログラムを提供することを目的としてもよい。   In the embodiment described above, a learning model is obtained by using, as a teacher signal, information indicating whether or not a customer has purchased a feature of a customer's body or face in an image obtained by photographing a place where a product advertisement is performed. It is also possible to provide an information processing apparatus and an information processing program that are created.

前述の実施の形態は以下のように把握してもよい。
[A1]商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴を抽出する抽出手段と、
前記抽出手段によって特徴を抽出した前記顧客が購入したか否かを示す情報を教師信号として、学習モデルを作成する作成手段
を具備することを特徴とする情報処理装置。
The above-described embodiment may be grasped as follows.
[A1] Extraction means for extracting features of a customer's body or face in an image obtained by photographing a place where a product advertisement is performed;
An information processing apparatus comprising: a creation unit that creates a learning model using, as a teacher signal, information indicating whether or not the customer whose features have been extracted by the extraction unit has been purchased.

[A2]商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴を抽出する第2の抽出手段と、
前記第2の抽出手段によって抽出された特徴を、前記作成手段によって作成された学習モデルに適用することによって、前記顧客の購入意欲を判定する判定手段
を具備することを特徴とする[A1]に記載の情報処理装置。
[A2] second extraction means for extracting features of a customer's body or face in an image obtained by photographing a place where a product advertisement is performed;
[A1] characterized in that it comprises determination means for determining the customer's willingness to purchase by applying the feature extracted by the second extraction means to the learning model created by the creation means. The information processing apparatus described.

[A3]前記作成手段は、レジカウンター又は店舗の出口における画像内の顧客の体又は顔の特徴と前記抽出手段によって抽出された特徴との照合結果を、前記教師信号として用いる
ことを特徴とする[A1]又は[A2]に記載の情報処理装置。
[A3] The creation unit uses a collation result between the feature of the customer's body or face in the image at the checkout counter or the store exit and the feature extracted by the extraction unit as the teacher signal. The information processing apparatus according to [A1] or [A2].

[A4]前記広告は映像を用いたものであり、
前記抽出手段は、前記映像の各フレーム時に対応する静止画像における特徴を抽出し、
前記作成手段は、前記各フレーム時に対応する静止画像における特徴に前記教師信号による学習モデルを生成し、
前記フレーム時に対応する静止画像で購入と判断される度合いが高いフレームを、前記広告の映像において購入効果のあるフレームとして判定する、又は、前記フレーム時に対応する静止画像で購入と判断される度合いが低いフレームを、前記広告の映像において購入効果のないフレームとして判定する判定手段
をさらに具備することを特徴とする[A1]から[A3]のいずれか一項に記載の情報処理装置。
[A4] The advertisement uses video.
The extraction means extracts features in a still image corresponding to each frame of the video,
The creating means generates a learning model based on the teacher signal to a feature in a still image corresponding to each frame,
A frame having a high degree of being determined to be purchased in the still image corresponding to the frame is determined as a frame having a purchase effect in the video of the advertisement, or a degree of being determined to be purchased in the still image corresponding to the frame. The information processing apparatus according to any one of [A1] to [A3], further comprising: a determination unit that determines a low frame as a frame having no purchase effect in the video of the advertisement.

[A5]前記作成手段は、前記商品を前記顧客が触れたか否かを該商品に対する興味があるか否かを示す教師信号として用いる
ことを特徴とする[A1]から[A4]のいずれか一項に記載の情報処理装置。
[A5] Any one of [A1] to [A4], wherein the creating means uses whether or not the customer touches the product as a teacher signal indicating whether or not the customer is interested in the product. The information processing apparatus according to item.

[A6]コンピュータを、
商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴を抽出する抽出手段と、
前記抽出手段によって特徴を抽出した前記顧客が購入したか否かを示す情報を教師信号として、学習モデルを作成する作成手段
として機能させるための情報処理プログラム。
[A6]
An extraction means for extracting the characteristics of the body or face of the customer in the image obtained by photographing the place where the product advertisement is performed;
An information processing program for functioning as a creation means for creating a learning model using information indicating whether or not the customer whose features have been extracted by the extraction means has been purchased as a teacher signal.

そして、前述の発明は、以下の効果を有する。
[A1]の情報処理装置によれば、商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴に対して、顧客が購入したか否かを示す情報を教師信号として、学習モデルを作成することができる。
And the above-mentioned invention has the following effects.
According to the information processing apparatus of [A1], information indicating whether or not the customer has purchased the feature of the body or face of the customer in the image obtained by photographing the place where the product is advertised is used as a teacher signal. A learning model can be created.

[A2]の情報処理装置によれば、商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴を、学習モデルに適用することによって、顧客の購入意欲を判定することができる。   According to the information processing apparatus of [A2], the customer's willingness to purchase is determined by applying, to the learning model, the customer's body or facial features in the image obtained by photographing the place where the product is advertised. Can do.

[A3]の情報処理装置によれば、レジカウンター又は店舗の出口における画像内の顧客の体又は顔の特徴の照合結果を、教師信号として用いることができる。   According to the information processing apparatus [A3], it is possible to use, as a teacher signal, a matching result of the customer's body or facial features in the image at the checkout counter or the store exit.

[A4]の情報処理装置によれば、広告の映像において購入効果のあるフレーム、又は、購入効果のないフレームを判定することができる。   According to the information processing apparatus [A4], it is possible to determine a frame having a purchase effect or a frame having no purchase effect in an advertisement video.

[A5]の情報処理装置によれば、商品を顧客が触れたか否かを、その商品に対する興味があるか否かを示す教師信号として用いることができる。   According to the information processing apparatus of [A5], whether or not a customer touches a product can be used as a teacher signal indicating whether or not there is an interest in the product.

[A6]の情報処理プログラムによれば、商品の広告を行っている場所を撮影した画像内の顧客の体又は顔の特徴に対して、顧客が購入したか否かを示す情報を教師信号として、学習モデルを作成することができる。   According to the information processing program of [A6], information indicating whether or not the customer has purchased for the feature of the body or face of the customer in the image obtained by photographing the place where the product is advertised is used as a teacher signal. A learning model can be created.

100…情報処理(判定)装置
110…プロモーション装置
120…撮像装置
130…人・顔検出モジュール
140…画像特徴抽出モジュール
150…顧客購買意欲判定モジュール
155…学習モデル記憶モジュール
160…プロモーション選択モジュール
200…情報処理(学習)装置
210…プロモーション装置
220…撮像装置
230…人・顔検出モジュール
240…画像特徴抽出モジュール
250…画像特徴DB
260…教師信号作成モジュール
270…学習モデル作成保存モジュール
290…通信回線
300…情報処理(判定・学習)装置
400…店舗システム
410…店舗(学習)システム
930…顔検出モジュール
962…レジ撮像装置
964…顔検出モジュール
966…顔照合モジュール
1360…教師信号作成モジュール
1362…商品設置場所撮像装置
1364…顔検出モジュール
1366…行動検出モジュール
1560…教師信号作成モジュール
1562…出口撮像装置
1564…顔検出モジュール
DESCRIPTION OF SYMBOLS 100 ... Information processing (determination) apparatus 110 ... Promotion apparatus 120 ... Imaging apparatus 130 ... Human / face detection module 140 ... Image feature extraction module 150 ... Customer purchase willingness determination module 155 ... Learning model storage module 160 ... Promotion selection module 200 ... Information Processing (learning) device 210 ... Promotion device 220 ... Imaging device 230 ... Human / face detection module 240 ... Image feature extraction module 250 ... Image feature DB
260 ... Teacher signal creation module 270 ... Learning model creation storage module 290 ... Communication line 300 ... Information processing (judgment / learning) device 400 ... Store system 410 ... Store (learning) system 930 ... Face detection module 962 ... Cash register imaging device 964 ... Face detection module 966 ... Face verification module 1360 ... Teacher signal creation module 1362 ... Product installation location imaging device 1364 ... Face detection module 1366 ... Action detection module 1560 ... Teacher signal creation module 1562 ... Exit imaging device 1564 ... Face detection module

Claims (2)

商品の広告を行っている場所にいる顧客を撮影する撮影部と、
前記撮影部の撮影結果から前記顧客の動き及び前記顧客が関心を持っている商品を抽出する抽出部と、
前記顧客の動きから抽出される前記商品に対する前記顧客の関心に応じて広告の選択を行う選択部と、
を有する情報処理装置。
A filming department that shoots customers in locations where they advertise products,
An extraction unit for extracting the movement of the customer and the product that the customer is interested in from the photographing result of the photographing unit;
A selection unit that selects an advertisement according to the customer's interest in the product extracted from the movement of the customer;
An information processing apparatus.
コンピュータを、
商品の広告を行っている場所にいる顧客を撮影する撮影部と、
前記撮影部の撮影結果から前記顧客の動き及び前記顧客が関心を持っている商品を抽出する抽出部と、
前記顧客の動きから抽出される前記商品に対する前記顧客の関心に応じて広告の選択を行う選択部
として機能させるための情報処理プログラム。
Computer
A filming department that shoots customers in locations where they advertise products,
An extraction unit for extracting the movement of the customer and the product that the customer is interested in from the photographing result of the photographing unit;
An information processing program for functioning as a selection unit that selects an advertisement according to the customer's interest in the product extracted from the customer's movement.
JP2017075119A 2017-04-05 2017-04-05 Information processing apparatus and information processing program Active JP6418270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017075119A JP6418270B2 (en) 2017-04-05 2017-04-05 Information processing apparatus and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017075119A JP6418270B2 (en) 2017-04-05 2017-04-05 Information processing apparatus and information processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014179880A Division JP6428062B2 (en) 2014-09-04 2014-09-04 Information processing apparatus and information processing program

Publications (2)

Publication Number Publication Date
JP2017139010A true JP2017139010A (en) 2017-08-10
JP6418270B2 JP6418270B2 (en) 2018-11-07

Family

ID=59565945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017075119A Active JP6418270B2 (en) 2017-04-05 2017-04-05 Information processing apparatus and information processing program

Country Status (1)

Country Link
JP (1) JP6418270B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020066444A1 (en) * 2018-09-26 2021-08-30 日本電気株式会社 Customer information registration device
WO2021220897A1 (en) * 2020-04-28 2021-11-04 ソニーグループ株式会社 Information processing method, information processing device, and information processing program
JP7441673B2 (en) 2020-02-21 2024-03-01 シャープ株式会社 Learning data generation device, playback schedule learning system, and learning data generation method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092023A (en) * 2000-09-14 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> Information providing device and its method and recording medium with information providing program recorded thereon
JP2010238185A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Device and method for generating information
JP2011150425A (en) * 2010-01-19 2011-08-04 Fujifilm Imagetec Co Ltd Research device and research method
WO2015033575A1 (en) * 2013-09-06 2015-03-12 日本電気株式会社 Sales promotion system, sales promotion method, non-temporary computer-readable medium, and shelf system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092023A (en) * 2000-09-14 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> Information providing device and its method and recording medium with information providing program recorded thereon
JP2010238185A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Device and method for generating information
JP2011150425A (en) * 2010-01-19 2011-08-04 Fujifilm Imagetec Co Ltd Research device and research method
WO2015033575A1 (en) * 2013-09-06 2015-03-12 日本電気株式会社 Sales promotion system, sales promotion method, non-temporary computer-readable medium, and shelf system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020066444A1 (en) * 2018-09-26 2021-08-30 日本電気株式会社 Customer information registration device
JP7092205B2 (en) 2018-09-26 2022-06-28 日本電気株式会社 Customer information registration device
US11830002B2 (en) 2018-09-26 2023-11-28 Nec Corporation Customer information registration apparatus
JP7441673B2 (en) 2020-02-21 2024-03-01 シャープ株式会社 Learning data generation device, playback schedule learning system, and learning data generation method
WO2021220897A1 (en) * 2020-04-28 2021-11-04 ソニーグループ株式会社 Information processing method, information processing device, and information processing program

Also Published As

Publication number Publication date
JP6418270B2 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
US8351647B2 (en) Automatic detection and aggregation of demographics and behavior of people
US7617981B2 (en) Method and system for targeted marketing by leveraging video-based demographic insights
US20190108551A1 (en) Method and apparatus for customer identification and tracking system
US8295597B1 (en) Method and system for segmenting people in a physical space based on automatic behavior analysis
US20120140069A1 (en) Systems and methods for gathering viewership statistics and providing viewer-driven mass media content
US20080147488A1 (en) System and method for monitoring viewer attention with respect to a display and determining associated charges
JP5238933B2 (en) Sales information generation system with customer base
JP6500374B2 (en) Image processing apparatus and image processing program
JP6418270B2 (en) Information processing apparatus and information processing program
WO2019093293A1 (en) Customer service assisting device, customer service assisting method, and computer-readable recording medium
US20130166372A1 (en) Utilizing real-time metrics to normalize an advertisement based on consumer reaction
JP6428062B2 (en) Information processing apparatus and information processing program
WO2015003287A1 (en) Behavior recognition and tracking system and operation method therefor
JP6520218B2 (en) INFORMATION PROCESSING APPARATUS AND INFORMATION PROCESSING PROGRAM
TW201502999A (en) A behavior identification and follow up system
US20150363822A1 (en) Splitting a purchase panel into sub-groups
WO2010084744A1 (en) Customer analysis system, customer data collection device, customer analysis device, customer analysis method, and program
US20160042362A1 (en) Recording purchase behavior using device with multiple feedback and input modalities
US11615430B1 (en) Method and system for measuring in-store location effectiveness based on shopper response and behavior analysis
JP7294663B2 (en) Customer service support device, customer service support method, and program
JP6112156B2 (en) Behavior analysis apparatus and behavior analysis program
WO2020016861A1 (en) Method and system for conducting electronic commerce and retailing using emotion detection
US20230101275A1 (en) Audited training data for an item recognition machine learning model system
US20220253893A1 (en) System and Method of Tracking the Efficacy of Targeted Adaptive Digital Advertising
KR102162337B1 (en) Art auction system using data on visitors and art auction method using the same

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R150 Certificate of patent or registration of utility model

Ref document number: 6418270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350