JP2016045743A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2016045743A
JP2016045743A JP2014169914A JP2014169914A JP2016045743A JP 2016045743 A JP2016045743 A JP 2016045743A JP 2014169914 A JP2014169914 A JP 2014169914A JP 2014169914 A JP2014169914 A JP 2014169914A JP 2016045743 A JP2016045743 A JP 2016045743A
Authority
JP
Japan
Prior art keywords
person
face
unit
product
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014169914A
Other languages
Japanese (ja)
Inventor
西川 泰司
Taiji Nishikawa
泰司 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2014169914A priority Critical patent/JP2016045743A/en
Publication of JP2016045743A publication Critical patent/JP2016045743A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus which records a commodity that a customer has browsed with interest, and a program.SOLUTION: An information processing apparatus includes input means, detection means, determination means, generation means, and storage control means. The input means receives an input of an image captured by an imaging section which images a predetermined area of a shop. The detection means detects a face of a person from the image received by the input means. The determination means determines a commodity browsed by the person of the face detected by the detection means. The generation means generates browsing history information including behavior history of the person of the face detected by the detection means, who has browsed the commodity. The storage control means stores the browsing history information generated by the generation means, by person of the face detected by the detection means.SELECTED DRAWING: Figure 8

Description

本発明の実施形態は、情報処理装置およびプログラムに関する。   Embodiments described herein relate generally to an information processing apparatus and a program.

スーパーマーケットなどの店舗において顧客が商品の購入に至るには、その商品を知り、興味を持ち、取得する欲求を持ったときに、その商品が販売されている場合である。すなわち、店舗は、顧客の動作や、顧客が店舗を回遊する動線を把握し、その動線に顧客が興味を持つ商品を配置することで売上増加を期待することができる。   In a store such as a supermarket, a customer purchases a product when the product is sold when the customer knows the product, is interested, and has a desire to acquire the product. In other words, the store can expect an increase in sales by grasping the behavior of the customer and the flow line in which the customer travels around the store, and placing products that the customer is interested in on the flow line.

また、近年、カメラで撮像された画像に含まれる人物の顔を認証する顔認証システムが提案されている。従来の顔認証システムは、連続した一連の撮像データ内において、同一の特徴を有する顔画像が含まれている場合に、検出した顔画像の人物が、同一人物であると判断することが可能である。この技術を用いて、売り場に来た顧客を顔認証することにより、顧客が売り場に来たことを判断することは可能である。   In recent years, a face authentication system for authenticating a person's face included in an image captured by a camera has been proposed. The conventional face authentication system can determine that the person of the detected face image is the same person when face images having the same characteristics are included in a series of continuous imaging data. is there. Using this technology, it is possible to determine that a customer has come to the sales floor by performing face authentication on the customer who has come to the sales floor.

しかしながら、店舗や、施設を回遊する顧客が興味を持っている商品を把握するために、顧客の位置や滞在時間を把握するだけでは顧客の行動予測には情報として不十分であった。   However, in order to grasp the products that the customers who travel around stores and facilities are interested in, it is insufficient as information for predicting the behavior of the customers only by grasping the customer's position and staying time.

本発明が解決しようとする課題は、顧客が興味を持ち、閲覧した商品を記録することができる情報処理装置およびプログラムを提供することである。   The problem to be solved by the present invention is to provide an information processing apparatus and program capable of recording a product that a customer is interested in and browses.

実施形態の情報処理装置は、入力手段と、検出手段と、判定手段と、生成手段と、記憶制御手段と、を備える。前記入力手段は、店舗の所定領域を撮像する撮像部が撮像した画像の入力を受け付ける。前記検出手段は、前記入力手段が入力を受け付けた前記画像から人物の顔を検出する。前記判定手段は、前記検出手段が検出した顔の前記人物が閲覧している商品を判定する。前記生成手段は、前記検出手段が検出した顔の前記人物が商品を閲覧した行動履歴が記録された閲覧履歴情報を生成する。前記記憶制御手段は、前記生成手段が生成した前記閲覧履歴情報を、前記検出手段が検出した顔の前記人物ごとに記憶させる。   The information processing apparatus according to the embodiment includes an input unit, a detection unit, a determination unit, a generation unit, and a storage control unit. The input means receives an input of an image captured by an imaging unit that captures a predetermined area of the store. The detection means detects a human face from the image received by the input means. The determination means determines a product viewed by the person whose face is detected by the detection means. The generating unit generates browsing history information in which an action history of browsing the product by the person of the face detected by the detecting unit is recorded. The storage control unit stores the browsing history information generated by the generation unit for each person of the face detected by the detection unit.

図1は、人物認証システムの構成を概略的に示した説明図である。FIG. 1 is an explanatory diagram schematically showing the configuration of the person authentication system. 図2は、人物認証システムを店舗に設置した場合の一例を示す説明図である。FIG. 2 is an explanatory diagram showing an example when the person authentication system is installed in a store. 図3は、サーバ装置のハードウェア構成を示すブロック図である。FIG. 3 is a block diagram illustrating a hardware configuration of the server apparatus. 図4は、人物認証辞書のデータ構成の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of the data configuration of the person authentication dictionary. 図5は、カメラのハードウェア構成を示すブロック図である。FIG. 5 is a block diagram illustrating a hardware configuration of the camera. 図6は、人物認証システムの機能構成を示すブロック図である。FIG. 6 is a block diagram showing a functional configuration of the person authentication system. 図7は、人物が閲覧している商品の判定に用いられたフレーム画像の一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating an example of a frame image used for determining a product that a person is browsing. 図8は、人物認証処理の流れを示すフローチャートである。FIG. 8 is a flowchart showing the flow of the person authentication process. 図9は、閲覧履歴情報生成処理の流れを示すフローチャートである。FIG. 9 is a flowchart showing the flow of browsing history information generation processing.

以下、添付図面を参照して実施形態の情報処理装置及びプログラムを詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。   Hereinafter, an information processing apparatus and a program according to embodiments will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.

図1は、人物認証システム1の構成を概略的に示した説明図である。図1に示すように人物認証システム1は、サーバ装置10と、用途の異なる2種類のカメラ20a、20bとを備える。カメラ20aは、後述する人物認証辞書D1(図3参照)に登録された人物であるか否かを顔認証し、人物認証辞書D1(図3参照)に登録するための動画像を撮像する用途で使用される。一方、カメラ20bは、人物認証辞書D1(図3参照)に登録された人物を人物認証の対象外とするための動画像を撮像する用途で使用される。そして、人物認証システム1は、それぞれ一台以上のカメラ20a、20bを備え、所定領域を撮像する。ここで、サーバ装置10と、カメラ20a、20bとは、LAN(Local Area Network)30で接続される。LAN30は、有線であってもよいし、無線であってもよい。また、LAN30は、各種公衆網であってもよい。   FIG. 1 is an explanatory diagram schematically showing the configuration of the person authentication system 1. As shown in FIG. 1, the person authentication system 1 includes a server device 10 and two types of cameras 20a and 20b having different uses. The camera 20a performs face authentication as to whether or not the person is registered in a person authentication dictionary D1 (see FIG. 3) described later, and captures a moving image for registration in the person authentication dictionary D1 (see FIG. 3). Used in. On the other hand, the camera 20b is used for capturing a moving image for excluding a person registered in the person authentication dictionary D1 (see FIG. 3) from the person authentication target. The person authentication system 1 includes one or more cameras 20a and 20b, respectively, and images a predetermined area. Here, the server apparatus 10 and the cameras 20 a and 20 b are connected by a LAN (Local Area Network) 30. The LAN 30 may be wired or wireless. The LAN 30 may be various public networks.

サーバ装置10は、カメラ20a、20bが撮像した動画像から人物の顔を認証し、動画像から人物が閲覧していた商品の履歴が記憶された閲覧履歴情報を生成する情報処理装置である。そして、サーバ装置10は、生成した閲覧履歴情報を人物ごとに記憶する。なお、サーバ装置10は、クラスタ化された複数の情報処理装置であってもよい。   The server device 10 is an information processing device that authenticates a person's face from moving images captured by the cameras 20a and 20b, and generates browsing history information in which the history of products viewed by the person is stored from the moving images. Then, the server device 10 stores the generated browsing history information for each person. The server device 10 may be a plurality of clustered information processing devices.

次に、人物認証システム1をスーパーマーケットなどの店舗Mに設置した場合を例に説明する。ここで、図2は、人物認証システム1を店舗Mに設置した場合の一例を示す説明図である。   Next, a case where the person authentication system 1 is installed in a store M such as a supermarket will be described as an example. Here, FIG. 2 is an explanatory diagram showing an example when the person authentication system 1 is installed in the store M.

図2に示す店舗Mは、大別すると、バックヤードM1と、売り場M2と、出入り口M3とを有する。バックヤードM1は、商品倉庫や、商品のパッケージングや、商品の発注などの店舗運営に関する業務を行う場所である。また、バックヤードM1には、サーバ装置10が設置される。   The store M shown in FIG. 2 roughly includes a backyard M1, a sales floor M2, and an entrance M3. The backyard M1 is a place where operations relating to store operations such as a product warehouse, product packaging, and product ordering are performed. The server device 10 is installed in the backyard M1.

売り場M2は、商品を販売する場所である。また、売り場M2には、店舗Mを回遊する人物を撮像するカメラ20aと、人物が購入対象とする商品の売上登録をするPOS(Point Of Sale)端末40と、商品を陳列する棚50とが設けられる。顧客である人物は、店舗Mに来店すると売り場M2を回遊し、購入対象の商品を選択する。その際に、カメラ20aは、人物を撮像する。そして、サーバ装置10は、カメラ20aが撮像した動画像に含まれる人物の顔を認証し、その人物ごとに撮像したカメラ20aの識別情報と、撮像時刻とを記録する。これにより、人物ごとに行動を追跡することができる。さらに、サーバ装置10は、人物の顔の向きから人物が閲覧している商品を判定することにより、閲覧履歴情報を生成することができる。図2に示す店舗Mには、4台のカメラ20aと、4台のPOS端末40と、4組の棚50とが記載されているが、各個数は、これに限らず、任意の個数を設定してよい。   The sales floor M2 is a place where products are sold. In addition, the sales floor M2 includes a camera 20a that captures a person traveling around the store M, a POS (Point Of Sale) terminal 40 for registering sales of products that the person purchases, and a shelf 50 that displays the products. Provided. When a person who is a customer visits the store M, he or she visits the sales floor M2 and selects a product to be purchased. At that time, the camera 20a images a person. Then, the server device 10 authenticates the face of the person included in the moving image captured by the camera 20a, and records the identification information of the camera 20a captured for each person and the imaging time. Thereby, action can be tracked for every person. Furthermore, the server device 10 can generate browsing history information by determining a product that the person is browsing from the direction of the face of the person. In the store M shown in FIG. 2, four cameras 20a, four POS terminals 40, and four sets of shelves 50 are described. May be set.

また、図2に示すカメラ20aは、棚50と並行方向に向けて配置されている。しかし、カメラ20aの配置場所及びカメラ20aを向ける方向は問わない。例えば、カメラ20aは、棚50の上に配置し、棚50と垂直方向に向けて配置してもよい。   Further, the camera 20 a shown in FIG. 2 is arranged in a direction parallel to the shelf 50. However, the arrangement location of the camera 20a and the direction in which the camera 20a is directed are not limited. For example, the camera 20 a may be arranged on the shelf 50 and arranged in a direction perpendicular to the shelf 50.

出入り口M3は、売り場M2に出入りする人物の出入り口である。また、出入り口M3は、売り場M2から退出する人物の顔を撮像する方向に向けられたカメラ20bを有する。サーバ装置10は、カメラ20aが人物の顔を撮像すると、既に人物認証情報があるか否かを判定する。その際、来店したことのある全ての人物認証情報と比較するとサーバ装置10の処理負担が大きくなる。そこで、売り場M2から退出する人物を除外することで、処理負担の増大を抑えることができる。なお、出入り口M3は、売り場M2に入場する人物の顔を撮像する方向に向けてカメラ20aを設置してもよい。これにより、来店した全ての人物の顔を認証することができる。   The entrance / exit M3 is an entrance / exit of a person entering / exiting the sales floor M2. Further, the entrance / exit M3 includes a camera 20b directed in a direction for capturing an image of the face of a person leaving the sales floor M2. When the camera 20a captures a person's face, the server apparatus 10 determines whether there is already person authentication information. In that case, the processing load of the server apparatus 10 becomes large compared with all the person authentication information that has visited the store. Therefore, by excluding persons who leave the sales floor M2, an increase in processing load can be suppressed. In addition, you may install the camera 20a toward the direction which images the face of the person who enters the sales floor M2 in the entrance / exit M3. This makes it possible to authenticate the faces of all persons who have visited the store.

次に、実施形態の人物認証システム1が有する各部について説明する。   Next, each part which the person authentication system 1 of embodiment has is demonstrated.

まず、サーバ装置10のハードウェア構成を説明する。図3は、サーバ装置10のハードウェア構成を示すブロック図である。サーバ装置10は、人物認証システム1を制御する情報処理装置である。図3に示すように、サーバ装置10は、CPU(Central Processing Unit)11と、メモリ12と、記憶部13と、ネットワークインターフェース14と、表示部15と、入力部16と、時計部17とを備える。   First, the hardware configuration of the server device 10 will be described. FIG. 3 is a block diagram illustrating a hardware configuration of the server device 10. The server device 10 is an information processing device that controls the person authentication system 1. As shown in FIG. 3, the server device 10 includes a CPU (Central Processing Unit) 11, a memory 12, a storage unit 13, a network interface 14, a display unit 15, an input unit 16, and a clock unit 17. Prepare.

CPU11は、サーバ装置10の全体を制御する。メモリ12は、データを一時的に記憶する。記憶部13は、CPU11からの命令で読み書きが可能であり、プログラムやデータ等を記憶する。また、記憶部13は、人物認証プログラムP1と、人物認証辞書D1と、性別顔認証辞書D2と、年齢別顔認証辞書D3と、商品レイアウトファイルF1とを記憶する。   The CPU 11 controls the entire server device 10. The memory 12 temporarily stores data. The storage unit 13 is readable and writable by commands from the CPU 11 and stores programs, data, and the like. The storage unit 13 also stores a person authentication program P1, a person authentication dictionary D1, a gender face authentication dictionary D2, an age face authentication dictionary D3, and a product layout file F1.

人物認証プログラムP1は、カメラ20a、20bが撮像した動画像から人物の顔を認証し、認証した人物の人物認証情報を人物認証辞書D1に記憶させるプログラムである。   The person authentication program P1 is a program that authenticates a person's face from moving images captured by the cameras 20a and 20b, and stores the person authentication information of the authenticated person in the person authentication dictionary D1.

人物認証辞書D1は、カメラ20aが過去に撮像した動画像から認証した人物ごとに人物認証情報を記憶する。ここで、図4は、人物認証辞書D1のデータ構成の一例を示す説明図である。人物認証辞書D1は、人物識別情報に対応付けられた1以上の人物認証情報を有する。人物識別情報は、人物ごとに割り振られた、人物を識別可能な識別情報である。人物認証情報は、動画像から抽出した人物の認証に関する情報である。なお、人物認証情報は、人物の顔の正面が向けられた動画像を代表するフレーム画像から抽出した人物の認証に関する情報であってもよい。   The person authentication dictionary D1 stores person authentication information for each person authenticated from a moving image captured by the camera 20a in the past. Here, FIG. 4 is an explanatory diagram showing an example of the data configuration of the person authentication dictionary D1. The person authentication dictionary D1 has one or more person authentication information associated with the person identification information. The person identification information is identification information assigned to each person and capable of identifying the person. The person authentication information is information related to person authentication extracted from the moving image. The person authentication information may be information related to person authentication extracted from a frame image representing a moving image with the front of the person faced.

そして、人物認証情報は、動画像と、特徴量と、カメラ識別情報と、撮像時刻と、1以上の閲覧履歴情報とを有する。動画像は、その人物を認証した動画像である。動画像は、人物の顔の正面が向けられた動画像を代表するフレーム画像であってもよい。特徴量は、人物を認証した動画像から抽出した、その人物の特徴量である。ここで、人物の特徴量とは、人物の顔から抽出された特徴量や、人物の服飾から抽出された特徴量などである。服飾の特徴量とは、例えば、人物が着ている服の色などである。カメラ識別情報は、動画像を撮像したカメラ20aを識別する識別情報である。撮像時刻は、カメラ20aが動画像を撮像した時刻である。閲覧履歴情報は、動画像において、人物が商品を閲覧した行動履歴を、商品ごとに記憶した情報である。   The person authentication information includes a moving image, a feature amount, camera identification information, an imaging time, and one or more browsing history information. The moving image is a moving image obtained by authenticating the person. The moving image may be a frame image representing a moving image in which the front of a person's face is directed. The feature amount is a feature amount of the person extracted from the moving image in which the person is authenticated. Here, the feature amount of a person is a feature amount extracted from a person's face, a feature amount extracted from a person's clothing, or the like. The feature amount of clothes is, for example, the color of clothes worn by a person. The camera identification information is identification information for identifying the camera 20a that captured the moving image. The imaging time is the time when the camera 20a captures a moving image. The browsing history information is information in which an action history of a person browsing a product in a moving image is stored for each product.

そして、閲覧履歴情報は、人物が閲覧した商品の商品識別情報と、閲覧時間と、閲覧回数とを有する。商品識別情報は、商品を識別可能な識別情報である。閲覧時間は、人物が商品識別情報の商品を閲覧した時間の合計を示す行動履歴である。閲覧回数は、人物が商品識別情報の商品を閲覧した回数の合計を示す行動履歴である。   The browsing history information includes product identification information of a product browsed by a person, a browsing time, and a browsing count. The product identification information is identification information that can identify the product. The browsing time is an action history indicating the total time when a person browsed products of the product identification information. The number of times of browsing is an action history indicating the total number of times that a person has browsed products of the product identification information.

性別顔認証辞書D2は、性別ごとの顔の特徴点が記憶された情報である。すなわち、性別顔認証辞書D2は、男性の顔の特徴点と、女性の顔の特徴点とを有する。性別顔認証辞書D2は、人物の顔画像から抽出された特徴量と、性別顔認証辞書D2に記憶された特徴量とを比較し、人物が男性であるか女性であるかの判定に使用される。   The gender face authentication dictionary D2 is information in which facial feature points for each gender are stored. That is, the gender face authentication dictionary D2 has a feature point of a male face and a feature point of a female face. The gender face authentication dictionary D2 is used for comparing a feature amount extracted from a person's face image with a feature amount stored in the gender face authentication dictionary D2 to determine whether the person is male or female. The

年齢別顔認証辞書D3は、年齢ごとの顔の特徴点が記憶された情報である。年齢別顔認証辞書D3は、人物の顔画像から抽出された特徴量と、年齢別顔認証辞書D3に記憶された特徴量とを比較し、人物の年齢の判定に用いられる。なお、年齢別顔認証辞書D3は、年代ごとであってもよい。または、年齢別顔認証辞書D3は、幼年期、少年期、青年期、壮年期、中年期、高年期などの年齢を示す区分であってもよい。   The age-specific face authentication dictionary D3 is information in which facial feature points for each age are stored. The age-specific face authentication dictionary D3 is used to determine the age of a person by comparing the feature amount extracted from the person's face image with the feature amount stored in the age-specific face authentication dictionary D3. The age-specific face authentication dictionary D3 may be for each age. Alternatively, the age-specific face authentication dictionary D3 may be a category indicating age such as childhood, boyhood, adolescence, middle age, middle age, and older age.

商品レイアウトファイルF1は、店舗Mの売り場M2の商品配置が記憶されたファイルである。商品レイアウトファイルF1は、例えば、棚50を識別可能な棚識別情報と、商品識別情報とを対応付けて記憶させる。これにより、どの棚50にどの商品が配置されているかがわかる。または、カメラ20aが撮像した動画像において、商品が配置された位置を示す座標が記憶されていてもよい。   The product layout file F1 is a file in which the product arrangement of the store M2 of the store M is stored. The product layout file F1 stores, for example, shelf identification information that can identify the shelf 50 and product identification information in association with each other. As a result, it can be seen which merchandise is placed on which shelf 50. Or the coordinate which shows the position where goods are arranged may be memorized in the moving picture which camera 20a picturized.

ネットワークインターフェース14は、LAN30に接続される。なお、LAN30は、各種公衆網であってもよい。表示部15は、各種情報を表示するディスプレイなどである。入力部16は、キーボードやマウスなどの入力装置から入力された情報を制御する。または、入力部16は、表示部15に積層されたタッチパネル入力された情報を制御する。時計部17は、時間を計時する。   The network interface 14 is connected to the LAN 30. The LAN 30 may be various public networks. The display unit 15 is a display that displays various types of information. The input unit 16 controls information input from an input device such as a keyboard or a mouse. Alternatively, the input unit 16 controls information input from the touch panel stacked on the display unit 15. The clock unit 17 measures time.

次に、カメラ20a、20bについて説明する。図5は、カメラ20a、20bのハードウェア構成を示すブロック図である。カメラ20aと、カメラ20bとは、用途は異なるが、機能及び構成は同一である。なお、カメラ20aと、カメラ20bとは、用途が異なることから、機能及び構成が異なっていてもよい。よって、下記にて、カメラ20aを例に説明する。   Next, the cameras 20a and 20b will be described. FIG. 5 is a block diagram illustrating a hardware configuration of the cameras 20a and 20b. Although the camera 20a and the camera 20b have different uses, the functions and configurations are the same. Since the camera 20a and the camera 20b have different uses, functions and configurations may be different. Therefore, the camera 20a will be described below as an example.

カメラ20aは、カメラ20aが設置された所定領域を撮像し、撮像した動画像をサーバ装置10に送信する撮像装置である。図5に示すように、カメラ20aは、CPU21と、メモリ22と、記憶部23と、ネットワークインターフェース24と、撮像部25と、時計部26とを備える。   The camera 20 a is an imaging device that captures an image of a predetermined area where the camera 20 a is installed and transmits the captured moving image to the server device 10. As shown in FIG. 5, the camera 20 a includes a CPU 21, a memory 22, a storage unit 23, a network interface 24, an imaging unit 25, and a clock unit 26.

CPU21は、カメラ20aの全体を制御する。メモリ22は、データを一時的に記憶する。記憶部23は、CPU21からの命令で読み書きが可能であり、プログラムやデータ等を記憶する。ネットワークインターフェース24は、LAN30に接続される。時計部26は、時間を計時する。   The CPU 21 controls the entire camera 20a. The memory 22 temporarily stores data. The storage unit 23 can be read and written by commands from the CPU 21 and stores programs, data, and the like. The network interface 24 is connected to the LAN 30. The clock unit 26 measures time.

撮像部25は、カメラ20aの撮像範囲内に存在する人物や物体等の被写体を撮像し、カラー画像情報を収集する。例えば、撮像部25は、被写体表面で反射される光を受光素子で検知し、可視光を電気信号に変換する。受光素子とは、例えば、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などである。そして、撮像部25は、その電気信号をデジタルデータに変換することにより、撮像範囲に対応する1フレームのカラー画像情報を生成する。この1フレーム分のカラー画像情報には、例えば、この1フレームに含まれる各画素にRGB(Red Green Blue)値が対応付けられた色情報と、この1フレームに含まれる各画素に輝度値が対応付けられた輝度情報とが含まれる。   The imaging unit 25 captures a subject such as a person or an object existing within the imaging range of the camera 20a, and collects color image information. For example, the imaging unit 25 detects light reflected from the subject surface with a light receiving element, and converts visible light into an electrical signal. The light receiving element is, for example, a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD). And the imaging part 25 produces | generates the color image information of 1 frame corresponding to an imaging range by converting the electrical signal into digital data. The color image information for one frame includes, for example, color information in which RGB (Red Green Blue) values are associated with each pixel included in the one frame, and a luminance value for each pixel included in the one frame. And associated luminance information.

撮像部25は、次々に検知される可視光から連続する複数フレームのカラー画像情報を生成することで動画像を生成する。なお、撮像部25によって生成されるカラー画像情報は、各画素のRGB値をビットマップに配置したカラー画像として出力されても良い。   The imaging unit 25 generates a moving image by generating color image information of a plurality of continuous frames from visible light detected one after another. Note that the color image information generated by the imaging unit 25 may be output as a color image in which the RGB values of each pixel are arranged in a bitmap.

次に、実施形態にかかる人物認証システム1が有する特徴的な機能について説明する。図6は、人物認証システム1の機能構成を示すブロック図である。   Next, characteristic functions of the person authentication system 1 according to the embodiment will be described. FIG. 6 is a block diagram showing a functional configuration of the person authentication system 1.

カメラ20a、20bのCPU21は、メモリ22や記憶部23に記憶された制御プログラムに従って動作することで、撮像制御部211と、送信部212として機能する。   The CPUs 21 of the cameras 20 a and 20 b function as the imaging control unit 211 and the transmission unit 212 by operating according to the control program stored in the memory 22 or the storage unit 23.

撮像制御部211は、カメラ20a、20bの撮像部25を制御して、カメラ20a、20bが設置された所定領域の動画像を撮像する。また、撮像制御部211は、撮像部25が撮像した撮像時刻を計時する。   The imaging control unit 211 controls the imaging unit 25 of the cameras 20a and 20b to capture a moving image of a predetermined area where the cameras 20a and 20b are installed. Further, the imaging control unit 211 measures the imaging time when the imaging unit 25 images.

送信部212は、撮像制御部211が撮像した動画像と、撮像時刻とをサーバ装置10に順次送信する。この時、送信部212は、1フレーム画像ごとに動画像を送信してもよいし、複数フレーム画像ごとに動画像を送信してもよい。ここで、フレーム画像とは、動画像の1コマごとのカラー画像情報を示す。   The transmission unit 212 sequentially transmits the moving image captured by the imaging control unit 211 and the imaging time to the server device 10. At this time, the transmission unit 212 may transmit a moving image for each frame image, or may transmit a moving image for each of a plurality of frame images. Here, the frame image indicates color image information for each frame of a moving image.

サーバ装置10のCPU11は、メモリ12や記憶部13に記憶された制御プログラムに従って動作することで、受信部111と、顔検出部112と、顔角度判定部113と、位置算出部114と、商品判定部115と、閲覧履歴生成部116と、特徴量抽出部117と、属性判定部118と、類似度算出部119と、類似度判定部120と、登録部121と、除外部122として機能する。   The CPU 11 of the server device 10 operates according to the control program stored in the memory 12 or the storage unit 13, thereby receiving the reception unit 111, the face detection unit 112, the face angle determination unit 113, the position calculation unit 114, It functions as a determination unit 115, a browsing history generation unit 116, a feature amount extraction unit 117, an attribute determination unit 118, a similarity calculation unit 119, a similarity determination unit 120, a registration unit 121, and an exclusion unit 122. .

入力手段である受信部111は、カメラ20a、20bから送信された動画像と、撮像時刻とを順次受信する。これにより、受信部111は、動画像などの撮像データの入力を受け付ける。   The receiving unit 111 as input means sequentially receives the moving images transmitted from the cameras 20a and 20b and the imaging time. Thereby, the receiving unit 111 receives input of imaging data such as a moving image.

検出手段である顔検出部112は、受信部111が受信した動画像から、動画像に含まれる人物の顔を検出する。また、顔検出部112は、検出した人物ごとに、新規な人物識別情報を割り当てる。具体的には、顔検出部112は、フレーム画像の輝度情報を利用して顔の領域を示す座標を求める。なお、顔領域を求める方法は、どのような方法を用いてもよい。検出手法の一例としては、予め用意されたテンプレートを、入力された画像データ内で移動させながら相関値を求めることで、最も高い相関値を与える位置を顔領域として検出する手法などである。または、固有空間法や部分空間法を利用した顔抽出法等を用いる手法を適用してもよい。また、検出する顔領域の形状は、任意の形状で良いし、顔の向きや大きさの検出結果によって顔領域の形状を異ならせても良い。   The face detection unit 112 serving as detection means detects a human face included in the moving image from the moving image received by the receiving unit 111. Further, the face detection unit 112 assigns new person identification information for each detected person. Specifically, the face detection unit 112 obtains coordinates indicating the face area using luminance information of the frame image. Note that any method may be used as a method of obtaining the face area. As an example of the detection method, there is a method of detecting a position that gives the highest correlation value as a face region by obtaining a correlation value while moving a template prepared in advance in input image data. Alternatively, a method using a face extraction method using an eigenspace method or a subspace method may be applied. The shape of the face area to be detected may be any shape, and the shape of the face area may be varied depending on the detection result of the face orientation and size.

ところで、カメラ20a、20bなどで撮像された動画像の場合、検出された同一人物の顔が、連続した一連のフレーム画像にわたって連続して映っていることが想定される。このため、これらを同一人物として対応付けできるように人物の顔の追跡処理を行う必要がある。この追跡処理の実現手法は、オプティカルフローを用いて検出した顔が、次のフレームでどの位置に存在するかを推定し、対応付ける手法等を利用する。この追跡処理は、同一人物として対応付けられた顔領域が顔検出部112により検出されず、追跡終了の判定が行われるまで継続される。   By the way, in the case of moving images captured by the cameras 20a, 20b, etc., it is assumed that the detected face of the same person is continuously shown over a series of consecutive frame images. For this reason, it is necessary to perform tracking processing of a person's face so that they can be associated as the same person. As a method for realizing the tracking process, a method of estimating and associating a position where the face detected using the optical flow exists in the next frame is used. This tracking process is continued until the face area associated with the same person is not detected by the face detection unit 112 and the tracking end is determined.

顔角度判定部113は、カメラ20aにより撮像された動画像に含まれている人物の顔の角度、すなわち、顔が向いている方向を判定する。顔角度判定部113が行う顔向き角度を判定する手法は、どのような手法を用いてもよく、公知の技術を用いるものとする。一例としては、予め角度ラベル付き顔画像テンプレートを記憶部13に記憶する。そして、顔角度判定部113は、撮像された動画像と、角度ラベル付き顔画像テンプレートとを比較して、顔の角度を判定する手法などである。または、顔の特徴的な箇所を検出し、当該特徴的な箇所の位置座標に基づいて、顔の角度を判定する手法などであってもよい。   The face angle determination unit 113 determines the face angle of the person included in the moving image captured by the camera 20a, that is, the direction in which the face is facing. Any method may be used as the method of determining the face orientation angle performed by the face angle determination unit 113, and a known technique is used. As an example, a face image template with an angle label is stored in the storage unit 13 in advance. The face angle determining unit 113 compares the captured moving image with a face image template with an angle label to determine a face angle. Alternatively, a method of detecting a characteristic part of the face and determining a face angle based on the position coordinates of the characteristic part may be used.

位置算出部114は、カメラ20aが撮像した動画像に含まれる人物がいる位置を算出する。カメラ20aは、売り場M2の所定領域を撮像する位置に配置される。顔検出部112は、動画像から人物の顔画像を検出し、顔画像が検出された位置を示す座標を算出する。よって、位置算出部114は、カメラ20aの撮像範囲と、顔画像の座標とを基に、動画像に含まれる顔画像の人物がいる位置を算出する。   The position calculation unit 114 calculates a position where a person included in the moving image captured by the camera 20a is present. The camera 20a is arranged at a position for imaging a predetermined area of the sales floor M2. The face detection unit 112 detects a face image of a person from the moving image and calculates coordinates indicating the position where the face image is detected. Therefore, the position calculation unit 114 calculates the position where the person of the face image included in the moving image is present based on the imaging range of the camera 20a and the coordinates of the face image.

判定手段である商品判定部115は、カメラ20aが撮像した動画像から顔検出部112が検出した顔の人物が閲覧している商品を判定する。商品判定部115は、位置算出部114が算出した人物の位置と、顔角度判定部113が判定した人物の顔の角度、すなわち人物の向きと、予め記憶部13に記憶された売り場M2の商品レイアウトファイルF1とを基に、人物が閲覧している商品を判定する。   The product determination unit 115 serving as a determination unit determines a product viewed by a person whose face is detected by the face detection unit 112 from a moving image captured by the camera 20a. The product determination unit 115 calculates the position of the person calculated by the position calculation unit 114, the face angle of the person determined by the face angle determination unit 113, that is, the orientation of the person, and the product of the sales floor M2 stored in the storage unit 13 in advance. Based on the layout file F1, the product being viewed by the person is determined.

ここで、図7は、人物が閲覧している商品の判定に用いられたフレーム画像の一例を示す説明図である。カメラ20aは、売り場M2の所定領域を撮像する。これにより、フレーム画像に含まれる人物は、そのカメラ20aの撮像領域にいることになる。顔検出部112は、フレーム画像から人物の顔を検出し、X方向とY方向とにおける座標を検出する。これにより、顔検出部112は、人物の顔がカメラ20aの撮像領域のどの位置にいるかを検出することができる。顔角度判定部113は、フレーム画像に含まれる人物の顔の角度を判定する。これにより、顔角度判定部113は、人物の顔の向き、すなわち、人物の視線を推定することができる。そして、商品判定部115は、検出された人物の位置及び人物の視線とから算出された場所、並びに売り場M2の商品レイアウトとを比較することで人物が閲覧している商品を判定することができる。   Here, FIG. 7 is an explanatory diagram illustrating an example of a frame image used for determining a product viewed by a person. The camera 20a images a predetermined area of the sales floor M2. As a result, the person included in the frame image is in the imaging area of the camera 20a. The face detection unit 112 detects a human face from the frame image, and detects coordinates in the X direction and the Y direction. Thereby, the face detection unit 112 can detect the position of the human face in the imaging region of the camera 20a. The face angle determination unit 113 determines the face angle of the person included in the frame image. Thereby, the face angle determination unit 113 can estimate the face direction of the person, that is, the line of sight of the person. And the goods determination part 115 can determine the goods which the person is browsing by comparing the place calculated from the position of the detected person and a person's eyes | visual_axis, and the product layout of the sales floor M2. .

図6に戻り、生成手段である閲覧履歴生成部116は、顔検出部112が検出した顔の人物が、商品を閲覧した行動履歴が記録された閲覧履歴情報を生成する。閲覧履歴生成部116は、商品ごとに、商品の閲覧回数や、商品の閲覧時間などの行動履歴を計測することで閲覧履歴情報を生成する。   Returning to FIG. 6, the browsing history generation unit 116, which is a generation unit, generates browsing history information in which an action history of a person whose face detected by the face detection unit 112 has browsed a product is recorded. The browsing history generation unit 116 generates browsing history information for each product by measuring an action history such as the number of times the product has been browsed and the browsing time of the product.

閲覧履歴生成部116は、商品判定部115が商品を判定した場合において、時系列的に前のフレーム画像から判定した商品と、現在のフレーム画像から判定した商品とが異なる場合に、現在のフレーム画像から判定した商品の閲覧回数をカウントアップする。最初に商品を判定した場合も、閲覧履歴生成部116は、判定した商品の閲覧回数をカウントアップする。   When the product determination unit 115 determines a product, the browsing history generation unit 116 determines that the current frame is different from the product determined from the previous frame image in time series and the product determined from the current frame image. Count up the number of product browsing times determined from the image. Even when the product is determined first, the browsing history generation unit 116 counts up the number of times the determined product is viewed.

一方、閲覧履歴生成部116は、時系列的に前のフレーム画像から判定した商品と、現在のフレーム画像から判定した商品とが同一である場合に、現在のフレーム画像から判定した商品の閲覧時間に、前回のフレーム画像から現在のフレーム画像を撮像するまでにかかった時間を加算する。そして、動画像の全てのフレーム画像について判定することで、閲覧履歴生成部116は、商品ごとに閲覧回数と、閲覧時間とを計測する。   On the other hand, when the product determined from the previous frame image in time series and the product determined from the current frame image are the same, the browsing history generation unit 116 browses the product determined from the current frame image. In addition, the time taken to capture the current frame image from the previous frame image is added. And the browsing history production | generation part 116 measures the frequency | count of browsing and browsing time for every goods by determining about all the frame images of a moving image.

なお、閲覧履歴生成部116は、動画像からフレーム画像を間引いて閲覧時間を計測してもよい。すなわち、閲覧履歴生成部116は、1フレーム画像ごとではなく、2フレーム画像ごとや、3フレーム画像ごとなどの複数フレーム画像ごとに計測してもよい。これにより、処理負担を軽減することができる。   Note that the browsing history generation unit 116 may measure the browsing time by thinning out the frame image from the moving image. That is, the browsing history generation unit 116 may perform measurement for each of a plurality of frame images such as every two frame images or every three frame images instead of every frame image. Thereby, a processing burden can be reduced.

特徴量抽出部117と、類似度算出部119と、類似度判定部120とは、人物認証辞書D1に登録された人物であるか否かを認証する。   The feature quantity extraction unit 117, the similarity calculation unit 119, and the similarity determination unit 120 authenticate whether or not the person is registered in the person authentication dictionary D1.

まず、特徴量抽出部117は、顔検出部112により検出した顔の人物の特徴量を抽出する。特徴量抽出部117は、追跡処理により複数のフレーム画像にわたって検出された顔領域から、フレーム画像ごとに目、鼻、口などの顔の特徴点を検出する。そして、特徴量抽出部117は、特徴点ごとに特徴量を抽出する。特徴量は、特徴点の形状、表面の色合い、凹凸状況等の外観の特徴をパラメータ化したものである。なお、設定等によって検出すべき顔の特徴点は任意に変更することができる。また、特徴量抽出部117における顔の特徴点の検出方法は、どのような方法を用いてもよく、公知の技術を用いるものとする。   First, the feature quantity extraction unit 117 extracts the feature quantity of the face person detected by the face detection unit 112. The feature amount extraction unit 117 detects facial feature points such as eyes, nose, and mouth for each frame image from face regions detected over a plurality of frame images by the tracking process. Then, the feature quantity extraction unit 117 extracts a feature quantity for each feature point. The feature amount is a parameterization of appearance features such as the shape of feature points, the color of the surface, and unevenness. The feature points of the face to be detected can be arbitrarily changed by setting or the like. In addition, any method may be used as a method for detecting facial feature points in the feature quantity extraction unit 117, and a known technique is used.

また、特徴量抽出部117は、顔検出部112が検出した人物の服飾から特徴量を抽出する。特徴量抽出部117は、人物の衣服や、装身具などから色を特徴量として抽出する。これにより、人物認証辞書D1に登録された人物であるか否かの判定に、人物の服飾も加味される。よって、認証精度を高めることができる。   The feature amount extraction unit 117 extracts a feature amount from the person's clothing detected by the face detection unit 112. The feature amount extraction unit 117 extracts a color as a feature amount from a person's clothes or jewelry. As a result, the clothes of the person are also added to the determination of whether or not the person is registered in the person authentication dictionary D1. Therefore, authentication accuracy can be increased.

属性判定部118は、カメラ20aが撮像した画像に含まれる人物の属性を判定する。属性とは、性別や、年齢などである。属性判定部118は、特徴量抽出部117が抽出した特徴点の特徴量と、記憶部13に記憶された性別顔認証辞書D2とを比較することで、人物の性別を判定する。また、属性判定部118は、特徴量抽出部117が抽出した特徴点の特徴量と、記憶部13に記憶された年齢別顔認証辞書D3とを比較することで、人物の年齢を判定する。なお、年齢は、年代や、年齢を示す区分などであってもよい。   The attribute determination unit 118 determines the attribute of a person included in the image captured by the camera 20a. The attributes include sex and age. The attribute determination unit 118 determines the gender of the person by comparing the feature amount of the feature point extracted by the feature amount extraction unit 117 with the gender face authentication dictionary D2 stored in the storage unit 13. Further, the attribute determination unit 118 determines the age of the person by comparing the feature amount of the feature point extracted by the feature amount extraction unit 117 with the age-specific face authentication dictionary D3 stored in the storage unit 13. The age may be an age or a category indicating age.

類似度算出部119は、人物認証辞書D1に登録された人物ごとの特徴量と、特徴量抽出部117が抽出した特徴量とを比較し、人物ごとの類似度を算出する。ここで、類似度は、カメラ20a、20bが撮像した人物の特徴量と、人物認証辞書D1に登録された各人物の特徴量とを比較し、両特徴量がどの程度類似しているかを示す値(類似度)であればよい。   The similarity calculation unit 119 compares the feature amount for each person registered in the person authentication dictionary D1 with the feature amount extracted by the feature amount extraction unit 117, and calculates the similarity for each person. Here, the similarity indicates how much the two feature quantities are similar by comparing the feature quantity of the person captured by the cameras 20a and 20b with the feature quantity of each person registered in the person authentication dictionary D1. Any value (similarity) may be used.

類似度判定部120は、類似度が閾値以上の人物が登録されているか否かを判定する。類似度判定部120は、類似度算出部119が算出した類似度のうち、その類似度が所定の閾値以上の場合に、該当する人物の人物認証情報が人物認証辞書D1に登録されていると判定する。一方、類似度が閾値未満の場合には、類似度判定部120は、該当する人物の人物認証情報が人物認証辞書D1に登録されていないと判定する。そして、閾値以上の人物認証情報が複数ある場合には、類似度判定部120は、最も類似度の高い人物を、カメラ20a、20bが撮像した人物として判定する。   The similarity determination unit 120 determines whether a person whose similarity is equal to or greater than a threshold is registered. The similarity determination unit 120 determines that the person authentication information of the corresponding person is registered in the person authentication dictionary D1 when the similarity is greater than or equal to a predetermined threshold among the similarities calculated by the similarity calculation unit 119. judge. On the other hand, when the similarity is less than the threshold, the similarity determination unit 120 determines that the person authentication information of the corresponding person is not registered in the person authentication dictionary D1. If there are a plurality of pieces of person authentication information equal to or greater than the threshold, the similarity determination unit 120 determines the person with the highest similarity as the person captured by the cameras 20a and 20b.

なお、閾値以上の類似度の人物認証情報が複数ある場合には、類似度判定部120は、判定不可と判定し、後段の処理から、閾値以上の類似度の人物認証情報が複数ある動画像を除外してもよい。閾値以上の類似度の人物認証情報が複数ある場合には、カメラ20a、20bが撮像した動画像が不鮮明である可能性がある。信頼性の低い不鮮明な動画像を除外することにより、類似度判定部120は、信頼性を担保することができる。また、類似度判定部120は、所定の閾値として、任意の値を設定することができるものとする。   When there are a plurality of pieces of person authentication information having a degree of similarity equal to or greater than the threshold, the similarity degree determination unit 120 determines that the determination is not possible, and from a subsequent process, a moving image having a plurality of pieces of person authentication information having a degree of similarity equal to or greater than the threshold May be excluded. When there are a plurality of pieces of person authentication information having a degree of similarity equal to or greater than the threshold, the moving images captured by the cameras 20a and 20b may be unclear. By excluding unclear moving images with low reliability, the similarity determination unit 120 can ensure reliability. Moreover, the similarity determination part 120 shall be able to set arbitrary values as a predetermined threshold value.

記憶制御手段である登録部121は、カメラ20aが撮像した動画像に係る人物認証情報を、人物認証辞書D1に顔検出部112が検出した顔の人物ごとに登録することで記憶させる。登録部121は、類似度を判定した動画像と、特徴量抽出部117が抽出した特徴量と、動画像を送信したカメラ20aの識別情報と、動画像を撮像した撮像時刻と、動画像から生成された閲覧履歴情報とを人物認証情報として人物認証辞書D1に登録することで記憶させる。   The registration unit 121, which is a storage control unit, stores the person authentication information related to the moving image captured by the camera 20a by registering it in the person authentication dictionary D1 for each face person detected by the face detection unit 112. The registration unit 121 determines from the moving image whose similarity is determined, the feature amount extracted by the feature amount extraction unit 117, the identification information of the camera 20a that transmitted the moving image, the imaging time when the moving image was captured, and the moving image. The generated browsing history information is stored in the person authentication dictionary D1 as person authentication information.

登録部121が行う登録には、新規登録と、追加登録とがある。登録部121は、類似度判定部120が閾値以上の人物の人物認証情報が人物認証辞書D1に登録されていないと判定した場合に、新規登録する。登録部121は、顔検出部112が割り当てた新規な人物識別情報を用いて、属性情報と、人物認証情報とを人物認証辞書D1に登録する。   The registration performed by the registration unit 121 includes new registration and additional registration. The registration unit 121 newly registers when the similarity determination unit 120 determines that person authentication information of a person equal to or greater than the threshold is not registered in the person authentication dictionary D1. The registration unit 121 registers the attribute information and the person authentication information in the person authentication dictionary D1 using the new person identification information assigned by the face detection unit 112.

一方、登録部121は、類似度判定部120が閾値以上の人物の人物認証情報が人物認証辞書D1に登録されていると判定した場合に、追加登録する。登録部121は、人物認証辞書D1に登録された、該当する人物の人物認証情報に、今回の撮像に係る人物認証情報を対応付けて登録する。このように、登録部121は、追加登録することにより、該当する人物識別情報の人物認証情報が増加する。これにより、類似度算出部119は、複数の人物認証情報と比較することができるため、判定結果の信頼性を向上させることができる。   On the other hand, the registration unit 121 performs additional registration when the similarity determination unit 120 determines that person authentication information of a person equal to or greater than the threshold is registered in the person authentication dictionary D1. The registration unit 121 registers the person authentication information related to the current imaging in association with the person authentication information of the corresponding person registered in the person authentication dictionary D1. As described above, the registration unit 121 performs additional registration to increase the person authentication information of the corresponding person identification information. Thereby, since the similarity calculation part 119 can compare with several person authentication information, it can improve the reliability of a determination result.

除外部122は、人物認証辞書D1の所定の人物を、類似度算出部119の対象から除外する。これにより、類似度算出部119は、除外した人物の類似度を算出しない。従って、除外部122は、処理負担を軽減することができる。除外部122は、カメラ20bが撮像した動画像に含まれる人物に該当する人物認証情報が登録されている場合に、該当する人物認証情報の人物を、類似度の算出対象から除外する。または、除外部122は、所定時間が経過した人物認証情報がある場合に、該当する人物認証情報の人物を、類似度の算出対象から除外する。   The exclusion unit 122 excludes a predetermined person in the person authentication dictionary D1 from the target of the similarity calculation unit 119. Thereby, the similarity calculation unit 119 does not calculate the similarity of the excluded person. Therefore, the exclusion unit 122 can reduce the processing burden. When the person authentication information corresponding to the person included in the moving image captured by the camera 20b is registered, the excluding unit 122 excludes the person with the corresponding person authentication information from the similarity calculation target. Alternatively, when there is person authentication information for which a predetermined time has elapsed, the exclusion unit 122 excludes the person with the corresponding person authentication information from the similarity calculation target.

まず、カメラ20bが撮像した動画像に含まれる人物に該当する人物認証情報が人物認証辞書D1に登録されている場合について説明する。カメラ20aが売り場M2にいない人物を撮像することはない。従って、除外部122は、売り場M2から退出する人物を除外することで、サーバ装置10の処理負担を軽減することができる。ここで、カメラ20bは、売り場M2から退出する人物の顔を撮像する方向に向けられている。よって、カメラ20bは、売り場M2から退出する人物を撮像することができる。そして、除外部122は、撮像された動画像に含まれる人物の顔を検出し、特徴量を抽出し、類似度を算出し、類似度を判定することで認証された退出した人物を、類似度の算出対象から除外する。   First, a case where person authentication information corresponding to a person included in a moving image captured by the camera 20b is registered in the person authentication dictionary D1 will be described. The camera 20a does not capture a person who is not in the sales floor M2. Therefore, the exclusion unit 122 can reduce the processing load on the server device 10 by excluding persons who leave the sales floor M2. Here, the camera 20b is directed in a direction to image the face of a person leaving the sales floor M2. Therefore, the camera 20b can capture an image of a person leaving the sales floor M2. Then, the excluding unit 122 detects the face of the person included in the captured moving image, extracts the feature amount, calculates the similarity, and determines the retired person who has been authenticated by determining the similarity. Exclude from degree calculation target.

次に、所定時間が経過した人物認証情報がある場合について説明する。除外部122は、所定時間が経過した人物認証情報の人物を類似度の算出対象から除外する。人物が売り場M2を回遊する時間には限度がある。よって、除外部122は、売り場M2にいないと考えられるので、所定時間が経過した人物認証情報の人物を、類似度の算出対象から除外する。これにより、カメラ20bが売り場M2から退出する人物の顔を撮像することができなかった場合であっても、除外部122は、該当する人物認証情報の人物を、類似度の算出対象から除外することができる。または、撮像できても人物認証辞書D1に含まれる人物であると判定できなかった場合であっても、除外部122は、該当する人物認証情報の人物を、類似度の算出対象から除外することができる。なお、所定時間の起算点は、問わない。所定時間の起算点の一例としては、人物認証辞書D1に人物認証情報が最初に登録された時や、人物認証辞書D1に人物認証情報が最後に登録された時などである。   Next, a case where there is person authentication information for which a predetermined time has elapsed will be described. The excluding unit 122 excludes the person whose personal authentication information has passed a predetermined time from the similarity calculation target. There is a limit to the time for a person to travel around the sales floor M2. Therefore, since it is considered that the exclusion unit 122 is not in the sales floor M2, the person of the personal authentication information after a predetermined time has been excluded from the similarity calculation target. Thereby, even when the camera 20b cannot capture the face of the person who leaves the sales floor M2, the excluding unit 122 excludes the person with the corresponding person authentication information from the similarity calculation target. be able to. Alternatively, even if the image can be captured but cannot be determined to be a person included in the person authentication dictionary D1, the excluding unit 122 excludes the person with the corresponding person authentication information from the similarity calculation target. Can do. The starting point for the predetermined time is not limited. An example of the starting point of the predetermined time is when the person authentication information is first registered in the person authentication dictionary D1, or when the person authentication information is registered last in the person authentication dictionary D1.

次に、上述した実施形態にかかるサーバ装置10のCPU11が制御プログラムに従って実行する人物認証処理について説明する。実施形態にかかるサーバ装置10は、カメラ20aが撮像した動画像を用いて、人物認証処理を実行する。   Next, a person authentication process executed by the CPU 11 of the server device 10 according to the above-described embodiment according to the control program will be described. The server apparatus 10 according to the embodiment executes person authentication processing using a moving image captured by the camera 20a.

図8は、サーバ装置10のCPU11が制御プログラムに従って実行する人物認証処理の流れを示すフローチャートである。   FIG. 8 is a flowchart showing the flow of person authentication processing executed by the CPU 11 of the server device 10 according to the control program.

まず、サーバ装置10のCPU11(受信部111)は、カメラ20aが撮像した動画像を受信する(ステップS11)。   First, the CPU 11 (reception unit 111) of the server device 10 receives a moving image captured by the camera 20a (step S11).

次いで、サーバ装置10のCPU11(顔検出部112)は、受信した動画像から顔を検出することができるか否かを判定する(ステップS12)。顔を検出することができない場合に(ステップS12;No)、サーバ装置10のCPU11(受信部111)は、ステップS11に戻り、動画像を受信する。   Next, the CPU 11 (face detection unit 112) of the server device 10 determines whether or not a face can be detected from the received moving image (step S12). When a face cannot be detected (step S12; No), the CPU 11 (reception unit 111) of the server device 10 returns to step S11 and receives a moving image.

一方、顔を検出することができた場合に(ステップS12;Yes)、サーバ装置10のCPU11(顔検出部112)は、検出した顔に新規な人物識別情報を割り当てる(ステップS13)。   On the other hand, when the face can be detected (step S12; Yes), the CPU 11 (face detection unit 112) of the server device 10 assigns new person identification information to the detected face (step S13).

次いで、サーバ装置10のCPU11(受信部111)は、受信した動画像を保存する(ステップS14)。次いで、サーバ装置10のCPU11(顔検出部112)は、受信した動画像から検出された顔がフレームアウトしたか否かを判定する(ステップS15)。   Next, the CPU 11 (reception unit 111) of the server device 10 stores the received moving image (step S14). Next, the CPU 11 (face detection unit 112) of the server device 10 determines whether or not the face detected from the received moving image is out of frame (step S15).

検出された顔がフレームアウトしていない場合に(ステップS15;No)、サーバ装置10のCPU11は、ステップS14に戻り、受信した動画像を保存する。   When the detected face is not out of frame (step S15; No), the CPU 11 of the server device 10 returns to step S14 and stores the received moving image.

一方、検出された顔がフレームアウトした場合に(ステップS15;Yes)、サーバ装置10のCPU11は、後述する閲覧履歴情報を生成する処理を実行する(ステップS16)。   On the other hand, when the detected face is out of frame (step S15; Yes), the CPU 11 of the server device 10 executes processing for generating browsing history information described later (step S16).

次いで、サーバ装置10のCPU11(特徴量抽出部117、類似度算出部119、類似度判定部120)は、検出した顔の人物が、人物認証辞書D1に登録された同一人物であるか否かの認証処理を実行する(ステップS17)。サーバ装置10のCPU11は、検出された顔の特徴量を抽出する。サーバ装置10のCPU11は、抽出した特徴量と、人物認証辞書D1に登録された人物認証情報の特徴量とを比較して類似度を算出する。そして、サーバ装置10のCPU11は、算出された類似度を基に、人物認証辞書D1に登録された人物であるか否かを認証する。   Next, the CPU 11 (feature amount extraction unit 117, similarity calculation unit 119, similarity determination unit 120) of the server device 10 determines whether or not the detected face person is the same person registered in the person authentication dictionary D1. The authentication process is executed (step S17). The CPU 11 of the server device 10 extracts the detected face feature amount. The CPU 11 of the server device 10 compares the extracted feature quantity with the feature quantity of the person authentication information registered in the person authentication dictionary D1, and calculates the similarity. Then, the CPU 11 of the server device 10 authenticates whether or not the person is registered in the person authentication dictionary D1 based on the calculated similarity.

次いで、サーバ装置10のCPU11は、人物認証により、検出した顔の人物と同一人物が、人物認証辞書D1に登録されていると認証されたか否かを判定する(ステップS18)。検出した顔の人物と同一人物が、人物認証辞書D1に登録されていると認証された場合に(ステップS18;Yes)、サーバ装置10のCPU11(登録部121)は、人物認証辞書D1の該当する人物識別情報に人物認証情報を追加登録する(ステップS19)。   Next, the CPU 11 of the server device 10 determines whether or not the same person as the detected face person has been registered in the person authentication dictionary D1 by person authentication (step S18). When it is authenticated that the same person as the detected face person is registered in the person authentication dictionary D1 (step S18; Yes), the CPU 11 (registration unit 121) of the server device 10 corresponds to the person authentication dictionary D1. The person authentication information is additionally registered in the person identification information to be executed (step S19).

一方、検出した顔の人物と同一人物が、人物認証辞書D1に登録されていると認証されなかった場合に(ステップS18;No)、サーバ装置10のCPU11(属性判定部118)は、カメラ20aが撮像した動画像に含まれる人物の属性を判定し、属性情報を生成する(ステップS20)。サーバ装置10のCPU11(属性判定部118)は、人物の性別や、年齢を判定する。   On the other hand, when it is not authenticated that the same person as the detected face person is registered in the person authentication dictionary D1 (step S18; No), the CPU 11 (attribute determination unit 118) of the server device 10 receives the camera 20a. The attribute of the person included in the moving image captured by is determined and attribute information is generated (step S20). The CPU 11 (attribute determination unit 118) of the server device 10 determines the gender and age of the person.

次いで、サーバ装置10のCPU11(登録部121)は、人物識別情報を付与して人物認証辞書D1に人物認証情報を新規登録する(ステップS21)。   Next, the CPU 11 (registration unit 121) of the server device 10 adds the person identification information and newly registers the person authentication information in the person authentication dictionary D1 (step S21).

以上により、サーバ装置10のCPU11は、人物認証処理を終了する。   As described above, the CPU 11 of the server device 10 ends the person authentication process.

次に、上述した実施形態にかかるサーバ装置10のCPU11が制御プログラムに従って実行する閲覧履歴情報生成処理について説明する。   Next, browsing history information generation processing executed by the CPU 11 of the server device 10 according to the above-described embodiment according to the control program will be described.

図9は、サーバ装置10のCPU11が制御プログラムに従って実行する閲覧履歴情報生成処理の流れを示すフローチャートである。   FIG. 9 is a flowchart showing a flow of browsing history information generation processing executed by the CPU 11 of the server device 10 according to the control program.

まず、サーバ装置10のCPU11(顔角度判定部113)は、検出された顔の角度、すなわち、顔の向きを判定する(ステップS31)。次いで、サーバ装置10のCPU11(位置算出部114)は、カメラ20aが撮像した動画像に含まれる人物がいる位置を算出する(ステップS32)。次いで、サーバ装置10のCPU11(商品判定部115)は、カメラ20aが撮像した動画像に含まれる人物が閲覧している商品を判定する(ステップS33)。   First, the CPU 11 (face angle determination unit 113) of the server device 10 determines the detected face angle, that is, the face orientation (step S31). Next, the CPU 11 (position calculation unit 114) of the server device 10 calculates the position where the person included in the moving image captured by the camera 20a is present (step S32). Next, the CPU 11 (product determination unit 115) of the server device 10 determines a product viewed by a person included in the moving image captured by the camera 20a (step S33).

次いで、サーバ装置10のCPU11(商品判定部115)は、前回のフレーム画像と、現在のフレーム画像とにおいて、人物が同一商品を閲覧しているか否かを判定する(ステップS34)。   Next, the CPU 11 (product determination unit 115) of the server device 10 determines whether or not a person is browsing the same product in the previous frame image and the current frame image (step S34).

人物が同一商品を閲覧している場合に(ステップS34;Yes)、サーバ装置10のCPU11(閲覧履歴生成部116)は、前回のフレーム画像から現在のフレーム画像を撮像するまでにかかった時間を、閲覧している商品の閲覧時間に加算する(ステップS35)。   When a person is browsing the same product (step S34; Yes), the CPU 11 (browsing history generation unit 116) of the server device 10 determines the time taken to capture the current frame image from the previous frame image. Then, it is added to the browsing time of the product being browsed (step S35).

一方、人物が同一商品を閲覧していない場合に(ステップS34;No)、サーバ装置10のCPU11(閲覧履歴生成部116)は、閲覧している商品の閲覧回数をカウントアップする(ステップS36)。   On the other hand, when the person is not browsing the same product (step S34; No), the CPU 11 (browsing history generation unit 116) of the server device 10 counts up the number of browsing of the product being browsed (step S36). .

次いで、サーバ装置10のCPU11は、人物がフレームアウトするまでの動画像の全フレーム画像について処理が終了したか否かを判定する(ステップS37)。動画像の全フレーム画像について処理が終了していない場合に(ステップS37;No)、サーバ装置10のCPU11は、ステップS31に戻る。   Next, the CPU 11 of the server device 10 determines whether or not processing has been completed for all frame images of the moving image until the person is out of frame (step S37). When the processing has not been completed for all the frame images of the moving image (step S37; No), the CPU 11 of the server device 10 returns to step S31.

一方、動画像の全フレーム画像について処理が終了した場合に(ステップS37;Yes)、サーバ装置10のCPU11は、一連の閲覧履歴情報生成処理を終了する。   On the other hand, when the processing is completed for all the frame images of the moving image (step S37; Yes), the CPU 11 of the server device 10 ends the series of browsing history information generation processing.

以上のように、本実施形態のサーバ装置10によれば、店舗の所定領域を撮像するカメラ20aが撮像した動画像を受信する。サーバ装置10は、受信した動画像から人物の顔を検出し、その人物の顔が向いている方向を判定する。また、サーバ装置10は、動画像における、顔がある位置を示す座標を算出し、その人物がいる位置を算出する。そして、サーバ装置10は、判定された人物の顔が向いている方向と、人物がいる位置と、店舗の商品レイアウトとから人物が閲覧している商品を判定し、閲覧履歴情報を生成して記憶させる。よって、顧客が興味を持ち、閲覧した商品を記録することができる。   As described above, according to the server device 10 of the present embodiment, a moving image captured by the camera 20a that captures a predetermined area of a store is received. The server device 10 detects a person's face from the received moving image and determines the direction in which the person's face is facing. In addition, the server device 10 calculates coordinates indicating a position where the face is present in the moving image, and calculates a position where the person is present. Then, the server device 10 determines the product that the person is browsing from the direction in which the determined person's face is facing, the position where the person is, and the product layout of the store, and generates browsing history information Remember me. Therefore, it is possible to record a product that the customer is interested in and browses.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

なお、上述の実施形態において、サーバ装置10は、カメラ20a、20bが撮像し、順次送信された動画像を受信部111が受信することによって、動画像の入力を受け付けている。しなしながら、動画像の入力方式はこれに限らない。動画像は、カメラ20a、20bが過去に撮像し、撮りためられた動画ファイルなどであってもよい。   In the above-described embodiment, the server device 10 accepts the input of a moving image when the receiving unit 111 receives the moving images sequentially captured by the cameras 20a and 20b. However, the moving image input method is not limited to this. The moving image may be a moving image file captured by the cameras 20a and 20b in the past.

なお、上述の実施形態において、サーバ装置10の商品判定部115は、位置算出部114が算出した人物の位置と、顔角度判定部113が判定した人物の向きと、商品レイアウトファイルF1とから人物が閲覧している商品を判定している。しかしながら、人物が閲覧している商品の判定は、これに限らない。例えば、カメラ20aが撮像した動画像のフレーム画像から、公知のオブジェクト認識技術を用いて、商品(商品名)を認識する形態であってもよい。   In the above-described embodiment, the product determination unit 115 of the server device 10 determines the person from the position of the person calculated by the position calculation unit 114, the orientation of the person determined by the face angle determination unit 113, and the product layout file F1. Is determining the item being viewed. However, the determination of the product that the person is browsing is not limited to this. For example, a product (product name) may be recognized from a frame image of a moving image captured by the camera 20a using a known object recognition technique.

上記実施形態や変形例の各装置で実行されるプログラムは、各装置が備える記憶媒体(ROM又は記憶部)に予め組み込んで提供するものとするが、これに限らないものとする。例えば、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。さらに、記憶媒体は、コンピュータ或いは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記憶媒体も含まれる。   The program executed by each device of the above-described embodiment or modification is provided by being incorporated in advance in a storage medium (ROM or storage unit) included in each device, but is not limited thereto. For example, an installable or executable file is recorded on a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, or a DVD (Digital Versatile Disk). You may comprise. Furthermore, the storage medium is not limited to a medium independent of a computer or an embedded system, but also includes a storage medium in which a program transmitted via a LAN, the Internet, or the like is downloaded and stored or temporarily stored.

また、上記実施形態や変形例の各装置で実行されるプログラムをインターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよいし、インターネット等のネットワーク経由で提供又は配布するように構成してもよい。   Further, the program executed by each device of the above-described embodiment or modification may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network, or the Internet It may be configured to be provided or distributed via a network.

1 人物認証システム
10 サーバ装置
11 CPU
111 受信部
112 顔検出部
113 顔角度判定部
114 位置算出部
115 商品判定部
116 閲覧履歴生成部
117 特徴量抽出部
118 属性判定部
119 類似度算出部
120 類似度判定部
121 登録部
122 除外部
13 記憶部
D1 人物認証辞書
D2 性別顔認証辞書
D3 年齢別顔認証辞書
F1 商品レイアウトファイル
20a、20b カメラ
21 CPU
211 撮像制御部
212 送信部
DESCRIPTION OF SYMBOLS 1 Person authentication system 10 Server apparatus 11 CPU
111 reception unit 112 face detection unit 113 face angle determination unit 114 position calculation unit 115 product determination unit 116 browsing history generation unit 117 feature amount extraction unit 118 attribute determination unit 119 similarity calculation unit 120 similarity determination unit 121 registration unit 122 exclusion unit 13 storage unit D1 person authentication dictionary D2 gender face authentication dictionary D3 age face authentication dictionary F1 product layout file 20a, 20b camera 21 CPU
211 Imaging control unit 212 Transmission unit

特開2013−65119号公報JP2013-65119A

Claims (6)

店舗の所定領域を撮像する撮像部が撮像した画像の入力を受け付ける入力手段と、
前記入力手段が入力を受け付けた前記画像から人物の顔を検出する検出手段と、
前記検出手段が検出した顔の前記人物が閲覧している商品を判定する判定手段と、
前記検出手段が検出した顔の前記人物が商品を閲覧した行動履歴が記録された閲覧履歴情報を生成する生成手段と、
前記生成手段が生成した前記閲覧履歴情報を、前記検出手段が検出した顔の前記人物ごとに記憶させる記憶制御手段と、
を備える情報処理装置。
An input unit that receives an input of an image captured by an imaging unit that captures a predetermined area of the store;
Detecting means for detecting a human face from the image received by the input means;
Determination means for determining a product viewed by the person of the face detected by the detection means;
Generating means for generating browsing history information in which an action history in which the person of the face detected by the detecting means has browsed a product is recorded;
Storage control means for storing the browsing history information generated by the generating means for each person of the face detected by the detecting means;
An information processing apparatus comprising:
前記生成手段は、前記判定手段が時系列的に前の画像から判定した商品と、前記判定手段が判定した商品とが別の場合に、当該商品の閲覧回数を増加させる、
請求項1に記載の情報処理装置。
When the product determined by the determination unit from the previous image in time series and the product determined by the determination unit are different, the generation unit increases the number of times the product is viewed.
The information processing apparatus according to claim 1.
前記生成手段は、前記判定手段が時系列的に前の画像から判定した商品と、前記判定手段が判定した商品とが同じ場合に、当該商品の閲覧時間を加算する、
請求項1又は2に記載の情報処理装置。
When the product determined by the determination unit from the previous image in time series is the same as the product determined by the determination unit, the generation unit adds the browsing time of the product.
The information processing apparatus according to claim 1 or 2.
前記記憶制御手段は、前記画像から抽出された前記人物の特徴量と、予め記憶された性別ごとの特徴量とを比較することで判定された前記人物の性別を更に記憶させる、
請求項1乃至3の何れか一項に記載の情報処理装置。
The storage control means further stores the gender of the person determined by comparing the feature amount of the person extracted from the image with the feature amount of each gender stored in advance.
The information processing apparatus according to any one of claims 1 to 3.
前記記憶制御手段は、前記画像から抽出された前記人物の特徴量と、予め記憶された年齢ごとの特徴量とを比較することで判定された前記人物の年齢を更に記憶させる、
請求項1乃至4の何れか一項に記載の情報処理装置。
The storage control means further stores the age of the person determined by comparing the feature amount of the person extracted from the image with a feature amount for each age stored in advance.
The information processing apparatus according to any one of claims 1 to 4.
コンピュータを、
店舗の所定領域を撮像する撮像部が撮像した画像の入力を受け付ける入力手段と、
前記入力手段が入力を受け付けた前記画像から人物の顔を検出する検出手段と、
前記検出手段が検出した顔の前記人物が閲覧している商品を判定する判定手段と、
前記検出手段が検出した顔の前記人物が商品を閲覧した行動履歴が記録された閲覧履歴情報を生成する生成手段と、
前記生成手段が生成した前記閲覧履歴情報を、前記検出手段が検出した顔の前記人物ごとに記憶させる記憶制御手段と、
として機能させるためのプログラム。
Computer
An input unit that receives an input of an image captured by an imaging unit that captures a predetermined area of the store;
Detecting means for detecting a human face from the image received by the input means;
Determination means for determining a product viewed by the person of the face detected by the detection means;
Generating means for generating browsing history information in which an action history in which the person of the face detected by the detecting means has browsed a product is recorded;
Storage control means for storing the browsing history information generated by the generating means for each person of the face detected by the detecting means;
Program to function as.
JP2014169914A 2014-08-22 2014-08-22 Information processing apparatus and program Pending JP2016045743A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014169914A JP2016045743A (en) 2014-08-22 2014-08-22 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014169914A JP2016045743A (en) 2014-08-22 2014-08-22 Information processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2016045743A true JP2016045743A (en) 2016-04-04

Family

ID=55636245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014169914A Pending JP2016045743A (en) 2014-08-22 2014-08-22 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2016045743A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128895A (en) * 2017-02-09 2018-08-16 富士電機機器制御株式会社 Support system, support apparatus, support method, and program
JP2019087175A (en) * 2017-11-10 2019-06-06 日本電信電話株式会社 Action condition estimation apparatus, action condition estimation method and program thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055594A (en) * 2008-07-31 2010-03-11 Nec Software Kyushu Ltd Traffic line management system and program
JP2013125293A (en) * 2011-12-13 2013-06-24 Nikon Corp Information analysis system
JP2013238973A (en) * 2012-05-14 2013-11-28 Nec Corp Purchase information management system, merchandise movement detection device and purchase information management method
JP2014026350A (en) * 2012-07-24 2014-02-06 Takashi Hirabayashi Interest level measurement system, interest level measurement device, and interest level measurement program
JP2014106628A (en) * 2012-11-26 2014-06-09 Hitachi Systems Ltd Consumer needs analyzing system and consumer needs analyzing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055594A (en) * 2008-07-31 2010-03-11 Nec Software Kyushu Ltd Traffic line management system and program
JP2013125293A (en) * 2011-12-13 2013-06-24 Nikon Corp Information analysis system
JP2013238973A (en) * 2012-05-14 2013-11-28 Nec Corp Purchase information management system, merchandise movement detection device and purchase information management method
JP2014026350A (en) * 2012-07-24 2014-02-06 Takashi Hirabayashi Interest level measurement system, interest level measurement device, and interest level measurement program
JP2014106628A (en) * 2012-11-26 2014-06-09 Hitachi Systems Ltd Consumer needs analyzing system and consumer needs analyzing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128895A (en) * 2017-02-09 2018-08-16 富士電機機器制御株式会社 Support system, support apparatus, support method, and program
JP7011801B2 (en) 2017-02-09 2022-01-27 株式会社アットソリューションズ Support systems, support devices, support methods and programs
JP2019087175A (en) * 2017-11-10 2019-06-06 日本電信電話株式会社 Action condition estimation apparatus, action condition estimation method and program thereof

Similar Documents

Publication Publication Date Title
US11023908B2 (en) Information processing apparatus for performing customer gaze analysis
US10839227B2 (en) Queue group leader identification
JP6172380B2 (en) POS terminal device, POS system, product recognition method and program
US20170169297A1 (en) Computer-vision-based group identification
EP3467709B1 (en) Face recognition system for personal identification and authentication
JP5740210B2 (en) Face image search system and face image search method
TWI778030B (en) Store apparatus, store management method and program
TW201907350A (en) Offline shopping guide method and device
US20160203499A1 (en) Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
JP6500374B2 (en) Image processing apparatus and image processing program
WO2016203718A1 (en) Facial recognition system, facial recognition server, and customer information presentation method
JP2019020986A (en) Human flow analysis method, human flow analysis device, and human flow analysis system
JP2017083980A (en) Behavior automatic analyzer and system and method
JP2019066700A (en) Control method, information processing apparatus, and control program
JP6289308B2 (en) Information processing apparatus and program
CN109074498A (en) Visitor's tracking and system for the region POS
KR20160011804A (en) The method for providing marketing information for the customers of the stores based on the information about a customers' genders and ages detected by using face recognition technology
CN107231519B (en) Video processing apparatus and control method
JP2016045743A (en) Information processing apparatus and program
US20140085180A1 (en) Selecting an interaction scenario based on an object
US20220276705A1 (en) Information processing method, information processing device, and non-transitory computer readable storage medium
JP6944020B2 (en) Information processing device
US20210182542A1 (en) Determining sentiments of customers and employees
JP2019083058A (en) Image processor and image processing program
WO2023148856A1 (en) Purchase analysis device, purchase analysis method, and non-transitory computer-readable medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171017