JP2014042235A - Audience rating survey system, facial expression information generation device, and facial expression information generation program - Google Patents

Audience rating survey system, facial expression information generation device, and facial expression information generation program Download PDF

Info

Publication number
JP2014042235A
JP2014042235A JP2013153150A JP2013153150A JP2014042235A JP 2014042235 A JP2014042235 A JP 2014042235A JP 2013153150 A JP2013153150 A JP 2013153150A JP 2013153150 A JP2013153150 A JP 2013153150A JP 2014042235 A JP2014042235 A JP 2014042235A
Authority
JP
Japan
Prior art keywords
person
facial expression
image data
detected
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013153150A
Other languages
Japanese (ja)
Other versions
JP6254785B2 (en
Inventor
Takashi Hirabayashi
隆 平林
Yasuhiko Tokushima
保彦 徳島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2013153150A priority Critical patent/JP6254785B2/en
Publication of JP2014042235A publication Critical patent/JP2014042235A/en
Application granted granted Critical
Publication of JP6254785B2 publication Critical patent/JP6254785B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an audience rating survey system, a facial expression information generation device, and a facial expression information generation program that are capable of taking statistics of facial expressions of persons and the number of the persons.SOLUTION: A facial expression information generation device comprises: acquisition means that acquires moving image data; person detection means that detects persons from the moving image data; facial expression detection means that detects facial expressions from the faces of the detected persons; storage means that stores the number of the persons, the facial expressions, and dates and times when the facial expressions are detected in an associated manner; and statistics means that takes statistics of the facial expressions and the number of the persons at each specific time. Thereby, facial expression information useful for marketing uses is obtained.

Description

本発明は、視聴率調査システム、並びに表情情報生成装置及び表情情報生成プログラムに関するものである。   The present invention relates to an audience rating survey system, a facial expression information generation device, and a facial expression information generation program.

従来、ビデオカメラで撮影した撮影データから人物を検出し、人数をカウントするようになされた人数判断装置が提案されている(例えば特許文献2参照)。   2. Description of the Related Art Conventionally, a number determination device has been proposed in which a person is detected from shooting data shot by a video camera and the number of people is counted (see, for example, Patent Document 2).

特開平8-272878号公報JP-A-8-272878

しかしながら、撮影された人物の人数をカウントするだけでなく、人物の表情を情報として取得したいという要望があった。   However, there is a demand not only to count the number of photographed persons but also to acquire the facial expressions of the persons as information.

本発明は以上の点を考慮してなされたもので、人物の表情に関して有益な情報を生成できる表情情報生成方法及び表情情報生成プログラムを提供しようとするものである。 The present invention has been made in view of the above points, and an object of the present invention is to provide a facial expression information generation method and facial expression information generation program capable of generating useful information regarding a facial expression of a person.

かかる課題を解決するため、本発明の表情情報生成装置は、動画像データを取得する取得手段と、動画像データから人物を検出する人物検出手段と、検出された人物の顔から表情を検出する表情検出手段と、人物の数と、表情と、表情が検出された日時とを関連付けて記憶する記憶手段と、特定の時間ごとに、表情と人物の数とを統計する統計手段とを有するようにした。   In order to solve such a problem, the expression information generation apparatus of the present invention detects an expression from an acquisition unit that acquires moving image data, a person detection unit that detects a person from the moving image data, and a detected human face. Expression means detecting means, storage means for storing the number of persons, expression and date and time when the expression is detected in association with each other, and statistical means for statistically calculating the number of expressions and the number of persons for each specific time I made it.

これにより、表情情報生成措置は、特定の時間ごとに、人物の表情と人物の数とを統計することができるため、撮影場所における人物の表情から、様々な情報を得ることができる。   As a result, the facial expression information generating means can statistic the facial expressions and the number of persons at specific times, so that various information can be obtained from the facial expressions of the persons at the shooting location.

さらに、本発明の表情情報生成プログラムは、動画像データを取得する取得ステップと、動画像データから人物を検出する人物検出ステップと、検出された人物の顔から表情を検出する表情検出ステップと、人物数と、表情と、表情が検出された日時とを関連付けて記憶する記憶ステップと、特定の時間ごとに、表情と人物の数とを統計する統計ステップとを有するようにした。   Furthermore, the expression information generation program of the present invention includes an acquisition step of acquiring moving image data, a person detection step of detecting a person from the moving image data, an expression detection step of detecting an expression from the detected face of the person, A storing step for storing the number of persons, an expression, and the date and time when the expression is detected in association with each other, and a statistical step for statistically calculating the number of expressions and the number of persons at a specific time are provided.

これにより、表情情報生成装置は、特定の時間ごとに、人物の表情と人物の数とを統計することができるため、撮影場所における人物の表情から、様々な情報を得ることができる。   As a result, the facial expression information generating apparatus can statistic the facial expressions and the number of persons at specific time intervals, so that various information can be obtained from the facial expressions of the persons at the shooting location.

さらに、本発明の表情情報生成装置は、動画像データから人物を検出し、検出された人物の顔から表情を検出する表情検出手段と、人物の年齢及び性別を検出情報として決定する検出情報決定手段と、検出情報に対応して色分けされた枠及び表情の度合いを、動画像データにおける人物の動きに対応させるよう画面データを生成する画面データ生成手段とを有するようにした。   Furthermore, the expression information generation apparatus of the present invention detects a person from moving image data, detects expression from the detected person's face, and detection information determination that determines the age and sex of the person as detection information. And screen data generating means for generating screen data so that the color-coded frame and the degree of expression corresponding to the detection information correspond to the movement of the person in the moving image data.

これにより、表情情報生成装置は、人物の年齢及び性別に応じて色分けした枠を表示することにより、ユーザに対して人物の年齢及び性別を一目で認識させることができ、年齢と表情との関係を視認させやすくできる。   Thereby, the facial expression information generating device can display the frame color-coded according to the age and sex of the person so that the user can recognize the age and sex of the person at a glance, and the relationship between the age and the facial expression. Can be easily seen.

さらに、本発明の表情生成プログラムは、動画像データから人物を検出し、検出された人物の顔から表情を検出する表情検出ステップと、人物の年齢及び性別を検出情報として決定する検出情報決定ステップと、検出情報に対応して色分けされた枠及び表情の度合いを、動画像データにおける人物の動きに対応させるよう画面データを生成する画面データ生成ステップとを有するようにした。   Further, the expression generation program of the present invention detects a person from moving image data, detects an expression from the detected person's face, and a detection information determination step that determines the age and sex of the person as detection information And a screen data generation step for generating screen data so that the color-coded frame and the degree of expression corresponding to the detection information correspond to the movement of the person in the moving image data.

これにより、表情情報生成プログラムは、人物の年齢及び性別に応じて色分けした枠を表示することにより、ユーザに対して人物の年齢及び性別を一目で認識させることができ、年齢と表情との関係を視認させやすくできる。   Thereby, the facial expression information generation program can make the user recognize the age and gender of the person at a glance by displaying a color-coded frame according to the age and sex of the person, and the relationship between the age and the facial expression. Can be easily seen.

さらに、本発明の視聴率調査システムは、映像データを表示する表示手段と、映像データを視聴する人物を撮影する撮影手段と、撮影手段によって撮影された動画像データを送信する送信手段とを有する端末装置と、動画像データを取得する取得手段と、動画像データから人物を検出する人物検出手段と、検出された人物の顔から表情を検出する表情検出手段と、人物の数と、表情と、表情が検出された日時とを関連付けて記憶する記憶手段と特定の時間ごとに、表情と人物の数とを統計する統計手段とを有する表情情報生成装置とを有するようにした。 Furthermore, the audience rating survey system of the present invention includes display means for displaying video data, photographing means for photographing a person who views the video data, and transmitting means for transmitting moving image data photographed by the photographing means. A terminal device; an acquisition unit that acquires moving image data; a person detection unit that detects a person from the moving image data; an expression detection unit that detects an expression from the detected face of the person; the number of persons; The facial expression information generating device includes a storage unit that stores the date and time when a facial expression is detected in association with each other and a statistical unit that statistically counts the number of facial expressions and the number of persons at a specific time.

これにより、視聴率調査システムは、映像データを視聴している視聴者の数だけでなく、視聴者の表情も検出することができるため、映像データに対する視聴者の反応を知ることができる。   Thus, the audience rating survey system can detect not only the number of viewers who are viewing the video data but also the facial expressions of the viewers, so that the viewer's reaction to the video data can be known.

また、本発明の視聴率調査システムは、映像データを表示手段と、映像データを視聴する人物を撮影する撮影手段と、撮影手段によって撮影された動画像データから人物を検出する人物検出手段と、検出された人物の顔から表情を検出する表情検出手段と、人物の数と、表情と、映像データの時間情報とを関連付けて送信する送信手段と、を有する端末装置と、映像データと対応させて表情と人物の数とを統計する統計手段を有する統計装置とを有するようにした。   The audience rating survey system according to the present invention includes video data display means, photographing means for photographing a person who views the video data, person detecting means for detecting a person from moving image data photographed by the photographing means, A terminal apparatus having facial expression detection means for detecting facial expressions from the detected human faces, a transmission means for associating and transmitting the number of persons, facial expressions, and time information of video data, and corresponding to the video data And a statistical device having statistical means for statistically counting facial expressions and the number of persons.

これにより、視聴率調査システムは、映像データを視聴している視聴者の数だけでなく、視聴者の表情も検出することができるため、映像データに対する視聴者の反応を知ることができる。   Thus, the audience rating survey system can detect not only the number of viewers who are viewing the video data but also the facial expressions of the viewers, so that the viewer's reaction to the video data can be known.

また、本発明の表情情報生成装置及び表情情報生成プログラムは、特定の時間ごとに、人物の表情と人物の数とを統計することができるため、撮影場所における人物の表情から、様々な情報を得ることができる。このため、人物の表情に関して有益な情報を生成できる。   In addition, since the facial expression information generation apparatus and the facial expression information generation program of the present invention can statistic the facial expression and the number of persons at specific times, various information can be obtained from the facial expressions of the person at the shooting location. Can be obtained. For this reason, useful information regarding the facial expression of a person can be generated.

さらに、本発明の表情情報生成装置及び表情情報生成プログラムは、人物の年齢及び性別に応じて色分けした枠を表示することにより、ユーザに対して人物の年齢及び性別を一目で認識させることができ、年齢と表情との関係を視認させやすくできる。このため、ユーザにわかりやすく年齢と表情を伝えることができる。   Furthermore, the facial expression information generation device and facial expression information generation program of the present invention can display a frame color-coded according to a person's age and gender so that the user can recognize the person's age and gender at a glance. , Make it easy to see the relationship between age and facial expression. For this reason, it is possible to convey the age and facial expression to the user in an easy-to-understand manner.

さらに、本発明の視聴率調査システムは、映像データを視聴している視聴者の数だけでなく、視聴者の表情も検出することができるため、映像データに対する視聴者の反応を知ることができ、ユーザにとって有用な情報を得ることができる。 Furthermore, since the audience rating survey system of the present invention can detect not only the number of viewers who are viewing video data but also the facial expressions of viewers, the viewer's reaction to the video data can be known. Information useful for the user can be obtained.

データベース作成システムの構成を示す略線図である。It is a basic diagram which shows the structure of a database creation system. データベース作成システムにおけるコンピュータのブロック図である。It is a block diagram of a computer in a database creation system. 顔表示画面を示す略線図である。It is a basic diagram which shows a face display screen. 動画像データ取得処理手順を示すフローチャートである。It is a flowchart which shows a moving image data acquisition process procedure. 見かけ情報決定処理手順を示すフローチャートである。It is a flowchart which shows an apparent information determination process procedure. 表情情報生成システムの構成を示す略線図である。It is a basic diagram which shows the structure of a facial expression information generation system. 表情情報生成システムにおけるコンピュータのブロック図である。It is a block diagram of the computer in a facial expression information generation system. 笑顔度表示画面を示す略線図である。It is a basic diagram which shows a smile degree display screen. 表情情報生成処理手順を示すフローチャートである。It is a flowchart which shows a facial expression information generation process procedure. 動き方向の検出の説明に供する略線図である。It is a basic diagram with which it uses for description of the detection of a moving direction. 左右への動き方向の検出の説明に供する略線図である。It is a basic diagram with which it uses for description of the detection of the moving direction to right and left. 前後への動き方向の検出(1)の説明に供する略線図である。It is a basic diagram with which it uses for description of the detection (1) of the movement direction to the front and back. 前後への動き方向の検出(2)の説明に供する略線図である。It is a basic diagram with which it uses for description of the detection of a back-and-forth motion direction (2). 第3の実施の形態によるデータベース作成システムの構成を示す略線図である。It is a basic diagram which shows the structure of the database creation system by 3rd Embodiment. 第3の実施の形態による表情情報生成システムの構成を示す略線図である。It is a basic diagram which shows the structure of the facial expression information generation system by 3rd Embodiment. 第3の実施の形態による表情情報生成処理手順を示すフローチャートである。It is a flowchart which shows the facial expression information generation process procedure by 3rd Embodiment. 第4の実施の形態による表情情報生成システムの構成を示す略線図である。It is a basic diagram which shows the structure of the facial expression information generation system by 4th Embodiment. 第4の実施の形態による表情情報生成処理手順を示すフローチャートである。It is a flowchart which shows the facial expression information generation process procedure by 4th Embodiment. 他の実施の形態における笑顔度表示画面を示す略線図である。It is a basic diagram which shows the smile degree display screen in other embodiment. 第5の実施の形態による補正値決定処理手順を示すフローチャートである。It is a flowchart which shows the correction value determination processing procedure by 5th Embodiment. 第7の実施の形態による視聴率調査システムの構成を示す略線図である。It is a basic diagram which shows the structure of the audience rating investigation system by 7th Embodiment. 第7の実施の形態による調査結果表示処理画面(1)を示す略線図である。It is a basic diagram which shows the investigation result display process screen (1) by 7th Embodiment. 第7の実施の形態における調査結果表示処理画面(2)を示す略線図である。It is a basic diagram which shows the investigation result display process screen (2) in 7th Embodiment.

次に本発明を実施するための形態について図面を参照して説明する。   Next, modes for carrying out the present invention will be described with reference to the drawings.

<第1の実施の形態>
[1−1.データベースの作成]
<First Embodiment>
[1-1. Create database]

従来、人物の顔における複数の特徴量及びこれらの分布に基づいて、当該人物の実際の年齢を推定するようになされた装置が提案されている。   2. Description of the Related Art Conventionally, there has been proposed an apparatus configured to estimate an actual age of a person based on a plurality of feature amounts in the person's face and their distribution.

特開2004−318632号公報JP 2004-318632 A

しかしながら、実年齢とユーザの嗜好とが必ずしも一致するわけではなく、推測された実年齢の情報は、マーケティング用途として最適とはいえなかった。   However, the actual age does not always match the user's preference, and the estimated actual age information is not optimal for marketing use.

本発明はこのような問題を解決するためになされたもので、その目的は、マーケティング用の情報として有用な情報を提供し得るデータベース作成装置及びデータベース作成プログラムを提供するものである。   The present invention has been made to solve such problems, and an object of the present invention is to provide a database creation apparatus and a database creation program that can provide useful information as marketing information.

図1は本発明によるデータベース作成システム1の一例を示している。データベース作成システム1は、顔画像取得手段としてのビデオカメラ2と、データベース作成装置としてのコンピュータ3とを有している。   FIG. 1 shows an example of a database creation system 1 according to the present invention. The database creation system 1 includes a video camera 2 as a face image acquisition unit and a computer 3 as a database creation device.

ビデオカメラ2は、例えばカムコーダの他、WEBカメラなどの簡単な動画撮影装置が用いられる。ビデオカメラ2は、例えば会社の社員食堂などに許可を得て設置され、人物の顔画像を含む動画像データが撮影される。   As the video camera 2, for example, a simple moving image photographing device such as a WEB camera is used in addition to a camcorder. The video camera 2 is installed with permission in a company employee cafeteria, for example, and moving image data including a human face image is taken.

コンピュータ3は、図示しないCPU(Central Processing Unit )、ROM(Read Only Memory)及びRAM(Random Access
Memory)から構成されるシステムコントローラ11がコンピュータ3の全体を統括的に制御するようになされている。システムコントローラ11は、フラッシュメモリ、ROM又はハードディスクドライブ等の記憶部12に格納されている基本プログラムやデータベース作成プログラム等をRAMに展開することによって、これらのプログラムに基づいて各種処理や後述するデータベース作成処理を実行するようになされている。
The computer 3 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access) (not shown).
A system controller 11 composed of a memory) controls the entire computer 3 in an integrated manner. The system controller 11 expands a basic program or a database creation program stored in the storage unit 12 such as a flash memory, a ROM, or a hard disk drive in the RAM, thereby performing various processes based on these programs and creating a database described later. It is designed to execute processing.

このコンピュータ3は、メモリカードスロットやケーブル端子、無線通信受信部などの外部インターフェース13を介して接続された外部操作部14の操作によりユーザから各種要求がなされた場合、当該要求に応じて生成される要求信号を、外部インターフェース13を介してシステムコントローラ11へ供給するようになされている。また、システムコントローラ11は、各種プログラムに基づいて画面データを生成し、外部インターフェース13を介して接続された表示部4に供給することにより、表示部4に種々の画面を表示させるようになされている。   The computer 3 is generated in response to various requests from the user by operating the external operation unit 14 connected via the external interface 13 such as a memory card slot, a cable terminal, or a wireless communication receiving unit. The request signal is supplied to the system controller 11 via the external interface 13. Further, the system controller 11 generates screen data based on various programs and supplies the screen data to the display unit 4 connected via the external interface 13 to display various screens on the display unit 4. Yes.

例えば、データベース作成プログラムの起動要求を表す操作信号が外部インターフェース13から供給されると、システムコントローラ11は、データベース作成処理を実行する。   For example, when an operation signal representing a database creation program activation request is supplied from the external interface 13, the system controller 11 executes database creation processing.

具体的に、コンピュータ3のシステムコントローラ11は、ユーザの操作部に対する操作に応じて、表示部4に開始画面(図示せず)を表示する。開始画面では、顔画像データの取得ボタンと、見かけ情報入力ボタンが表示されている。システムコントローラ11は、顔画像データの取得ボタンが操作されたことを認識すると、動画像入力画面(図示せず)を表示する。動画像入力画面では、入力される動画像データの履歴情報の入力欄と、動画像データの入力を開始するための開始ボタンが設けられている。   Specifically, the system controller 11 of the computer 3 displays a start screen (not shown) on the display unit 4 in response to a user operation on the operation unit. On the start screen, a face image data acquisition button and an appearance information input button are displayed. When the system controller 11 recognizes that the face image data acquisition button has been operated, it displays a moving image input screen (not shown). In the moving image input screen, an input field for history information of input moving image data and a start button for starting input of moving image data are provided.

履歴情報の入力欄には、動画像データが撮影された撮影場所・年月が入力されることが想定されている。あらかじめ記憶部11には、撮影場所と地域と職業とを関連づけた履歴情報データベースが記憶されている。例えば、撮影場所が××銀行の虎ノ門支店の社員食堂と入力されると、システムコントローラ11は、履歴情報データベースを読み出し、職場が存在する地域「東京」、職業「銀行」、年月「2012年7月」を履歴情報と認識する。   In the history information input field, it is assumed that the shooting location / year / month / month when the moving image data was shot is input. The storage unit 11 stores in advance a history information database that associates shooting locations, regions, and occupations. For example, when the shooting location is input as the employee cafeteria of Toranomon branch of XX bank, the system controller 11 reads the history information database, and the area “Tokyo” where the workplace is located, the occupation “bank”, the date “2012” “July” is recognized as history information.

システムコントローラ11は、ユーザの操作に応じて開始ボタンが操作されたことを認識すると、メモリカードやビデオカメラ2などの外部の記憶部から動画像データを取得する。システムコントローラ11は、動画像データを取得すると、動画像データから人物の顔を検出し、顔画像領域のみを切り出し、顔画像データを生成する。人物の顔の検出は、全てのコマに対して行っても良いが、一定間隔で行うことにより、システムコントローラ11の処理負荷を軽減できるため好ましい。   When the system controller 11 recognizes that the start button has been operated in response to a user operation, the system controller 11 acquires moving image data from an external storage unit such as a memory card or the video camera 2. When acquiring the moving image data, the system controller 11 detects a human face from the moving image data, cuts out only the face image area, and generates face image data. The detection of the human face may be performed for all frames, but it is preferable to perform the detection at regular intervals because the processing load on the system controller 11 can be reduced.

システムコントローラ11は、顔画像データから特徴量を抽出して比較することにより、同一人物について一つだけの顔画像データを選定し、履歴情報と関連づけて記憶部12に記憶する。 The system controller 11 selects only one face image data for the same person by extracting and comparing feature amounts from the face image data, and stores them in the storage unit 12 in association with the history information.

このように、コンピュータ3は、入力された動画像データから顔画像データを取得し、履歴情報と関連づけて記憶部12に記憶するようになされている。   As described above, the computer 3 acquires the face image data from the input moving image data, and stores the face image data in the storage unit 12 in association with the history information.

一方、システムコントローラ11は、開始画面において見かけ情報入力ボタンが操作されたことを認識すると、記憶部12に記憶されている顔画像データ及び履歴情報を読み出し、顔表示画面データを生成する。この結果、図3に示すように、表示部4には、顔表示画面21が表示される。顔表示画面21には、人物の顔画像22と、履歴情報23、見かけ年齢入力欄24、見かけ性別入力欄25及び決定ボタン26が設けられている。   On the other hand, when the system controller 11 recognizes that the appearance information input button has been operated on the start screen, the system controller 11 reads the face image data and history information stored in the storage unit 12 and generates face display screen data. As a result, as shown in FIG. 3, the face display screen 21 is displayed on the display unit 4. The face display screen 21 is provided with a human face image 22, history information 23, an apparent age input field 24, an apparent gender input field 25, and a decision button 26.

システムコントローラ11は、見かけ年齢入力欄24及び見かけ性別入力欄25にそれぞれ見かけ年齢と見かけ性別が入力されたことを認識すると、例えば決定ボタン26を点滅表示やフォーカス表示させることにより、決定ボタン26の操作を促す。システムコントローラ11は、ユーザの決定ボタン26に対する操作に応じて、表示された顔画像データと入力された見かけ年齢及び見かけ性別(以下、これを入力見かけ情報と呼ぶ)を関連づけて記憶部12に記憶する。   When the system controller 11 recognizes that the apparent age and the apparent gender are input in the apparent age input field 24 and the apparent gender input field 25, for example, the determination button 26 is displayed in a blinking manner or a focus display, thereby displaying the determination button 26. Encourage operation. The system controller 11 associates the displayed face image data with the input apparent age and apparent gender (hereinafter referred to as input apparent information) and stores them in the storage unit 12 in accordance with the user's operation on the decision button 26. To do.

そしてシステムコントローラ11は、次の顔画像データを記憶部12から読み出して、当該顔画像データが表示された顔表示画面21を表示部4に表示させ、当該次の顔画像データに対する入力見かけ情報をユーザに入力させる。   Then, the system controller 11 reads out the next face image data from the storage unit 12, displays the face display screen 21 on which the face image data is displayed on the display unit 4, and displays input appearance information for the next face image data. Let the user input.

システムコントローラ11は、顔画像データに対する入力見かけ情報が所定の入力回数(例えば5回)だけ入力されると、登録見かけ情報として、登録見かけ年齢及び登録見かけ性別を決定する。システムコントローラ11は、登録見かけ年齢として、入力された見かけ年齢の平均値を算出する。   When the input appearance information for the face image data is input a predetermined number of times (for example, 5 times), the system controller 11 determines the registered apparent age and the registered apparent sex as the registered apparent information. The system controller 11 calculates the average value of the input apparent ages as the registered apparent ages.

平均値は、例えば入力された見かけ年齢の合計値を入力回数で除算した平均値や、最大値及び最小値を除いた平均値として算出される。また、入力者に応じて重み付けを行った後に平均値が算出されても良い。 The average value is calculated, for example, as an average value obtained by dividing the total value of the input apparent ages by the number of inputs, or an average value excluding the maximum value and the minimum value. The average value may be calculated after weighting according to the input person.

システムコントローラ11は、登録見かけ性別を、例えば入力見かけ性別の多数決によって判別する。なお、この多数決も、入力者に応じた重み付けの後に行われるようにしても良い。これらの重み付けは、例えば見かけ情報データベースを使用する地域に住む入力者には重く、異なる地域に住む入力者には軽くなるように行われる。 The system controller 11 determines the registered apparent gender by, for example, the majority of the input apparent gender. This majority vote may also be performed after weighting according to the input person. These weightings are performed so as to be heavy for an input person living in an area using the apparent information database and light for an input person living in a different area, for example.

これにより、見かけ情報データベースを使用する地域に住む人の目からみた入力見かけ年齢及び入力見かけ性別を優先できるため、登録見かけ年齢及び登録見かけ性別の精度を向上させ得る。   Thereby, priority can be given to the input apparent age and the input apparent gender seen from the eyes of the person who lives in the area where the apparent information database is used, so that the accuracy of the registered apparent age and the registered apparent gender can be improved.

システムコントローラ11は、当該顔画像データから特徴量を抽出し、登録見かけ情報及び履歴情報と共に、当該特徴量を登録顔特徴量として見かけ情報データベースに登録する。このときシステムコントローラ11は、顔画像データ及び顔画像データに関連づけられた全情報を記憶部12から削除する。これにより、システムコントローラ11は、顔画像データを二度と表示できないため、顔画像データの元となる人物のプライバシーを保護することが可能となる。   The system controller 11 extracts a feature amount from the face image data, and registers the feature amount as a registered face feature amount in the appearance information database together with the registered appearance information and history information. At this time, the system controller 11 deletes the face image data and all information associated with the face image data from the storage unit 12. As a result, the system controller 11 cannot display the face image data again, so that it is possible to protect the privacy of the person who is the source of the face image data.

このように、コンピュータ3は、人物の顔の特徴量及び登録見かけ情報が関連づけられた見かけ情報データベースを作成するようになされている。これにより、人物の顔の特徴量から、見かけ年齢及び性別を検出することが可能となる。   As described above, the computer 3 is configured to create an appearance information database in which the feature amount of the person's face and the registered appearance information are associated with each other. This makes it possible to detect the apparent age and gender from the feature amount of the person's face.

ここで、実際は男性であっても女装している人物は、女性用の被服を購入する。また、見かけ年齢が若い人物は、若い服装を好み、見かけ年齢が高い人物は、年齢の高い服装を好む傾向がある。従って、見かけ年齢及び性別を判別することにより、実年齢や実際の性別よりもマーケティング的に有用な情報を得ることが可能となる。従って、見かけ情報データベースは、マーケティング用に有用な情報を与えることが可能である。   Here, a person who is actually a man, even if she is a man, purchases women's clothing. Also, a person with a young apparent age tends to prefer young clothes, and a person with a large apparent age tends to prefer older clothes. Therefore, by determining the apparent age and sex, it is possible to obtain information that is more marketingally useful than the actual age or actual sex. Therefore, the apparent information database can provide useful information for marketing.

このように、本発明のデータベース作成装置は、人物の顔画像を含む画像データを取得する取得手段と、人物の顔画像に対する見かけ年齢及び見かけ性別を、複数人に対して入力させる入力手段と、複数人から入力された見かけ年齢の平均値に基づいて、顔画像についての見かけ年齢を決定する見かけ年齢決定手段と、複数人から入力された見かけ性別に基づいて、顔画像についての見かけ性別を決定する見かけ性別決定手段と、画像データから、顔画像の特徴量である顔特徴量を抽出する特徴量抽出手段と、見かけ年齢及び見かけ性別を、顔特徴量と関連付けて記憶する記憶手段とを有するようにした。 As described above, the database creation apparatus of the present invention includes an acquisition unit that acquires image data including a person's face image, an input unit that causes a plurality of people to input an apparent age and an apparent gender for the person's face image, Apparent age determination means for determining the apparent age for facial images based on the average apparent age input from multiple people, and the apparent gender for facial images based on the apparent gender input by multiple people An apparent gender determining means, a feature quantity extracting means for extracting a facial feature quantity that is a facial image feature quantity from the image data, and a storage means for storing the apparent age and the apparent gender in association with the facial feature quantity. I did it.

これにより、データベース作成装置は、人物の顔についての顔特徴量と、当該人物の顔についての複数人による統合的な見かけ年齢及び性別とを関連付けることができるため、偏りのない見かけ年齢及び性別を顔特徴量に関連付けることができる。このため、このデータベースを使用することにより、偏りのない見かけ年齢及び性別を検出することが可能となる。   As a result, the database creation device can associate the facial feature quantity of the person's face with the integrated apparent age and gender of the person's face, so that the apparent age and gender without bias can be determined. It can be associated with facial feature quantities. For this reason, by using this database, it is possible to detect an apparent age and sex without any bias.

また、本発明のデータベース作成プログラムは、人物の顔画像を含む画像データを取得する取得ステップと、人物の顔画像に対する見かけ年齢及び見かけ性別を、複数人に対して入力させる入力ステップと、複数人から入力された見かけ年齢の平均値に基づいて、顔画像についての見かけ年齢を決定する見かけ年齢決定ステップと、複数人から入力された見かけ性別に基づいて、顔画像についての見かけ性別を決定する見かけ性別決定ステップと、画像データから、顔画像の特徴量である顔特徴量を抽出する特徴量抽出ステップと、見かけ年齢及び見かけ性別を、顔特徴量と関連付けて記憶する記憶ステップとを有するようにした。   The database creation program of the present invention includes an acquisition step of acquiring image data including a person's face image, an input step for causing a plurality of persons to input an apparent age and an apparent gender for the person's face image, and a plurality of persons The apparent age determination step for determining the apparent age for the face image based on the average value of the apparent age input from, and the apparent sex for determining the facial image based on the apparent gender input by multiple persons A gender determination step, a feature amount extraction step for extracting a face feature amount that is a feature amount of a face image from the image data, and a storage step for storing the apparent age and the apparent gender in association with the face feature amount. did.

これにより、データベース作成プログラムは、人物の顔についての顔特徴量と、当該人物の顔についての複数人による統合的な見かけ年齢及び性別とを関連付けることができるため、偏りのない見かけ年齢及び性別を顔特徴量に関連付けることができる。このため、このデータベースを使用することにより、偏りのない見かけ年齢及び性別を検出することが可能となる。   As a result, the database creation program can associate the facial feature quantity of the person's face with the integrated apparent age and gender of the person's face, so that the apparent age and gender without bias can be determined. It can be associated with facial feature quantities. For this reason, by using this database, it is possible to detect an apparent age and sex without any bias.

本発明のデータベース作成装置及びデータベース作成プログラムは、人物の顔についての顔特徴量と、当該人物の顔についての複数人による統合的な見かけ年齢及び性別とを関連付けることができるため、偏りのない見かけ年齢及び性別を顔特徴量に関連付けることができる。このため、このデータベースを使用することにより、偏りのない見かけ年齢及び性別を検出することが可能となり、マーケティング用途として有益な情報を供給することができる。   The database creation apparatus and database creation program according to the present invention can associate a facial feature amount of a person's face with an integrated apparent age and gender of a plurality of persons on the face of the person. Age and gender can be associated with facial features. For this reason, by using this database, it becomes possible to detect the apparent age and sex without any bias, and it is possible to supply information useful for marketing purposes.

[1−2.データベース作成処理手順]
次に、データベース作成プログラムに従って実行されるデータベース作成処理について、図4及び図5に示すフローチャートを用いて説明する。
[1-2. Database creation process]
Next, database creation processing executed according to the database creation program will be described with reference to the flowcharts shown in FIGS.

コンピュータ3は、ユーザの操作に応じて、データベース作成プログラムを起動する。コンピュータ3は、ユーザの操作に応じて動画像データの取得処理が選択されたことを認識すると、動画像データ取得処理手順RT1を開始し、次のステップSP1へ移る。   The computer 3 activates a database creation program in response to a user operation. When the computer 3 recognizes that the moving image data acquisition process has been selected in accordance with the user operation, the computer 3 starts the moving image data acquisition process procedure RT1 and proceeds to the next step SP1.

ステップSP1において、コンピュータ3は、履歴情報及び動画像データを取得すると、次のステップSP2へ移る。   In step SP1, when acquiring the history information and the moving image data, the computer 3 proceeds to the next step SP2.

ステップSP2において、コンピュータ3は、動画像データから人物の顔領域の検出を行い、顔画像データを抽出すると、次のステップSP3へ移る。   In step SP2, the computer 3 detects the face area of the person from the moving image data, and extracts the face image data, the process proceeds to the next step SP3.

ステップSP3において、コンピュータ3は、ステップSP1において取得した履歴情報及びステップSP2において抽出した顔画像データを記憶すると、終了ステップへ移り、処理を終了する。   In step SP3, when the computer 3 stores the history information acquired in step SP1 and the face image data extracted in step SP2, the computer 3 moves to an end step and ends the process.

一方、コンピュータ3は、ユーザの操作に応じて見かけ情報決定処理が選択されたことを認識すると、見かけ年齢情報処理手順RT2を開始し、次のステップSP11へ移る。   On the other hand, when recognizing that the apparent information determination process is selected in accordance with the user operation, the computer 3 starts the apparent age information processing procedure RT2 and proceeds to the next step SP11.

ステップSP11において、コンピュータ3は、履歴情報及び顔画像データを表示し、ユーザに対して見かけ年齢及び性別を入力させると、次のステップSP12へ移る。   In step SP11, the computer 3 displays the history information and the face image data, and when the user inputs the apparent age and sex, the process proceeds to the next step SP12.

ステップSP12において、コンピュータ3は、顔画像データに対する見かけ年齢及び性別が所定の入力回数だけ入力されたか否かについて判別する。ここで否定結果が得られた場合、次のステップSP13へ進む。   In step SP12, the computer 3 determines whether or not the apparent age and sex for the face image data have been input a predetermined number of times. If a negative result is obtained here, the process proceeds to the next step SP13.

ステップSP13において、コンピュータ3は、顔画像データに関連づけて入力見かけ情報を記憶すると、終了ステップへ移り、処理を終了する。   In step SP13, when the computer 3 stores the input apparent information in association with the face image data, the computer 3 proceeds to an end step and ends the process.

これに対して、ステップSP12において肯定結果が得られた場合、次のステップSP14へ進む。ステップSP14において、コンピュータ3は、顔画像データから登録顔
特徴量を抽出し、次のステップSP15へ移る。
On the other hand, when a positive result is obtained in step SP12, the process proceeds to the next step SP14. In step SP14, the computer 3 extracts a registered face feature amount from the face image data, and proceeds to the next step SP15.

ステップSP15において、コンピュータ3は、入力見かけ年齢の平均値を登録見かけ年齢として算出すると共に、入力見かけ性別の多数決により登録見かけ性別を決定する。コンピュータ3は、これらの登録見かけ情報を登録顔特徴量及び履歴情報と共に見かけ情報データベースに登録すると、次のステップSP16へ移る。   In step SP15, the computer 3 calculates the average value of the input apparent ages as the registered apparent ages, and determines the registered apparent sexuality by majority decision of the input apparent sexualities. When the computer 3 registers the registered appearance information in the appearance information database together with the registered face feature amount and history information, the computer 3 proceeds to the next step SP16.

ステップSP16において、コンピュータ3は、例えば顔画像データの削除により顔画像データに対する表示を禁止する処理を行うと、終了ステップへ移って処理を終了する。   In step SP16, when the computer 3 performs a process of prohibiting the display of the face image data, for example, by deleting the face image data, the process proceeds to an end step and ends the process.

[1−3.表情情報の生成]
従来、ビデオカメラで撮影した撮影データから人物を検出し、人数をカウントするようになされた人数判断装置が提案されている(例えば特許文献1参照)。
[1-3. Generation of facial expression information]
2. Description of the Related Art Conventionally, there has been proposed a number determination device that detects a person from shooting data shot by a video camera and counts the number of persons (for example, see Patent Document 1).

しかしながら、撮影された人物の人数をカウントするだけでなく、人物の表情を情報として取得したいという要望があった。   However, there is a demand not only to count the number of photographed persons but also to acquire the facial expressions of the persons as information.

本発明は以上の点を考慮してなされたもので、人物の表情に関して有益な情報を生成できる表情情報生成方法及び表情情報生成プログラムを提供しようとするものである。   The present invention has been made in view of the above points, and an object of the present invention is to provide a facial expression information generation method and facial expression information generation program capable of generating useful information regarding a facial expression of a person.

図6は本発明による表情情報生成システム51の一例を示している。表情情報生成システム51は、人物画像取得手段としてのビデオカメラ52と、表情情報生成装置としてのコンピュータ53とを有している。   FIG. 6 shows an example of a facial expression information generation system 51 according to the present invention. The facial expression information generation system 51 includes a video camera 52 as a person image acquisition unit and a computer 53 as an facial expression information generation device.

ビデオカメラ52は、例えばカムコーダの他、WEBカメラなどの簡単な動画撮影装置が用いられる。ビデオカメラ52は、例えばレストランなどの出入り口に設置され、人物の顔画像を含む動画像データが撮影される。   As the video camera 52, for example, a simple moving image photographing device such as a WEB camera is used in addition to a camcorder. The video camera 52 is installed at an entrance of a restaurant or the like, for example, and moving image data including a human face image is taken.

コンピュータ53は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access
Memory)から構成されるシステムコントローラ61がコンピュータ53の全体を統括的に制御するようになされている。システムコントローラ61は、フラッシュメモリ、ROM又はハードディスクドライブ等の記憶部62に格納されている基本プログラムやマーケティング情報取得処理等をRAMに展開することによって、これらのプログラムに基づいて各種処理や後述する表情情報生成処理を実行するようになされている。
The computer 53 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access) (not shown).
A system controller 61 composed of a memory) controls the entire computer 53 in an integrated manner. The system controller 61 expands a basic program and marketing information acquisition processing stored in the storage unit 62 such as a flash memory, a ROM, or a hard disk drive in the RAM, thereby performing various processes and facial expressions to be described later based on these programs. An information generation process is executed.

このコンピュータ53は、外部インターフェース63を介して接続された外部操作部55の操作によりユーザから各種要求がなされた場合、外部インターフェース63を介して外部操作部55からの要求信号をシステムコントローラ61へ供給するようになされている。また、システムコントローラ61は、各種プログラムに基づいて表示用の画面データを生成し、外部インターフェース63を介して接続された表示部54に供給することにより、表示部54に種々の画面を表示させるようになされている。   The computer 53 supplies a request signal from the external operation unit 55 to the system controller 61 via the external interface 63 when various requests are made by the user by operating the external operation unit 55 connected via the external interface 63. It is made to do. Further, the system controller 61 generates display screen data based on various programs and supplies the screen data to the display unit 54 connected via the external interface 63 so that various screens are displayed on the display unit 54. Has been made.

例えば、表情情報生成プログラムの起動要求を表す操作信号が外部インターフェース63から供給されると、システムコントローラ61は、表情情報生成処理を実行する。   For example, when an operation signal representing an activation request for the facial expression information generation program is supplied from the external interface 63, the system controller 61 executes facial expression information generation processing.

具体的に、コンピュータ53のシステムコントローラ61は、ユーザの外部操作部55に対する操作に応じて、表情情報生成処理を開始し、無線又は有線で接続されたビデオカメラ52に対し、動画像データを供給する旨のデータ要求信号を送出する。システムコントローラ61は、データ要求信号に応じて動画像データが供給されると、動画像データから人物の検出を行う。   Specifically, the system controller 61 of the computer 53 starts facial expression information generation processing in response to a user operation on the external operation unit 55, and supplies moving image data to the video camera 52 connected wirelessly or by wire. A data request signal is sent to that effect. When the moving image data is supplied in response to the data request signal, the system controller 61 detects a person from the moving image data.

システムコントローラ61は、例えばエッジ検出により人物の上半身に相当する形(すなわち人型)を検出すると、当該上半身の頭部について、顔の検出を行う。顔の検出は、例えば肌色・目・口などの検出により実行される。システムコントローラ61は、上半身及び顔を検出できた場合、検出された上半身が人物であると認識し、人物数としてカウントする。   When the system controller 61 detects a shape corresponding to the upper body of a person (ie, a human figure) by edge detection, for example, the system controller 61 detects the face of the upper body head. The face detection is performed by detecting skin color, eyes, mouth, and the like, for example. If the upper body and face can be detected, the system controller 61 recognizes that the detected upper body is a person and counts it as the number of persons.

システムコントローラ61は、検出された顔から特徴量を抽出する(以下、これを検出顔特徴量と呼ぶ)。システムコントローラ61は、予め記憶部62に記憶された見かけ情報データベースを読み出す。   The system controller 61 extracts a feature amount from the detected face (hereinafter referred to as a detected face feature amount). The system controller 61 reads the apparent information database stored in the storage unit 62 in advance.

検出顔特徴量と見かけ情報データベースに登録された登録顔特徴量と照合し、最も近い一の登録顔特徴量を選択する。システムコントローラ61は、選択された登録顔特徴量に関連づけられた登録見かけ情報を検出された人物の検出見かけ年齢及び検出見かけ性別(以下、これらをまとめて検出見かけ情報と呼ぶ)として決定する。また、登録見かけ情報に対してしわや肌の状態などの年齢を決定する年齢特定因子によって補正を行い、当該補正された値を検出見かけ情報としてもよい。 The detected face feature quantity is compared with the registered face feature quantity registered in the appearance information database, and the closest registered face feature quantity is selected. The system controller 61 determines the registered apparent information associated with the selected registered facial feature quantity as the detected apparent age and detected apparent gender of the detected person (hereinafter collectively referred to as detected apparent information). Further, the registered apparent information may be corrected by an age specifying factor that determines the age such as wrinkles and skin condition, and the corrected value may be used as detected apparent information.

ここで、システムコントローラ61は、予めユーザに照合対象となる照合条件を設定させておくと共に、見かけ情報データベースに登録された履歴情報を照会し、照合条件と合致する登録顔特徴量のみ、照合対象とすることができる。   Here, the system controller 61 allows the user to set a collation condition to be collated in advance, inquires history information registered in the apparent information database, and only the registered face feature amount that matches the collation condition is to be collated. It can be.

見かけ年齢は地域や職種などに応じて変化する。システムコントローラ61は、検出される人物の撮影場所(すなわち、居住地や職業)に応じた登録顔特徴量のみを照合対象とすることができる。このため、システムコントローラ61は、検出見かけ情報の精度を向上させることができると共に、照合対象となる登録顔特徴量の数を減少させて、照合の処理負荷を軽減できる。   Apparent age varies depending on the region and occupation. The system controller 61 can set only the registered face feature amount corresponding to the detected photographing location (that is, the residence or occupation) of the person to be collated. For this reason, the system controller 61 can improve the accuracy of the detected apparent information, and can reduce the number of registered face feature quantities to be collated, thereby reducing the collation processing load.

システムコントローラ61は、上半身をトラッキングすることにより、人物の同一性を確認しながら、当該人物の表情を検出する。システムコントローラ61は、数コマごとに眉毛の角度、目尻の角度、口角の角度、目尻のしわ、歯の露出度、口の大きさなどにより、笑顔度を算出する。笑顔度は、例えば5段階、10段階などのような複数段階に振り分けられることにより、又はパーセンテージなどによって表現される。   The system controller 61 detects the facial expression of the person while confirming the identity of the person by tracking the upper body. The system controller 61 calculates the smile level based on the eyebrow angle, the corner of the eye corner, the angle of the mouth corner, the wrinkle of the corner of the eye, the degree of exposure of the teeth, the size of the mouth, etc. every few frames. The smile level is expressed by being divided into a plurality of levels such as 5 levels, 10 levels, or by a percentage.

例えば、システムコントローラ61は、眉毛の角度、目尻の角度、口角の角度を検出し、それぞれ重み付けをした上で平均値を算出、正規化することにより、パーセンテージによって笑顔度を算出する。   For example, the system controller 61 detects the angle of the eyebrows, the corner of the corner of the eye, and the angle of the mouth corner, calculates the average value after weighting each, and calculates the smile level by percentage.

このとき、システムコントローラ61は、例えば、検出された人物の顔を枠で囲むと共に、コマごとに検出された笑顔度を数値及びグラフで枠の隣に笑顔度表示として表示するよう、検出画像データを生成し、これを動画像データに重畳して表示用の画面データを生成する。 At this time, for example, the system controller 61 surrounds the detected person's face with a frame, and detects the detected image data so as to display the smile level detected for each frame as a smile level display next to the frame with a numerical value and a graph. Is generated and superimposed on the moving image data to generate display screen data.

ここで、システムコントローラ61は、検出見かけ年齢及び検出見かけ性別をグループ分けし、色分けした検出画像データを生成しても良い。例えば、20歳代男性、20歳代女性、30歳代男性、30歳代女性、40歳代男性、40歳代女性、50歳以上男性、50歳以上女性というように、グループ化することができる。このグループ分けは、マーケティング情報としての有用性に応じて適宜行われることが好ましい。   Here, the system controller 61 may group detected apparent ages and detected apparent genders, and generate detected image data that is color-coded. For example, a group of men in their 20s, women in their 20s, men in their 30s, women in their 30s, men in their 40s, women in their 40s, men over 50, women over 50 it can. This grouping is preferably performed appropriately according to the usefulness as marketing information.

色分けは、例えば男性を青系、女性を赤系というように系統立てて行うことにより、人物のグループを認識させやすくなり、好ましい。また、マーケティング情報として重要なグループのみ特定の配色を行うことにより、重要なグループに属する人物のみを浮き立たせて表示することができる。   The color classification is preferable because it is easy to recognize a group of persons by systematizing, for example, blue for men and red for women. Further, by performing a specific color arrangement only for an important group as marketing information, it is possible to display only those persons belonging to the important group.

この結果、表示部54には、図8に示すように、人物の顔として検出されたことを表す枠71及び当該検出された人物の笑顔度を表す笑顔度表示72が表示される。これにより、ユーザはリアルタイムで顧客の満足度を知ることが可能となる。   As a result, as shown in FIG. 8, the display unit 54 displays a frame 71 indicating that the face is detected as a person's face and a smile level display 72 indicating the smile level of the detected person. Thus, the user can know the customer satisfaction level in real time.

システムコントローラ61は、各人物における笑顔度の平均値(以下、これを笑顔平均値と呼ぶ)を算出すると共に、笑顔平均値が所定の閾値以上であるか否かによって、当該人物が笑顔であったか否かについて判別する。そして、システムコントローラ61は、人物の顔が検出された時間、検出見かけ情報、並びに笑顔の有無を関連づけて記憶する。 The system controller 61 calculates the average smile level of each person (hereinafter referred to as smile average value), and whether the person is smiling depending on whether the smile average value is equal to or greater than a predetermined threshold. Determine whether or not. Then, the system controller 61 stores the time when the human face is detected, the detected appearance information, and the presence or absence of a smile in association with each other.

このように、コンピュータ53は、表情情報生成処理により、撮影した動画像データから人物数をカウントすると共に、人物の検出見かけ情報、並びに笑顔の有無を関連づけて記憶するようになされている。   As described above, the computer 53 counts the number of persons from the captured moving image data by the facial expression information generation process, and stores the detected detected person information and the presence / absence of a smile in association with each other.

コンピュータ53のシステムコントローラ61は、ユーザの操作部に対する操作に応じて、マーケティング情報表示処理を開始する。   The system controller 61 of the computer 53 starts a marketing information display process in response to a user operation on the operation unit.

具体的に、システムコントローラ61は、ユーザの指定した日の、指定した時間帯において、人物数、検出見かけ情報、及び笑顔の有無を集計し、表示画面データを生成し、外部インターフェース63を介して表示部54に供給する。この結果、表示部54には、例えばグラフ表示やリスト表示により、集計結果が表示される。   Specifically, the system controller 61 aggregates the number of persons, detected appearance information, and the presence / absence of a smile in a designated time zone on a day designated by the user, generates display screen data, and outputs via the external interface 63 It supplies to the display part 54. As a result, the total result is displayed on the display unit 54 by, for example, graph display or list display.

これにより、ユーザは、ユーザの指定した日の、指定した時間帯において、何人の人物がその地点を通過したか、通過した人物の検出見かけ年齢及び検出見かけ性別、そしてどのくらいの割合の人物が笑顔であったかを簡単に知ることができる。   As a result, the user can see how many people have passed the spot on the day specified by the user, the detected apparent age and the detected gender of the passed person, and how much of the person is smiling You can easily know if it was.

[1−4.データベース作成処理手順]
次に、表情情報生成プログラムに従って実行される表情情報生成処理について、図9に示すフローチャートを用いて説明する。
[1-4. Database creation process]
Next, facial expression information generation processing executed in accordance with the facial expression information generation program will be described using the flowchart shown in FIG.

コンピュータ53は、ユーザの操作に応じて、表情情報生成プログラムを起動する。コンピュータ53は、ユーザの操作に応じて動画像データの取得処理が選択されたことを認識すると、マーケティング情報処理手順RT3を開始し、次のステップSP31へ移る。   The computer 53 activates a facial expression information generation program in response to a user operation. When the computer 53 recognizes that the moving image data acquisition process has been selected in accordance with the user's operation, it starts the marketing information processing procedure RT3, and proceeds to the next step SP31.

ステップSP31において、コンピュータ53は人物を検出すると、次のステップSP32へ移る。   In step SP31, when the computer 53 detects a person, the process proceeds to the next step SP32.

ステップSP32において、コンピュータ53は人物の数をカウントするカウンタを「1」加算すると、次のステップSP33へ移る。   In step SP32, when the computer 53 adds “1” to the counter for counting the number of persons, the process proceeds to the next step SP33.

ステップSP33において、コンピュータ53は、検出した人物の検出顔特徴量と、見かけ情報データベースに登録されている登録顔特徴量とを比較し、最も近い一の登録顔特徴量から検出見かけ年齢及び検出見かけ性別を決定すると、次のステップSP34へ移る。   In step SP33, the computer 53 compares the detected face feature amount of the detected person with the registered face feature amount registered in the appearance information database, and detects the detected apparent age and detected appearance from the closest registered face feature amount. If sex is determined, it will move to following step SP34.

ステップSP34において、コンピュータ53は、検出した人物についての笑顔平均値を算出すると、次のステップSP35へ移る。   In step SP34, after calculating the smile average value for the detected person, the computer 53 proceeds to the next step SP35.

ステップSP35において、コンピュータ53は、ステップSP34において算出した笑顔平均値が閾値以上であるか否かについて判別する。ここで、肯定結果が得られた場合、コンピュータ53は、次のステップSP36へ移り、検出した人物が笑顔であったと決定し、次のステップSP38へ移る。   In step SP35, the computer 53 determines whether or not the smile average value calculated in step SP34 is greater than or equal to a threshold value. If an affirmative result is obtained, the computer 53 proceeds to the next step SP36, determines that the detected person is a smile, and proceeds to the next step SP38.

一方、ステップSP35において否定結果が得られた場合、コンピュータ53は、次のステップSP37へ移り、検出した人物が笑顔でなかったと決定し、次のステップSP38へ移る。   On the other hand, if a negative result is obtained in step SP35, the computer 53 proceeds to the next step SP37, determines that the detected person is not smiling, and proceeds to the next step SP38.

ステップSP38において、コンピュータ53は、ステップSP33において決定した検出見かけ年齢及び検出見かけ性別、並びにステップSP36及び37で決定した笑顔の有無を記憶すると、次のステップSP39へ移る。   In step SP38, when the computer 53 stores the detected apparent age and the detected apparent gender determined in step SP33 and the presence or absence of the smile determined in steps SP36 and 37, the computer 53 proceeds to the next step SP39.

ステップSP39において、コンピュータ53は、ユーザの操作に応じて処理の終了が要求されたか否かを判別し、否定結果が得られた場合、ステップSP31へ戻って処理を継続する。   In step SP39, the computer 53 determines whether or not the end of the process is requested according to the user's operation. If a negative result is obtained, the computer 53 returns to step SP31 and continues the process.

これに対し、ステップSP39において肯定結果が得られた場合、終了ステップへ移ってマーケティング情報処理手順RT3を終了する。   On the other hand, when a positive result is obtained in step SP39, the process proceeds to an end step and the marketing information processing procedure RT3 is ended.

[1−5.動作及び効果]
以上の構成によれば、データベース作成装置としてのコンピュータ3は、人物の顔画像を含む画像データを取得する取得手段、及び外部操作部14を介して、人物の顔画像に対する見かけ年齢及び見かけ性別を複数人に対して入力させる入力手段としての外部インターフェース13を有している。
[1-5. Operation and effect]
According to the above configuration, the computer 3 serving as the database creation device determines the apparent age and the apparent gender of the person's face image via the acquisition unit that acquires image data including the person's face image and the external operation unit 14. An external interface 13 is provided as input means for allowing a plurality of people to input.

また、コンピュータ3は、複数人から入力された見かけ年齢の平均値に基づいて、顔画像についての見かけ年齢を決定する見かけ年齢決定手段、複数人から入力された見かけ性別に基づいて、顔画像についての見かけ性別を決定する見かけ性別決定手段、及び画像データから、顔画像の特徴量である顔特徴量を登録顔特徴量として抽出する特徴量抽出手段としてのシステムコントローラ11を有している。 The computer 3 also includes an apparent age determining unit that determines an apparent age for the face image based on an average value of the apparent age input from a plurality of persons, and a facial image based on the apparent gender input from the plurality of persons. And a system controller 11 as a feature quantity extracting means for extracting a face feature quantity, which is a feature quantity of a face image, as a registered face feature quantity from the image data.

さらに、コンピュータ3は、見かけ年齢及び見かけ性別を登録見かけ年齢及び登録見かけ性別として、登録顔特徴量と関連付けて記憶する記憶手段としての記憶部12とを有している。 Further, the computer 3 includes a storage unit 12 as a storage unit that stores the apparent age and the apparent gender as the registered apparent age and the registered apparent gender in association with the registered face feature amount.

これにより、コンピュータ3は、人物の顔画像についての見かけ年齢及び見かけ性別を、複数人による公正な判断により決定することができるため、ゆるぎない見かけ年齢及び見かけ性別を登録顔特徴量と関連付けて記憶した見かけ情報データベースを作成することができる。   As a result, the computer 3 can determine the apparent age and the apparent gender of the person's face image by fair judgment by a plurality of persons, and therefore stores the apparent age and the apparent gender in association with the registered face feature amount. The apparent information database can be created.

また、コンピュータ3のシステムコントローラ11は、人物に関する履歴情報を取得する。これにより、コンピュータ3は、居住地や職業など、見かけ年齢や見かけ性別を左右する因子を見かけ情報及び登録顔特徴量と関連付けて見かけ情報データベースを作成することができる。このため、ユーザが見かけ情報データベースを用いることにより、履歴情報ごとに見かけ年齢や見かけ性別を判別することが可能となり、見かけ年齢や見かけ性別の判別精度を高めることが可能となる。   In addition, the system controller 11 of the computer 3 acquires history information about a person. Thereby, the computer 3 can create an apparent information database by associating the factors that influence the apparent age and the apparent gender, such as the residence and occupation, with the apparent information and the registered face feature amount. For this reason, when the user uses the apparent information database, it is possible to determine the apparent age and the apparent gender for each piece of history information, and it is possible to increase the discrimination accuracy of the apparent age and the apparent gender.

さらに、システムコントローラ11は、複数人に対する見かけ年齢及び見かけ性別の入力後、すなわち入力回数だけ入力見かけ情報が入力された後、顔画像データを消去することにより、人物の顔画像である顔画像データの表示を禁止する。   Further, the system controller 11 deletes the face image data after inputting the apparent age and the apparent gender for the plurality of persons, that is, after the input appearance information is input by the number of times of input, so that the face image data that is the face image of the person The display of is prohibited.

これにより、コンピュータ3は、見かけ情報データベースへの登録後には顔画像データを保存する必要がないため、記憶部12の記憶容量を節約できると共に、不要な顔画像データの保存により、撮影された人物のプライバシーを確実に守ることができる。   As a result, the computer 3 does not need to save the face image data after registration in the appearance information database, so that the storage capacity of the storage unit 12 can be saved and the photographed person can be saved by saving unnecessary face image data. Can be surely protected.

コンピュータ3は、履歴情報としてGPS情報を取得するようにした。これにより、ユーザに入力作業をさせる必要がなく、かつ信頼性の高い情報を得ることができる。   The computer 3 acquires GPS information as history information. Thereby, it is not necessary for the user to perform input work, and highly reliable information can be obtained.

コンピュータ3は、インターネットを介して画像データ及び履歴情報を取得するようにした。これにより、コンピュータ3は、不特定多数の大人数から容易に像データ及び履歴情報を集めることが可能となる。   The computer 3 acquires image data and history information via the Internet. Thus, the computer 3 can easily collect image data and history information from an unspecified large number of adults.

また、システムコントローラ11は、履歴情報として、撮影年月のみを見かけ情報データベースに記憶するようにした。これにより、コンピュータ3は、人物の存在した詳細な日時を残さないため、撮影された人物のプライバシーを確実に守ることができる。   Further, the system controller 11 apparently stores only the shooting date in the information database as history information. Thereby, since the computer 3 does not leave the detailed date and time when the person existed, the privacy of the photographed person can be reliably protected.

さらに、表情情報生成装置としてのコンピュータ53は、動画像データを取得する取得手段としての外部インターフェース63を有している。 Further, the computer 53 as a facial expression information generation device has an external interface 63 as an acquisition means for acquiring moving image data.

また、コンピュータ53は、動画像データから人物を検出する人物検出手段と、検出された人物の顔から表情を検出する表情検出手段と、特定の時間ごとに、表情としての笑顔度の有無と、人物の数とを統計する統計手段としてのシステムコントローラ61を有している。   Further, the computer 53 includes a person detection unit that detects a person from the moving image data, a facial expression detection unit that detects a facial expression from the detected person's face, and the presence / absence of a smile level as a facial expression at a specific time, A system controller 61 is provided as statistical means for statistically counting the number of persons.

さらに、コンピュータ53は、人物の数と、表情と、表情が検出された日時とを関連付けて記憶する記憶手段としての記憶部62を有している。   Further, the computer 53 has a storage unit 62 as storage means for storing the number of persons, facial expressions, and the date and time when the facial expressions were detected in association with each other.

これにより、コンピュータ53は、ユーザの要求に応じて特定の時間ごとに笑顔の有無及び人物の数を統計することができるため、顧客の満足度や営業マンの接客態度など、非常に有益な情報をユーザに与えることができる。   Thereby, since the computer 53 can statistic the presence / absence of a smile and the number of persons at specific times according to a user's request, it is very useful information such as customer satisfaction and customer service attitude. Can be given to the user.

システムコントローラ61は、検出された人物の顔である顔画像データから検出顔特徴量を抽出し、当該検出顔特徴量を見かけ情報データベースに登録された登録顔特徴量と照合して年齢及び性別としての検出見かけ年齢及び検出見かけ性別を判別する。そして、システムコントローラ61は、ユーザの要求に応じて、検出見かけ年齢及び検出見かけ性別、若しくは検出見かけ年齢及び検出見かけ性別ごとに笑顔の有無と人物の数とを統計する。 The system controller 61 extracts the detected face feature value from the face image data that is the detected face of the person, compares the detected face feature value with the registered face feature value registered in the apparent information database, and determines the age and gender. The detected apparent age and the detected apparent gender are discriminated. Then, the system controller 61 statistics the presence / absence of a smile and the number of persons for each detected apparent age and detected apparent gender, or for each detected apparent age and detected apparent gender, in accordance with a user request.

これにより、システムコントローラ61は、年齢や性別に応じた顧客の満足度を統計することができ、マーケティング情報として非常に有益な情報をユーザに与えることができる。   Thereby, the system controller 61 can statistic the customer satisfaction according to age and sex, and can give very useful information to the user as marketing information.

システムコントローラ61は、所定間隔で笑顔度を算出し、当該笑顔度の平均値である笑顔平均値に基づいて、人物の笑顔度合いである笑顔の有無を判別する。   The system controller 61 calculates the smile level at predetermined intervals, and determines the presence or absence of a smile, which is the smile level of the person, based on the smile average value, which is the average value of the smile levels.

これにより、システムコントローラ61は、笑顔度合いを単純化して統計することができるため、わかりやすい情報をユーザに与えることができる。   As a result, the system controller 61 can simplify the statistics of the smile level and provide easy-to-understand information to the user.

さらに、コンピュータ53は、動画像データから人物を検出し、検出された人物の顔から表情を検出する表情検出手段と、人物の年齢及び性別を検出情報である検出見かけ情報として決定する検出情報決定手段と、検出みかけ情報に対応して色分けされた枠、及び表情の度合いである笑顔度を、動画像データにおける人物の動きに対応させるよう画面データを生成する画面データ生成手段としてのシステムコントローラ61を有している。 Further, the computer 53 detects a person from the moving image data, detects expression from the detected person's face, and detection information determination that determines the age and sex of the person as detection apparent information as detection information. A system controller 61 as screen data generating means for generating screen data so that the means, the color-coded frames corresponding to the detected apparent information, and the smile level as the expression level correspond to the movement of the person in the moving image data. have.

これにより、コンピュータ53は、検出みかけ情報に対応して色分けされた枠71を表示することができるため、ユーザに人物の年齢及び性別を一目で視認させることができ、ユーザに対して人物の年齢及び性別と、笑顔度との関係をわかりやすく視認させることができる。   Thereby, since the computer 53 can display the color-coded frame 71 corresponding to the detected apparent information, the user can visually recognize the age and gender of the person at a glance. In addition, the relationship between gender and smile level can be easily recognized.

さらに、コンピュータ53は、枠71の隣に笑顔度を表す笑顔度表示72をグラフ化して表示する。これにより、コンピュータ53は、ユーザに対して笑顔度を一目で視認させることができ、ユーザに対して人物の年齢及び性別と、笑顔度との関係を一段とわかりやすく視認させることができる。   Further, the computer 53 displays a smile level display 72 representing a smile level next to the frame 71 in a graph. Thereby, the computer 53 can make the user visually recognize the smile level, and can make the user more easily understand the relationship between the age and sex of the person and the smile level.

システムコントローラ61は、検出情報として、見かけ年齢及び見かけ性別を決定することにより、顧客の購入意欲に直結する見かけ年齢及び見かけ性別を人物の年齢及び性別とすることができる。これにより、コンピュータ53は、画面データのマーケティング情報としての有益性を一段と高めることができる。   The system controller 61 determines the apparent age and the apparent gender as the detection information, so that the apparent age and the apparent gender that are directly related to the customer's desire to purchase can be made the person's age and gender. Thereby, the computer 53 can further increase the usefulness of the screen data as marketing information.

システムコントローラ61は、枠71及び笑顔度表示72を、動画像データに重畳して画面データを生成する。これにより、コンピュータ53は、実際の顔画像データと共に人物の年齢及び性別と、笑顔度との関係を表示部54に表示させることができるため、画面データのマーケティング情報としての有益性を一段と高めることができる。   The system controller 61 generates screen data by superimposing the frame 71 and the smile level display 72 on the moving image data. Accordingly, the computer 53 can display the relationship between the age and sex of the person and the smile level together with the actual face image data on the display unit 54, thereby further enhancing the usefulness of the screen data as marketing information. Can do.

<第2の実施の形態>
図10〜13に示す第2の実施の形態においては、図1〜図9に示す第1の実施の形態と対応する箇所に同一符号を附して示し、同一部分についての説明を省略する。第2の実施の形態では、履歴情報としてGPS(Global Positioning System)による位置情報を利用する点、人物の動く方向を検出する点、表情情報生成処理において得られた顔画像データを用いて見かけ情報データベースを更新する点が第1の実施の形態と異なっている。
<Second Embodiment>
In the second embodiment shown in FIGS. 10 to 13, portions corresponding to those in the first embodiment shown in FIGS. 1 to 9 are denoted by the same reference numerals, and description of the same portions is omitted. In the second embodiment, the position information using GPS (Global Positioning System) as the history information, the point of detecting the moving direction of the person, and the appearance information using the face image data obtained in the expression information generation process The point of updating the database is different from the first embodiment.

[2−1.データベース作成処理]
第2の実施の形態におけるデータベース作成処理では、GPSによる位置情報を使用して自動的に履歴情報を取得する。
[2-1. Database creation process]
In the database creation process in the second embodiment, history information is automatically acquired using position information by GPS.

具体的に、ビデオカメラ102は、例えば街角などの任意の場所に設置され、人物の顔画像を含む動画像データが撮影される。このビデオカメラ102には、GPS機能が搭載されており、撮影された場所の位置情報を自動的に取得可能である。また、ビデオカメラに対して外付けのGPS端末を接続しても良い。   Specifically, the video camera 102 is installed in an arbitrary place such as a street corner, and moving image data including a human face image is captured. The video camera 102 is equipped with a GPS function and can automatically acquire position information of the place where the image was taken. An external GPS terminal may be connected to the video camera.

動画像データ取得処理において、コンピュータ103のシステムコントローラ111は、ユーザの操作部に対する操作に応じて、表示部4に開始画面(図示せず)を表示する。システムコントローラ111は、ビデオカメラ102から供給される位置情報から撮影場所が存在する地域を特定し、当該撮影場所と撮影日時を履歴情報として認識する。この地域は、例えば「東京」「大阪」や、「東京都中央区」「広島市」、「中国地方」「関東地方」、「日本」「ヨーロッパ」など、都道府県や市町村、地方、国や世界的地域など、予め定められたグループとなることが好ましい。   In the moving image data acquisition process, the system controller 111 of the computer 103 displays a start screen (not shown) on the display unit 4 in response to a user operation on the operation unit. The system controller 111 identifies an area where the shooting location exists from the position information supplied from the video camera 102, and recognizes the shooting location and shooting date and time as history information. This area includes, for example, “Tokyo”, “Osaka”, “Chuo-ku, Tokyo”, “Hiroshima City”, “Chugoku Region”, “Kanto Region”, “Japan”, “Europe”, etc. It is preferable to become a predetermined group such as a global region.

これにより、システムコントローラ111は、自動的に履歴情報を認識することができるため、ユーザに対して履歴情報の入力を必要とさせず、ユーザの手を煩わせずに済む。   As a result, the system controller 111 can automatically recognize the history information, so that it is not necessary for the user to input the history information, and the user's hand is not bothered.

このように、コンピュータ103は、GPSによって取得される位置情報を履歴情報として利用するようになされている。   As described above, the computer 103 uses position information acquired by GPS as history information.

一方、見かけ情報決定処理において、システムコントローラ111は、顔画像データに対して入力見かけ情報が所定の入力回数だけ入力されると、顔画像データに対し、表示禁止を示すフラグを立てる。これにより、システムコントローラ11は、顔画像データを表示できないため、顔画像データの元となる人物のプライバシーを保護することが可能となる。また、入力回数が変更された場合にのみ、顔画像データを表示可能に設定することにより、入力回数の設定が変更された場合にも対応することができる。   On the other hand, in the appearance information determination process, when the input appearance information is input a predetermined number of times for the face image data, the system controller 111 sets a flag indicating display prohibition for the face image data. Thereby, since the system controller 11 cannot display the face image data, it is possible to protect the privacy of the person who is the source of the face image data. Further, by setting the face image data to be displayable only when the number of times of input is changed, it is possible to cope with a case where the setting of the number of times of input is changed.

[2−2.表情情報生成処理]
第2の実施の形態における表情情報生成処理では、図10に示すように、ビデオカメラ52から取得された動画像データから人物の進む方向を検出するようになされている。
[2-2. Facial information generation processing]
In the facial expression information generation process according to the second embodiment, as shown in FIG. 10, the moving direction of a person is detected from moving image data acquired from the video camera 52.

システムコントローラ161は、人物の上半身に相当する形を検出すると、当該上半身の頭部について、顔の検出を行う。システムコントローラ61は、上半身及び顔を検出できた場合、検出された上半身が人物であると認識し、人物数としてカウントする。   When the system controller 161 detects a shape corresponding to the upper body of a person, the system controller 161 detects the face of the head of the upper body. If the upper body and face can be detected, the system controller 61 recognizes that the detected upper body is a person and counts it as the number of persons.

システムコントローラ161は、人物の上半身のトラッキングを行い、画面上において人物の上半身が最初に検出された初期検出地点と、最後に検出された終期検出地点とをつないだ方向を動き方向として検出する。具体的に、図11に示すように、システムコントローラ161は、人物の上半身の中心点(以下、これを動き基準点と呼ぶ)SPを算出し、当該中心点の移動ベクトルから、動き方向を検出する。   The system controller 161 performs tracking of the upper body of the person, and detects the direction connecting the initial detection point where the upper body of the person is first detected on the screen and the end detection point detected last as the movement direction. Specifically, as shown in FIG. 11, the system controller 161 calculates the center point (hereinafter referred to as a motion reference point) SP of the upper body of the person and detects the motion direction from the movement vector of the center point. To do.

この動き方向は、例えば、その角度により、前後左右の4方向として認識される。なお、動き基準点SPは、人物の中で固定可能な基準となる点であれば良く、例えば顔の中心点や、目・口などを動き基準点とすることもできる。なお、この動き方向は、必ずしも4方向である必要はなく、角度に応じて2方向以上に認識されれば良い。 This movement direction is recognized as, for example, four directions of front, rear, left and right depending on the angle. Note that the motion reference point SP may be any point that can be fixed in a person. For example, the center point of the face or the eyes / mouth can be used as the motion reference point. The movement directions do not necessarily have to be four directions, and may be recognized in two or more directions according to the angle.

ビデオカメラ52を人物の高さよりも上方向に配置した場合、ビデオカメラ52と人物との距離に応じて撮影角度が変化するため、図12に示すように、画面上下方向に移動することになる。このため、システムコントローラ161は、動き基準点SPが上から下方向へ移動した場合には、人物が前方向へ移動、逆に下から上方向へ移動した場合には人物が後ろ方向へ移動したと認識することができる。   When the video camera 52 is arranged above the person's height, the shooting angle changes according to the distance between the video camera 52 and the person, and thus moves up and down the screen as shown in FIG. . For this reason, the system controller 161 moves the person forward when the movement reference point SP moves from the top to the bottom, and conversely moves the person backward when the person moves from the bottom to the top. Can be recognized.

これに対して、ビデオカメラ52を人物の高さと同じ高さに設置した場合、図13に示すように、人物が前後方向に移動したときに動き基準点SPが殆ど変化しない。そこで、システムコントローラは、動き基準点SPが殆ど変化しない場合には、人物の大きさによって動き方向を判断する。   On the other hand, when the video camera 52 is installed at the same height as the person, as shown in FIG. 13, the movement reference point SP hardly changes when the person moves in the front-rear direction. Therefore, when the movement reference point SP hardly changes, the system controller determines the movement direction based on the size of the person.

具体的に、システムコントローラ161は、検出された人物の動き方向が人物の目玉の間隔を検出し、当該間隔の変化率によって、人物が前と後ろのどちらに移動したかを判別する。また、人物の上半身や顔・口などの大きさの変化率によっても同様に人物が前と後ろのどちらに移動したかを判別することが可能である。   Specifically, the system controller 161 detects the interval between the eyeballs of the detected person's movement direction, and determines whether the person has moved forward or backward based on the change rate of the interval. Similarly, it is possible to determine whether the person has moved forward or backward based on the rate of change of the size of the person's upper body, face, mouth, and the like.

そして、システムコントローラ161は、人物の検出見かけ情報、並びに笑顔の有無に加え、動き方向を関連づけて記憶する。   The system controller 161 stores the detected direction information of the person and the presence / absence of a smile in association with the direction of movement.

システムコントローラ161は、ユーザの要求に応じて、見かけ情報表示処理を開始すると、動き方向ごとに人物の検出見かけ情報、並びに笑顔の有無を集計し、画面データを生成する。   When the appearance information display process is started in response to a user request, the system controller 161 aggregates detected person appearance information and the presence / absence of a smile for each movement direction, and generates screen data.

これにより、ユーザは、例えばショッピングセンターの分岐地点において、動き方向ごとに人物の見かけ年齢及び見かけ性別、並びに笑顔の有無を知ることができ、移動する方向に対するみかけ情報や、笑顔の有無を簡単に知ることができる。   As a result, the user can know the apparent age and apparent gender of the person for each direction of movement and the presence / absence of a smile, for example, at a branch point of a shopping center. I can know.

[2−3.データベース更新処理]
表情情報生成処理において、システムコントローラ161は、取得した動画像データを所定の期間(例えば1週間)だけ記憶しておく。
[2-3. Database update process]
In the facial expression information generation process, the system controller 161 stores the acquired moving image data for a predetermined period (for example, one week).

そしてシステムコントローラ161は、ユーザの操作部に対する操作に応じて、記憶部62に記憶されている動画像データを読み出し、データベース作成処理を実行する。   Then, the system controller 161 reads the moving image data stored in the storage unit 62 in accordance with a user operation on the operation unit, and executes database creation processing.

これにより、システムコントローラ161は、逐次見かけ情報データベースを更新することができ、一段と多くの登録顔特徴量に基づいて検出見かけ年齢及び性別を判別できるため、検出見かけ年齢及び性別の判別の精度を向上することができる。   As a result, the system controller 161 can sequentially update the apparent information database and can determine the detected apparent age and gender based on more registered face feature quantities, thus improving the accuracy of the detected apparent age and gender determination. can do.

一般的に、見かけ年齢は、判断する人の年齢に対するイメージに左右されるため、地域や場所の特性によって大きく変化する。例えば、東京の銀座では、ファッションや化粧に気を遣うため若作りな人物が多く、相対的に見かけ年齢は大きくなる。一方、東北の農村では、見かけ年齢は小さくなる。   In general, the apparent age depends on the image of the age of the person to be judged, and thus varies greatly depending on the characteristics of the region and place. For example, in Ginza, Tokyo, there are many young people who care about fashion and makeup, and their apparent age is relatively large. On the other hand, the apparent age is smaller in rural areas in Tohoku.

データベース更新処理において、システムコントローラ161は、実際にショッピングセンターに足を運んだ顧客の顔画像データを使用して、当該ショッピングセンターの近くに住む従業員などの目線で見かけ年齢を判断し、入力見かけ年齢とすることができる。このため、システムコントローラ161は、地域の特性に見合った見かけ情報データベースを作成することが可能となり、検出見かけ年齢及び性別の判別の精度を向上することができる。 In the database update process, the system controller 161 uses the face image data of the customer who actually visited the shopping center to determine the apparent age from the viewpoint of an employee living near the shopping center, and the input apparent Can be age. For this reason, the system controller 161 can create an apparent information database that matches the characteristics of the region, and can improve the accuracy of discrimination of the detected apparent age and sex.

なお、システムコントローラ161は、表情情報生成処理において取得した動画像データの代わりに、人物から検出された顔を切り出した顔画像データのみを記憶することもできる。記憶される顔画像データは、データ容量の観点から、同一人物に対して1枚だけ選択される。なお、システムコントローラ161は、顔の角度(正面、横向きなど)を検出し、角度の異なる顔画像データを同一人物に対して複数枚記憶することも可能である。 Note that the system controller 161 can store only face image data obtained by cutting out a face detected from a person, instead of the moving image data acquired in the facial expression information generation process. Only one face image data is selected for the same person from the viewpoint of data capacity. The system controller 161 can also detect the face angle (front, sideways, etc.) and store a plurality of face image data with different angles for the same person.

これにより、システムコントローラ161は、動画像データを記憶する場合と比較して、格段に記憶容量を節約することが可能である。   As a result, the system controller 161 can significantly save the storage capacity compared to the case of storing moving image data.

[2−4.動作及び効果]
以上の構成によれば、コンピュータ153のシステムコントローラ161は、外部インターフェース63を介して履歴情報としてGPS情報を取得する。
[2-4. Operation and effect]
According to the above configuration, the system controller 161 of the computer 153 acquires GPS information as history information via the external interface 63.

これにより、コンピュータ153は、ユーザに履歴情報を入力させることなく、見かけ情報データベースに対して自動的に履歴情報を登録することができる。 Thereby, the computer 153 can automatically register the history information in the apparent information database without allowing the user to input the history information.

また、システムコントローラ161は、人物の移動する方向を検出し、移動方向及び特定の時間ごとに、笑顔の有無と人物の数とを統計する。   In addition, the system controller 161 detects the direction in which the person moves, and statistics the presence / absence of a smile and the number of persons for each moving direction and for a specific time.

これにより、コンピュータ153は、例えば出口方向に向かう人物や、フードコートの特定の店に向かう人物など、特定の方向へ向かう人物ごとに笑顔の有無と人物の数とを統計できるため、マーケティング情報としての有用性を一段と高めることができる。   As a result, the computer 153 can statistically calculate the presence / absence of smiles and the number of persons for each person heading in a specific direction, such as a person heading to the exit direction or a person heading to a specific store on the food court. Can be further enhanced.

さらに、システムコントローラ161は、表情情報生成処理で取得した顔画像データに対してデータベース生成処理を実行し、見かけ情報データベースを更新する。   Further, the system controller 161 executes a database generation process on the face image data acquired by the facial expression information generation process, and updates the apparent information database.

これにより、コンピュータ153は、見かけ情報データベースが使用される地域に住む人物の顔に基づいて、マーケティング情報を使用するユーザの視点から入力される入力見かけ情報に基づいて見かけ情報データベースを更新することができる。このため、コンピュータ153は、各地域における見かけ情報の特徴を見かけ情報データベースに反映させることができ、見かけ情報の判別の精度を高めることができる。   Accordingly, the computer 153 can update the apparent information database based on the input apparent information input from the viewpoint of the user who uses the marketing information, based on the face of a person living in an area where the apparent information database is used. it can. For this reason, the computer 153 can reflect the feature of the apparent information in each region in the apparent information database, and can improve the accuracy of the apparent information discrimination.

<第3の実施の形態>
図14〜15に示す第3の実施の形態においては、図1〜図9に示す第1の実施の形態と対応する箇所に同一符号を附して示し、同一部分についての説明を省略する。第3の実施の形態では、データベース作成処理においてインターネットを介して顔画像データの元となる画像データを取得する点と、表情情報生成処理において複数のビデオカメラ52を設置して人物認識を行う点が、第1の実施の形態と異なっている。
<Third Embodiment>
In the third embodiment shown in FIGS. 14 to 15, the same reference numerals are given to the portions corresponding to those in the first embodiment shown in FIGS. 1 to 9, and description of the same parts is omitted. In the third embodiment, image data that is the basis of face image data is acquired via the Internet in database creation processing, and person recognition is performed by installing a plurality of video cameras 52 in facial expression information generation processing. However, this is different from the first embodiment.

[3−1.データベース作成処理]
図14に示すように、データベース作成システム201では、コンピュータ203がインターネット220に接続されている。データベース作成システム201では、例えばアンケート回答サイトやホームページの募集サイトなどを開設、又はアプリケーションを配信することにより、個人情報端末221から顔画像データの元となる動画像データ又は静止画像データ、並びに履歴情報を取得する。
[3-1. Database creation process]
As shown in FIG. 14, in the database creation system 201, a computer 203 is connected to the Internet 220. In the database creation system 201, for example, by opening a questionnaire response site, a homepage recruitment site, or distributing an application, moving image data or still image data that is the source of face image data from the personal information terminal 221, and history information To get.

個人情報端末221としては、パーソナルコンピュータやスマートフォン、携帯電話、タブレット端末など、インターネットなどのネットワークに接続可能な端末であれば制限はない。個人情報端末221は、ビデオカメラなどの撮影装置又は個人情報端末221に予め備えられた撮影機能を用いて撮影された動画像データ又は静止画像データを履歴情報と共にアンケート回答サイトに供給する。   The personal information terminal 221 is not limited as long as it is a terminal that can be connected to a network such as the Internet, such as a personal computer, a smartphone, a mobile phone, and a tablet terminal. The personal information terminal 221 supplies moving image data or still image data photographed using a photographing device such as a video camera or a photographing function provided in advance to the personal information terminal 221 together with history information to a questionnaire response site.

コンピュータ203は、インターネット220を介してアンケート回答サイトから動画像データ又は静止画像データ、並びに履歴情報を取得すると、顔画像データを生成し、これを記憶部62に記憶する。   When the computer 203 acquires moving image data or still image data and history information from a questionnaire response site via the Internet 220, the computer 203 generates face image data and stores it in the storage unit 62.

このように、コンピュータ203は、インターネットを介して顔画像データの元となる画像データを取得する。これにより、コンピュータ203は、わざわざビデオカメラ52を設置しなくても、世界各所に住む人々の顔画像データを取得することができる。   As described above, the computer 203 acquires the image data that is the source of the face image data via the Internet. Thereby, the computer 203 can acquire face image data of people living in various places in the world without bothering to install the video camera 52.

[3−2.表情情報生成処理]
図15に示すように、表情情報生成システム251では、ネットワーク270を介して複数台(例えば4台)のビデオカメラ52(52A〜52D)とコンピュータ253とが接続されている。
[3-2. Facial information generation processing]
As shown in FIG. 15, in the facial expression information generation system 251, a plurality of (for example, four) video cameras 52 (52 </ b> A to 52 </ b> D) and a computer 253 are connected via a network 270.

ビデオカメラ52は、例えば遊園地の各アトラクションの出口に設置され、アトラクションを終了して出てきた顧客を撮影する。   The video camera 52 is installed, for example, at the exit of each attraction in the amusement park, and photographs the customer who came out after finishing the attraction.

コンピュータ253のシステムコントローラ261は、4台のビデオカメラ52から供給される動画像データから、人物の検出を行うと、処理対象となる人物に対し、検出顔特徴量の抽出、検出見かけ情報の決定、笑顔の有無の判別を行う。そして、システムコントローラ261は、これらの処理を終了すると、処理対象となる人物が既に他のビデオカメラ52によって撮影されたか否かについて判別する。   When the system controller 261 of the computer 253 detects a person from the moving image data supplied from the four video cameras 52, the system controller 261 extracts a detected face feature and determines detected appearance information for the person to be processed. Then, the presence or absence of a smile is determined. When the system controller 261 ends these processes, the system controller 261 determines whether or not the person to be processed has already been shot by another video camera 52.

システムコントローラ261は、抽出された検出顔特徴量と、当日中に記憶部62に記憶された検出顔特徴量(以下、これを当日検出顔特徴量と呼ぶ)との照合を行う。このとき、システムコントローラ261は、抽出された検出顔特徴量及び当日検出顔特徴量の一致率が高いと、抽出された検出顔特徴量の元になる人物が検出顔特徴量の元になる人物と同一であると認識する。   The system controller 261 collates the extracted detected face feature quantity with the detected face feature quantity stored in the storage unit 62 during the day (hereinafter referred to as the same day detected face feature quantity). At this time, the system controller 261 determines that the person who is the basis of the detected face feature amount is the person who is the basis of the detected face feature amount if the matching rate between the extracted detected face feature amount and the detected face feature amount on the day is high Is recognized as the same.

システムコントローラ261は、同一人物であると認識された当日検出顔特徴量に割り振られた識別IDを読み出し、当該識別IDを見かけ年齢及び性別、並びに笑顔の有無の判別、撮影日時に関連づけて記憶部62に記憶する。 The system controller 261 reads the identification ID assigned to the face feature amount detected on the same day that is recognized as the same person, apparently identifies the identification ID and age, sex, whether or not there is a smile, and the storage unit 62.

一方、システムコントローラ261は、同一人物であると認識された当日検出顔特徴量が存在しない場合、抽出された検出顔特徴量の元になる人物が、当日、初めて検出されたと認識する。そしてシステムコントローラ261は、当該抽出された検出顔特徴量に対して新しい識別IDを付加し、当該抽出された検出顔特徴量を当日検出顔特徴量として、識別IDと共に記憶部12に記憶する、さらに、システムコントローラ261は、当該識別IDを見かけ年齢及び性別、並びに笑顔の有無の判別に関連づけて記憶部12に記憶する。   On the other hand, the system controller 261 recognizes that the person who is the source of the extracted detected face feature amount is detected for the first time on the day when there is no detected face feature amount on the same day recognized as the same person. Then, the system controller 261 adds a new identification ID to the extracted detected face feature quantity, and stores the extracted detected face feature quantity in the storage unit 12 together with the identification ID as a detected face feature quantity on the day. Furthermore, the system controller 261 stores the identification ID in the storage unit 12 in association with the apparent age, sex, and determination of whether or not there is a smile.

コンピュータ253のシステムコントローラ261は、ユーザの外部操作部55に対する操作に応じて、マーケティング情報表示処理を開始する。   The system controller 261 of the computer 253 starts marketing information display processing in response to a user operation on the external operation unit 55.

具体的に、システムコントローラ261は、ユーザの指定した日の、指定した時間帯において、人物数と、人物の検出見かけ年齢及び検出見かけ性別、並びに笑顔の有無を集計し、表示画面データを生成し、外部インターフェース63を介して表示部54に供給する。この結果、表示部54には、例えばグラフ表示やリスト表示により、集計結果が表示される。   Specifically, the system controller 261 aggregates the number of persons, the detected apparent age and detected apparent gender of the person, and the presence or absence of a smile in the specified time zone on the day specified by the user, and generates display screen data. , And supplied to the display unit 54 via the external interface 63. As a result, the total result is displayed on the display unit 54 by, for example, graph display or list display.

さらに、システムコントローラ261は、ユーザの要求に応じて識別IDごとの結果を集計する。例えば、システムコントローラ261は、4台のビデオカメラ52で撮影された動画像データにおいて、全て笑顔であった人物について、撮影時間からアトラクションを出た時間を集計し、表示画面データを生成する。もちろん、笑顔の少なかった人物について、同様の集計が可能である。   Furthermore, the system controller 261 totals the results for each identification ID in response to a user request. For example, the system controller 261 adds up the time of attraction from the shooting time for a person who is all smiling in the moving image data shot by the four video cameras 52, and generates display screen data. Of course, the same calculation is possible for a person with a small smile.

これにより、ユーザは、参加したアトラクション及び回る順番と、笑顔の有無との関係を示すマーケティング情報を知ることが可能であり、より多くのマーケティング情報を得ることができる。   Thereby, the user can know the marketing information which shows the relationship between the participating attraction and the turn order, and the presence or absence of a smile, and can acquire more marketing information.

[3−2.表情情報生成処理手順]
次に、表情情報生成プログラムに従って実行される表情情報生成処理について、図16に示すフローチャートを用いて説明する。
[3-2. Facial information generation processing procedure]
Next, facial expression information generation processing executed in accordance with the facial expression information generation program will be described using the flowchart shown in FIG.

コンピュータ253は、ユーザの操作に応じて、表情情報生成プログラムを起動する。コンピュータ253は、ユーザの操作に応じて動画像データの取得処理が選択されたことを認識すると、マーケティング情報処理手順RT4を開始し、次のステップSP31へ移る。   The computer 253 activates a facial expression information generation program in response to a user operation. When the computer 253 recognizes that the moving image data acquisition process has been selected in accordance with the user operation, the computer 253 starts the marketing information processing procedure RT4, and proceeds to the next step SP31.

ステップSP31〜38において、コンピュータ253は、マーケティング情報処理手順RT3と同様の処理を行うと、次のステップSP51へ移る。   In steps SP31 to 38, when the computer 253 performs the same processing as the marketing information processing procedure RT3, the computer 253 proceeds to the next step SP51.

ステップSP51において、コンピュータ253は、ステップSP34において抽出された検出顔特徴量と当日検出顔特徴量とを照合し、検出顔特徴量との一致率により、抽出された検出顔特徴量の元になる人物が、当日既に検出されたか否かについて判別する。   In step SP51, the computer 253 collates the detected face feature amount extracted in step SP34 with the detected face feature amount on the day, and based on the matching rate with the detected face feature amount, becomes the source of the extracted detected face feature amount. It is determined whether or not a person has already been detected on the day.

ここで肯定結果が得られた場合、このことは、抽出された検出顔特徴量の元になる人物が、既に識別IDを有していることを意味しており、このとき、コンピュータ253は、次のステップSP52へ移る。   If a positive result is obtained here, this means that the person who is the source of the extracted detected face feature quantity already has an identification ID. At this time, the computer 253 Control goes to the next step SP52.

ステップSP52において、コンピュータ253は、一致すると判別された人物の検出顔特徴量に関連付けられた識別IDを読み出し、ステップSP38において記憶した笑顔の有無、並びに見かけ年齢及び性別と関連付けて記憶部62に記憶すると、次のステップSP54へ移る。   In step SP52, the computer 253 reads out the identification ID associated with the detected face feature amount of the person determined to match, and stores it in the storage unit 62 in association with the presence / absence of the smile stored in step SP38 and the apparent age and sex. Then, the process proceeds to the next step SP54.

これに対してステップSP51において否定結果が得られた場合、このことは、抽出された検出顔特徴量の元になる人物が、識別IDを有していないことを意味しており、このとき、コンピュータ253は、次のステップSP53へ移る。   On the other hand, if a negative result is obtained in step SP51, this means that the person who is the source of the extracted detected face feature quantity does not have an identification ID. The computer 253 proceeds to the next step SP53.

ステップSP53において、コンピュータ253は、抽出された検出顔特徴量を当日検出顔特徴量として記憶すると共に、当該当日検出顔特徴量に新たな識別IDを付加し、当該当日検出顔特徴量に関連付けて記憶部62に記憶すると、次のステップSP54へ移る。   In step SP53, the computer 253 stores the extracted detected face feature quantity as the detected face feature quantity on the day, adds a new identification ID to the detected face feature quantity on the day, and associates it with the detected face feature quantity on the day. If it memorize | stores in the memory | storage part 62, it will move to following step SP54.

ステップSP54において、コンピュータ253は、処理を終了すべき旨の要求がユーザからなされたか否かを判別し、否定結果が得られた場合、ステップSP31へ戻って表情情報生成処理手順RT4を継続する。   In step SP54, the computer 253 determines whether or not the user has requested to end the process. If a negative result is obtained, the computer 253 returns to step SP31 and continues the facial expression information generation processing procedure RT4.

これに対してステップSP54において、否定結果が得られた場合、コンピュータ253は、終了ステップへ移って表情情報生成処理手順RT4を終了する。   On the other hand, if a negative result is obtained in step SP54, the computer 253 moves to an end step and ends the facial expression information generation processing procedure RT4.

[3−4.動作及び効果]
以上の構成において、コンピュータ253の外部インターフェース63は、インターネットを介して画像データ及び履歴情報を取得する。
[3-4. Operation and effect]
In the above configuration, the external interface 63 of the computer 253 acquires image data and history information via the Internet.

これにより、コンピュータ253は、わざわざビデオカメラ52を用いた撮影を行わなくても、本人の使用意志確認が取れた顔画像データを取得することができる。また、撮影を行わないため、世界各国の様々な人種・民族・地域から非常に簡便に顔画像データを取得することができる。   As a result, the computer 253 can acquire face image data for which the user's intention to use has been confirmed without performing the shooting using the video camera 52. In addition, since no photographing is performed, face image data can be acquired very easily from various races, ethnicities, and regions around the world.

システムコントローラ261は、複数のビデオカメラ52によって撮影された複数の動画像データ間において、検出される人物の同一性を判別する。   The system controller 261 determines the identity of a detected person among a plurality of moving image data shot by a plurality of video cameras 52.

これにより、コンピュータ253は、同一人物がどのようなタイミングで複数の動画像データに撮影されたかを把握することができるため、一段とマーケティング情報としての有用性を高めることができる。   As a result, the computer 253 can grasp at what timing the same person was photographed in a plurality of moving image data, and thus can further increase the usefulness as marketing information.

<第4の実施の形態>
図17に示す第4の実施の形態においては、図1〜図9に示す第1の実施の形態と対応する箇所に同一符号を附して示し、同一部分についての説明を省略する。第4の実施の形態では、表情情報生成処理において、特定の顧客のみに対してマーケティング情報を取得する点が、第1の実施の形態と異なっている。
<Fourth embodiment>
In the fourth embodiment shown in FIG. 17, portions corresponding to those in the first embodiment shown in FIGS. 1 to 9 are denoted by the same reference numerals, and description of the same portions is omitted. The fourth embodiment is different from the first embodiment in that marketing information is acquired only for a specific customer in the facial expression information generation process.

[4−1.表情情報生成処理]
第4の実施の形態においては、ビデオカメラ52は旅館やホテルに設置される。例えば、ビデオカメラ52は、旅館の出口に設置される。また、チェックアウトする顧客を特定するためのビデオカメラ69が、ホテルのチェックアウトカウンターに設置される。
[4-1. Facial information generation processing]
In the fourth embodiment, the video camera 52 is installed in an inn or hotel. For example, the video camera 52 is installed at the exit of an inn. In addition, a video camera 69 for identifying a customer to be checked out is installed at a hotel checkout counter.

コンピュータ353は、チェックアウト処理を行う情報処理端末68(図示せず)と、ビデオカメラ52及び69に接続されている。コンピュータ353のシステムコントローラ361は、チェックアウトの処理を行った顧客についてのみ、マーケティング情報を生成する。   The computer 353 is connected to an information processing terminal 68 (not shown) that performs a checkout process, and video cameras 52 and 69. The system controller 361 of the computer 353 generates marketing information only for the customer who has performed the checkout process.

具体的に、コンピュータ353のシステムコントローラ361は、情報処理端末68からチェックアウト処理を行う旨の通信信号が供給されると、ビデオカメラ69から供給される動画像データに対し、顔検出処理を行い、特定顔画像データを取得する。 Specifically, the system controller 361 of the computer 353 performs face detection processing on the moving image data supplied from the video camera 69 when a communication signal for performing the checkout processing is supplied from the information processing terminal 68. The specific face image data is acquired.

システムコントローラ361は、特定顔画像データから特徴量を抽出し(以下、これを特定顔特徴量と呼ぶ)、これを記憶部62に記憶する。   The system controller 361 extracts a feature amount from the specific face image data (hereinafter referred to as a specific face feature amount) and stores it in the storage unit 62.

システムコントローラ361は、出口に設置されたビデオカメラ52から供給される動画像データに対して人物検出及び顔検出処理を実行し、検出された検出顔特徴量と、特定顔特徴量とを照合する。 The system controller 361 performs person detection and face detection processing on the moving image data supplied from the video camera 52 installed at the exit, and collates the detected face feature quantity with the specific face feature quantity. .

システムコントローラ361は、検出顔特徴量と特定顔特徴量との一致率が閾値以上であったことにより、検出顔特徴量の元となる人物がチェックアウト処理を行った顧客であると認識すると、マーケティング情報の生成を行う。 When the system controller 361 recognizes that the person who is the source of the detected face feature value is the customer who performed the checkout process because the matching rate between the detected face feature value and the specific face feature value is equal to or greater than the threshold value, Generate marketing information.

システムコントローラ361は、見かけ年齢及び性別を決定すると共に、笑顔の有無を判別し、これらを記憶部62に記憶する。 The system controller 361 determines the apparent age and gender, determines the presence or absence of a smile, and stores them in the storage unit 62.

このように、コンピュータ353のシステムコントローラ361は、特定の人物に対してのみマーケティング情報の生成を行うことにより、本当に必要なマーケティング情報のみを生成することができる。   As described above, the system controller 361 of the computer 353 can generate only the marketing information that is really necessary by generating the marketing information only for a specific person.

[4−2.動作及び効果]
以上の構成において、コンピュータ353のシステムコントローラ361は、検出された人物が特定の人物であるか否かを判別し、検出された人物が特定の人物であった場合にのみ、検出された人物の顔である顔画像データから笑顔の有無を検出する。
[4-2. Operation and effect]
In the above configuration, the system controller 361 of the computer 353 determines whether or not the detected person is a specific person, and only when the detected person is the specific person, The presence or absence of a smile is detected from face image data that is a face.

これにより、システムコントローラ361は、マーケティング情報として必要となる特定の人物に対してのみ笑顔の有無を検出すれば良いため、不要な情報を排除しつつ処理負荷を軽減できる。   As a result, the system controller 361 only needs to detect the presence / absence of a smile for a specific person required as marketing information, and thus can reduce the processing load while eliminating unnecessary information.

<第5の実施の形態>
[5−1.輝度調整処理]
図20に示す第5の実施の形態においては、図15に示す第3の実施の形態と対応する箇所に同一符号を附して示し、同一部分についての説明を省略する。第5の実施の形態では、設置時点において、ビデオカメラ52A〜Dごとに輝度変化による年齢判定の差異を極力抑制するために輝度調整処理を行う点が、第4の実施の形態と異なっている。
<Fifth embodiment>
[5-1. Brightness adjustment processing]
In the fifth embodiment shown in FIG. 20, portions corresponding to those in the third embodiment shown in FIG. 15 are denoted by the same reference numerals, and description of the same portions is omitted. The fifth embodiment is different from the fourth embodiment in that, at the time of installation, the luminance adjustment processing is performed for each video camera 52A to 52D to suppress the difference in age determination due to the luminance change as much as possible. .

コンピュータ253のシステムコントローラ261は、例えばメニュー画面において、カメラ設置ボタンをクリックするなどのユーザの操作に応じて、カメラ設置モードに移行する。カメラ設置モードにおいて、システムコントローラ261は、輝度調整処理の対象となるビデオカメラとして例えばビデオカメラ52Aが選択されると、ビデオカメラ52Aが撮影中の画像を表示する。 The system controller 261 of the computer 253 shifts to the camera installation mode in response to a user operation such as clicking a camera installation button on the menu screen, for example. In the camera installation mode, when the video camera 52A, for example, is selected as the video camera to be subjected to the brightness adjustment process, the system controller 261 displays an image being shot by the video camera 52A.

このとき、ビデオカメラ52Aの前には、特定の撮影基準対象が撮影される。撮影基準対象としては、例えば白1色など特定の色をした板や、格子状に種々の色彩が描かれた板、複数の顔が印刷された板などの画像の他に、顔型や卵形、凹凸のある球など、立体形状を有するオブジェ、及び画像とオブジェの組み合わせなどが想定されている。 At this time, a specific shooting reference target is shot in front of the video camera 52A. In addition to images such as a board with a specific color such as white, a board with various colors drawn in a grid, a board with a plurality of faces printed on it, the shooting reference target is a face type or egg. An object having a three-dimensional shape, such as a sphere having a shape or unevenness, and a combination of an image and an object are assumed.

システムコントローラ261は、ユーザの操作に応じて撮影基準対象の画像を取得すると、例えば予め撮影基準対象に設けられた撮影サイズ補正用のマークに基づいて、撮影された撮影基準対象の大きさを補正する。 When the system controller 261 acquires an image of the shooting reference target in response to a user operation, the system controller 261 corrects the size of the shot shooting reference target based on, for example, a shooting size correction mark provided in advance on the shooting reference target. To do.

撮影基準対象の特定範囲における輝度を特定範囲輝度として検出するこの特定範囲は、撮影基準対象の全部又は一部であって良く、さらに単数であっても複数であっても構わないが、精度向上のために複数設けることが望ましい。 This specific range for detecting the luminance in the specific range of the photographing reference target as the specific range luminance may be all or a part of the photographing reference target, and may be singular or plural. It is desirable to provide a plurality for this purpose.

次いで、システムコントローラ261は、コンピュータ253の記憶部262には、予め輝度補正値が記憶されている。システムコントローラ261は、特定範囲の輝度に応じて輝度補正値を特定する。また、システムコントローラ261は、例えば特定範囲輝度の基準値との差異に基づいて、計算により輝度補正値を算出しても良い。 Next, in the system controller 261, the brightness correction value is stored in advance in the storage unit 262 of the computer 253. The system controller 261 specifies the luminance correction value according to the luminance in the specific range. Further, the system controller 261 may calculate the brightness correction value by calculation based on, for example, a difference from the reference value of the specific range brightness.

システムコントローラ261は、ユーザの操作に応じて次のカメラ52Bに対する輝度調整処理を実行する旨の要求がなされると、カメラ52Bに対して同様の処理を実行する。そしてシステムコントローラ261は、ユーザの操作に応じてカメラ設置モードを終了する旨の要求がなされると、カメラ設置モードを終了する。 When the system controller 261 is requested to execute the brightness adjustment process for the next camera 52B according to the user's operation, the system controller 261 executes the same process for the camera 52B. When the system controller 261 is requested to end the camera installation mode in response to a user operation, the system controller 261 ends the camera installation mode.

この後、システムコントローラ261は、表情情報生成処理において、検出された検出見かけ年齢に対して例えば輝度補正値を乗算又は加減算などすることにより検出見かけ年齢の値を補正し、最終的な検出見かけ年齢を判定する。この輝度補正値は、一定の値でも良いが、年齢値に対応して変化する変数であっても良い。 Thereafter, in the facial expression information generation process, the system controller 261 corrects the detected apparent age value by, for example, multiplying or adding / subtracting the brightness correction value with respect to the detected detected apparent age to obtain the final detected apparent age. Determine. The brightness correction value may be a constant value, or may be a variable that changes according to the age value.

このようにコンピュータ253は、撮影された撮影基準対象の輝度値に基づいて年齢値を補正するようにしたことにより、撮影される状況に応じて検出みかけ年齢の値を補正することができ、光の当たり具合などによって検出見かけ年齢の値が変化してしまうことを極力抑制することができる。 As described above, the computer 253 can correct the detected apparent age value according to the shooting situation by correcting the age value based on the luminance value of the shooting reference object that has been shot. It is possible to suppress as much as possible that the value of the detected apparent age is changed depending on the degree of hitting.

[5−2.輝度調整処理手順]
次に、輝度調整プログラムに従って実行される輝度調整処理について、図20に示すフローチャートを用いて説明する。
[5-2. Brightness adjustment processing procedure]
Next, luminance adjustment processing executed according to the luminance adjustment program will be described with reference to the flowchart shown in FIG.

コンピュータ253は、ユーザの操作に応じてカメラ設置モードに移行すると、輝度調整処理を開始し、次のステップSP101へ移る。 When the computer 253 shifts to the camera installation mode according to the user's operation, the computer 253 starts the brightness adjustment processing, and proceeds to the next step SP101.

ステップSP101において、コンピュータ253は、ユーザによって輝度調整処理を行う対象となるビデオカメラ52が選択されると、次のステップSP102へ移る。 In step SP101, when the video camera 52 to be subjected to brightness adjustment processing is selected by the user, the computer 253 proceeds to the next step SP102.

ステップSP102において、コンピュータ253は、選択されたビデオカメラ52の撮影画像を表示すると、次のステップSP102へ移る。 In step SP102, when the computer 253 displays the photographed image of the selected video camera 52, the computer 253 proceeds to the next step SP102.

ステップSP103において、コンピュータ253は、撮影基準対象の画像を取得したか否かを判断し、取得した場合には次のステップSP104へ移り、そうでない場合には取得するまで待ち受ける。 In step SP103, the computer 253 determines whether or not an image as a photographing reference target has been acquired. If it has been acquired, the computer 253 proceeds to the next step SP104, and otherwise waits until it is acquired.

ステップSP104において、コンピュータ253は、画像データにおける撮影基準対象のサイズを調整すると、次のステップSP104へ移る。 In step SP104, when the computer 253 adjusts the size of the photographing reference target in the image data, the computer 253 proceeds to the next step SP104.

ステップSP105において、コンピュータ253は、特定範囲輝度を検出すると、次のステップSP106へ移る。 In step SP105, when the computer 253 detects the specific range luminance, the computer 253 proceeds to the next step SP106.

ステップSP106において、コンピュータ253は、特定範囲輝度に基づいて輝度補正値を決定すると、次のステップSP107へ移る。   In step SP106, when the computer 253 determines the luminance correction value based on the specific range luminance, the computer 253 proceeds to the next step SP107.

ステップSP107において、コンピュータ253は、ユーザの操作に応じてさらに輝度調整処理を実行する旨の操作要求がなされたか否かを判別し、肯定された場合には、ステップSP101へ戻り、次のビデオカメラ52に対する輝度調整処理を実行する。   In step SP107, the computer 253 determines whether or not an operation request for further executing the brightness adjustment processing has been made in accordance with the user's operation. If the operation request is affirmed, the computer 253 returns to step SP101 and proceeds to the next video camera. The brightness adjustment process for 52 is executed.

これに対してステップSP107において否定結果が得られた場合、コンピュータ253は、終了ステップへ移り、輝度調整処理を終了すると共に、カメラ設置モードを解除する。   On the other hand, if a negative result is obtained in step SP107, the computer 253 proceeds to an end step, ends the brightness adjustment process, and cancels the camera installation mode.

このように、コンピュータ253は、予め定められた撮影基準対象の画像データの特定範囲における特定範囲輝度に基づいて、輝度補正値を決定し、輝度補正値を用いて年齢値を補正することにより、特定範囲輝度に基づいてみかけ年齢を判別するようにした。   As described above, the computer 253 determines the brightness correction value based on the specific range brightness in the specific range of the predetermined image data of the imaging reference target, and corrects the age value by using the brightness correction value. The apparent age was determined based on the specific range luminance.

これにより、コンピュータ253は、ビデオカメラ52が設置された場所やビデオカメラ52自身の性能などによって見かけ年齢が変動することを極力抑制でき、見かけ年齢の検出精度を向上させ得る。   Thereby, the computer 253 can suppress the apparent age from fluctuating as much as possible depending on the location where the video camera 52 is installed, the performance of the video camera 52 itself, and the like, and can improve the detection accuracy of the apparent age.

<第6の実施の形態>
第6の実施の形態においては、第3の実施の形態と対応する箇所に同一符号を附して示し、同一部分についての説明を省略する。第6の実施の形態では、現在の日時及び天気など、ビデオカメラ52の設置された環境に応じた環境要素を判断し、年齢値を補正する点が第3の実施の形態と異なっている。
<Sixth Embodiment>
In the sixth embodiment, parts corresponding to those in the third embodiment are denoted by the same reference numerals, and description of the same parts is omitted. The sixth embodiment is different from the third embodiment in that an environmental element according to the environment in which the video camera 52 is installed, such as the current date and weather, is determined and the age value is corrected.

コンピュータ253のシステムコントローラ261は、表情情報生成処理において、インターネットなどのネットワークを介して現在の天気情報を取得すると共に、現在の日時から、日照の季節的及び時間的な日時日照強度を決定する。そしてシステムコントローラ261は、天気情報及び日時日照強度及び天気情報から、現在の環境要素に応じた環境補正値を算出する。   In the facial expression information generation process, the system controller 261 of the computer 253 obtains current weather information via a network such as the Internet, and determines the sunshine intensity and seasonal sunshine intensity from the current date and time. Then, the system controller 261 calculates an environmental correction value corresponding to the current environmental element from the weather information, the date and time sunshine intensity, and the weather information.

例えばコンピュータ253の記憶部262には、日付、時刻、天気の3つの環境要素に応じた環境補正値が予め記憶されている。システムコントローラ261は、表情情報生成処理の際、日付、時刻、天気に基づいて環境補正値を決定し、検出みかけ年齢の値を補正して最終的な検出見かけ年齢を決定する。この環境補正値は、例えば、30分ごと、1時間ごとのように所定時間ごとに変更されることが好ましい。また、環境補正値は、環境要素に応じて計算によって算出されても良い。   For example, in the storage unit 262 of the computer 253, environmental correction values corresponding to three environmental elements of date, time, and weather are stored in advance. In the facial expression information generation process, the system controller 261 determines an environment correction value based on the date, time, and weather, corrects the detected apparent age value, and determines the final detected apparent age. The environmental correction value is preferably changed every predetermined time, for example, every 30 minutes or every hour. Further, the environmental correction value may be calculated by calculation according to an environmental element.

このように、本実施の形態における表情情報生成システムでは、環境要素に応じて年齢値を補正して検出見かけ年齢を決定することにより、各ビデオカメラ52A〜Dの設置された状況に拘わらず、ほぼ一定の見かけ年齢を検出することができ、見かけ年齢の検出精度を向上させ得る。 As described above, in the facial expression information generation system according to the present embodiment, by correcting the age value according to the environmental element and determining the detected apparent age, regardless of the situation where each of the video cameras 52A to 52D is installed, An almost constant apparent age can be detected, and the apparent age detection accuracy can be improved.

コンピュータ253は、撮影場所における現在の環境に応じた環境要素から環境補正値を決定し、環境補正値を用いて年齢値を補正することにより、環境補正値に基づいてみかけ年齢を判別する。   The computer 253 determines an apparent correction age based on the environmental correction value by determining an environmental correction value from an environmental element corresponding to the current environment at the shooting location and correcting the age value using the environmental correction value.

これにより、コンピュータ253は、ビデオカメラ52が設置された撮影場所における環境の影響を最小限に抑えることができ、見かけ年齢の判別精度を向上させ得る。特に、ビデオカメラ52が屋外に設置されるような場合に、環境の影響を最小限に抑えることができ、非常に有効である。   Thereby, the computer 253 can minimize the influence of the environment at the shooting location where the video camera 52 is installed, and can improve the apparent age discrimination accuracy. In particular, when the video camera 52 is installed outdoors, the influence of the environment can be minimized, which is very effective.

<第7の実施の形態>
第7の実施の形態においては、第1の実施の形態と対応する箇所に同一符号を附して示し、同一部分についての説明を省略する。第7の実施の形態では、表情情報生成処理を用いて視聴率調査を行う点が第1の実施の形態と異なっている。
<Seventh embodiment>
In the seventh embodiment, portions corresponding to those in the first embodiment are denoted by the same reference numerals, and description of the same portions is omitted. The seventh embodiment is different from the first embodiment in that an audience rating survey is performed using facial expression information generation processing.

図21に示すように、視聴率調査システム751では、コンピュータ756がインターネット720に接続されている。端末装置としてのカメラ付端末752は、撮影手段としてのカメラ、表示手段としての表示部、受信及び送信手段としての通信部を有しており、映像データを受信し、表示部を介して視聴可能になされている。映像データとしては、例えば地上波テレビジョン放送や衛星放送等の電波を受信する他、オンデマンドによるストリーミング放送、インターネットテレビジョン放送、DVD(Digital Versatile Disc)、USB(universal serial bus)などの固定メディアの再生、内蔵HDD(Hard Disc Drive)などの内蔵装置に記憶されたものなどが想定されている。   As shown in FIG. 21, in the audience rating survey system 751, a computer 756 is connected to the Internet 720. A terminal 752 with a camera as a terminal device has a camera as a photographing unit, a display unit as a display unit, and a communication unit as a reception and transmission unit, and can receive video data and view it via the display unit. Has been made. As video data, for example, in addition to receiving radio waves such as terrestrial television broadcasting and satellite broadcasting, on-demand streaming broadcasting, Internet television broadcasting, DVD (Digital Versatile Disc), USB (universal serial bus) and other fixed media Are stored in a built-in device such as a built-in HDD (Hard Disc Drive).

カメラ付端末752としては、パーソナルコンピュータやスマートフォン、携帯電話、タブレット端末、テレビジョン受信機など、インターネットなどのネットワークに接続可能な端末であれば制限はない。 The camera-equipped terminal 752 is not limited as long as it can be connected to a network such as the Internet, such as a personal computer, a smartphone, a mobile phone, a tablet terminal, or a television receiver.

視聴率調査プログラムは、カメラ付端末752の記憶部(図示しない)に予め記憶されている。カメラ付端末752は、映像データを受信すると、当該映像データに基づく放送画面を表示部に表示すると共に、付属カメラを用いて視聴者の撮影を実行する。なお、視聴者には予め視聴率調査システムに対する許可を得た上で視聴率調査プログラムをダウンロードしておくことが望ましい。 The audience rating survey program is stored in advance in a storage unit (not shown) of the camera-equipped terminal 752. When receiving the video data, the camera-equipped terminal 752 displays a broadcast screen based on the video data on the display unit, and performs shooting of the viewer using the attached camera. It is desirable for the viewer to download the audience rating survey program after obtaining permission for the audience rating survey system in advance.

そしてカメラ付端末752は、撮影データに対して表情情報生成処理を実行する。この表情情報生成処理は、例えば1秒ごとなどの所定間隔で実行されることが好ましい。 Then, the camera-equipped terminal 752 executes facial expression information generation processing on the captured data. The facial expression information generation process is preferably executed at a predetermined interval such as every second.

カメラ付端末752は、検出された検出見かけ年齢、性別及び笑顔度を、映像データのどの部分かを示す時間情報と紐付けし、インターネット720を介してコンピュータ756へ送信する。 The camera-equipped terminal 752 associates the detected apparent age, gender, and smile level with time information indicating which part of the video data, and transmits it to the computer 756 via the Internet 720.

なお、カメラ付端末752が映像データの時間情報と紐付けして撮影データをコンピュータ756に対して送信し、コンピュータ756が表情情報生成処理を実行しても良い。 Note that the camera-equipped terminal 752 may link the time information of the video data and transmit the shooting data to the computer 756, and the computer 756 may execute facial expression information generation processing.

この結果、コンピュータ756の記憶部には、映像データの時間情報と紐付けされた状態で、視聴者の検出見かけ年齢、性別及び笑顔度が記憶される。コンピュータ756のシステムコントローラ(図示せず)は、時間情報ごとに視聴者の検出見かけ年齢、性別及び笑顔度を統計することにより、時間情報ごと、および映像データごとの視聴率を検出見かけ年齢及び検出みかけ性別ごとに算出する。 As a result, the detected apparent age, gender, and smile level of the viewer are stored in the storage unit of the computer 756 in a state linked to the time information of the video data. The system controller (not shown) of the computer 756 detects the viewer's detected apparent age, sex, and smile level for each time information, thereby detecting the audience rating for each time information and each video data. Calculate for each apparent gender.

図22に示すように、コンピュータ756は、ユーザの操作に応じて、表示部54に表示画面780を表示する。図22及び23に示すように、この表示画面780には、映像を表示する映像表示枠781と、映像データの再生位置を示す時間表示枠782と、全映像データのトータルのトータル視聴率グラフ783a及びトータル笑顔度グラフ783bを表すトータル表示枠783と、現在表示中の映像データに対応する視聴率及び笑顔度を表す映像評判枠784と、現在表示中の映像データに対応する視聴率及び笑顔度の性別・年齢ごとの詳細を表示する詳細表示枠785とを有している。 As illustrated in FIG. 22, the computer 756 displays a display screen 780 on the display unit 54 in accordance with a user operation. As shown in FIGS. 22 and 23, the display screen 780 includes a video display frame 781 for displaying video, a time display frame 782 indicating the playback position of video data, and a total total audience rating graph 783a of all video data. And a total display frame 783 representing the total smile degree graph 783b, a video reputation frame 784 representing the audience rating and smile level corresponding to the currently displayed video data, and the audience rating and smile level corresponding to the currently displayed video data. And a detailed display frame 785 for displaying details for each gender and age.

詳細表示枠785に表示された項目は、設定によって変更可能である。例えば、5歳刻みで表示したり、男女合わせた項目を表示することも可能である。 Items displayed in the detailed display frame 785 can be changed by setting. For example, it is possible to display in increments of 5 years or to display items for both men and women.

この表示画面780において、時間表示枠781内に表示された時間バー782a上のカーソル786を移動させることにより、再生位置が移動し、再生位置に応じた映像データが表示されると共に、映像データに応じたトータル表示枠783、映像評判枠784及び詳細表示枠785が表示される。また、トータル表示枠783において再生位置を示す再生位置線783cも移動する。 On this display screen 780, by moving the cursor 786 on the time bar 782a displayed in the time display frame 781, the playback position is moved, video data corresponding to the playback position is displayed, and the video data is also displayed. A corresponding total display frame 783, a video reputation frame 784, and a detailed display frame 785 are displayed. In addition, the reproduction position line 783c indicating the reproduction position in the total display frame 783 is also moved.

これにより、簡単に再生位置を指定すると共に、当該指定された再生位置における視聴率及び笑顔度の状況を素早く認識できる。 As a result, it is possible to easily specify the playback position and quickly recognize the audience rating and smile level at the specified playback position.

例えば、トータル表示枠783内にカーソル786を置き、ダブルクリックすることにより、図23に示すように、表示画面780におけるトータル表示枠783と映像表示枠781の位置及び大きさを入れ替えることができる。また、詳細表示枠785には、視聴率及び笑顔度の性別・年齢ごとの詳細がグラフで表示されている。 For example, by placing the cursor 786 in the total display frame 783 and double-clicking, the positions and sizes of the total display frame 783 and the video display frame 781 on the display screen 780 can be switched as shown in FIG. Further, in the detailed display frame 785, details of the audience rating and the smile level for each gender and age are displayed in a graph.

図23の表示画面780において、再生位置線783c上のカーソル786を移動させることにより、再生位置が移動し、再生位置に応じた映像データが表示されると共に、映像データに応じたトータル表示枠783、映像評判枠784及び詳細表示枠785が表示される。 In the display screen 780 of FIG. 23, by moving the cursor 786 on the playback position line 783c, the playback position is moved, video data corresponding to the playback position is displayed, and a total display frame 783 corresponding to the video data is displayed. A video reputation frame 784 and a detailed display frame 785 are displayed.

これにより、例えば最も視聴率の高い再生位置を簡単に指定すると共に、当該指定された再生位置における映像データ、並びに視聴率及び笑顔度の詳細な状況を素早く認識できる。 Thereby, for example, the playback position with the highest audience rating can be easily specified, and the video data at the designated playback position, and the detailed situation of the audience rating and smile level can be recognized quickly.

このように、本実施の形態における視聴率調査システム751では、カメラ付端末752が映像データを表示すると共に、映像データを視聴する人物を撮影する。さらにカメラ付端末752は、撮影された動画像データから人物を検出すると共に、検出された前記人物の顔から表情を検出し、人物の数と、笑顔度と、映像データの時間情報とを関連付けて送信するコンピュータ756に送信する。コンピュータ756は、映像データと対応させて表情と人物の数とを統計するようにした。 As described above, in the audience rating survey system 751 according to the present embodiment, the camera-equipped terminal 752 displays the video data and photographs a person who views the video data. Furthermore, the camera-equipped terminal 752 detects a person from the captured moving image data, detects a facial expression from the detected face of the person, and associates the number of persons, the degree of smile, and time information of video data. To the computer 756 for transmission. The computer 756 statistics the facial expression and the number of persons in association with the video data.

これにより、コンピュータ756は、映像データの時間情報ごとに視聴率及び笑顔度を算出することができ、映像データの各画面と視聴率及び笑顔度を容易に関連づけることができる。この結果、コンピュータ756は、映像データに対応させて視聴率を統計でき、映像データの各シーンに対する視聴者の反応を容易に視認させることができる。 Accordingly, the computer 756 can calculate the audience rating and the smile level for each time information of the video data, and can easily associate each screen of the video data with the audience rate and the smile level. As a result, the computer 756 can statistically evaluate the audience rating corresponding to the video data, and can easily recognize the viewer's reaction to each scene of the video data.

<他の実施の形態>
なお上述した第1〜第7の実施の形態のデータベース作成処理において、入力手段として、外部インターフェース13に接続された外部操作部14を介して入力見かけ情報を入力させるようにした場合について述べた。本発明はこれに限らず、例えばノートパソコンのキーボードやタッチパネルなどの内部の入力手段から入力見かけ情報を入力させるようにしても良い。
<Other embodiments>
In the database creation process of the first to seventh embodiments described above, the case where the input apparent information is input via the external operation unit 14 connected to the external interface 13 as the input means has been described. The present invention is not limited to this. For example, the input apparent information may be input from an internal input unit such as a keyboard or a touch panel of a notebook computer.

さらに上述した第1〜第7の実施の形態のデータベース作成処理においては、見かけ情報データベースに履歴情報が登録されるようにした場合について述べた。本発明はこれに限らず、履歴情報は必ずしも必須ではない。また、履歴情報として、人種や民族などを含めることができる。人種や民族などの履歴情報は、見かけから入力されるようにしても良く、顔の色や特徴から自動的に判別されるようにしても良い。   Furthermore, in the database creation processing of the first to seventh embodiments described above, the case where history information is registered in the apparent information database has been described. The present invention is not limited to this, and history information is not necessarily essential. In addition, race information, ethnicity, and the like can be included as history information. History information such as race and ethnicity may be input from the appearance, or may be automatically determined from the color and characteristics of the face.

さらに上述した第1〜第7の実施の形態のデータベース作成処理においては、見かけ情報として見かけ年齢及び見かけ性別が入力されるようにした場合について述べた。本発明はこれに限らず、人種や民族などを見かけ情報として入力されても良い。   Furthermore, in the database creation processing of the first to seventh embodiments described above, the case where the apparent age and the apparent sex are input as the apparent information has been described. The present invention is not limited to this, and race or ethnicity may be input as apparent information.

さらに上述した第1〜第7の実施の形態のデータベース作成処理においては、入力回数だけ入力した直後に顔画像データの表示が禁止されるようにした場合について述べた。本発明はこれに限らず、所定期間(例えば1ヶ月)経過後に顔画像データが消去されたり、フラグを立てることによって顔画像データの表示が禁止されても良い。   Furthermore, in the database creation process of the first to seventh embodiments described above, the case where the display of the face image data is prohibited immediately after the number of times of input has been described has been described. The present invention is not limited to this, and face image data may be deleted after a predetermined period (for example, one month) has elapsed, or display of face image data may be prohibited by setting a flag.

さらに上述した第3の実施の形態のデータベース作成処理においては、アンケートの募集サイトなどを通じて、インターネットを介して画像データが取得されるようにした場合について述べた。本発明はこれに限らず、例えばコンピュータがホームページなどに公開されている顔画像データを自動的に取得することにより、インターネットを介して画像データを取得するようにしても良い。   Furthermore, in the database creation process of the third embodiment described above, a case has been described in which image data is acquired via the Internet through a questionnaire recruitment site or the like. The present invention is not limited to this, and image data may be acquired via the Internet, for example, by a computer automatically acquiring face image data published on a homepage or the like.

さらに上述した第1〜第7の実施の形態のデータベース作成処理においては、人型を検出した後に顔検出処理を実行し、上半身をトラッキングするようにした場合について述べ
、た。本発明はこれに限らず、例えば、顔を検出して人物カウントを行った後に上半身又は服装をトラッキングしたり、顔を検出して人物カウントを行った後にそのまま顔をトラッキングしたりするようにしても良い。
Furthermore, in the database creation process of the first to seventh embodiments described above, the case where the face detection process is executed after the human figure is detected to track the upper body has been described. The present invention is not limited to this. For example, the upper body or clothes are tracked after the face is detected and the person is counted, or the face is tracked as it is after the face is detected and the person is counted. Also good.

さらに上述した第1〜第7の実施の形態のデータベース作成処理において、動画像データから一つの顔画像データを生成するようにした場合について述べた。本発明はこれに限らず、2以上の顔画像データを生成するようにしても良い。例えば、システムコントローラ11は、人型を検出してトラッキングすることにより同一人物であることを認識しつつ、特徴量の大きく異なる複数枚の顔画像データを記憶部12に記憶する。これにより、一人の人物から例えば横顔や下を向いたときの顔など、照合に有用な複数の顔画像データを得ることができる。   Further, the case where one face image data is generated from moving image data in the database creation processing of the first to seventh embodiments described above has been described. The present invention is not limited to this, and two or more face image data may be generated. For example, the system controller 11 stores a plurality of face image data having greatly different feature amounts in the storage unit 12 while recognizing that they are the same person by detecting and tracking a human figure. As a result, a plurality of face image data useful for collation, such as a side face or a face when facing down, can be obtained from one person.

さらに上述した第1〜第7の実施の形態の表情情報生成処理において、コンピュータがビデオカメラ52から取得された画像データを取得するようにした場合について述べた。本発明はこれに限らず、例えばスマートフォンやタブレット端末、他のコンピュータなど、他の情報通信端末から供給される画像データを取得しても良い。   Furthermore, the case where the computer acquires the image data acquired from the video camera 52 in the expression information generation processing of the first to seventh embodiments described above has been described. The present invention is not limited to this, and image data supplied from other information communication terminals such as smartphones, tablet terminals, and other computers may be acquired.

具体的に、表情情報生成システムのコンピュータ553は、クラウドシステムにより、インターネットなどのネットワークを介して他の情報端末に接続される。コンピュータ553は、他の情報端末から動画像データを取得して表示情報生成処理を実行し、画面データを他の情報端末に供給する。他の情報端末は、画像データの供給と画面データの表示処理のみを行う。これにより、表情情報生成システムは、コンピュータ553の処理負荷を著しく低減できるため、例えばコンピュータ553として個人使用の一般的なパソコンや、小さな処理ユニットを使用することが可能となる。   Specifically, the computer 553 of the facial expression information generation system is connected to another information terminal by a cloud system via a network such as the Internet. The computer 553 acquires moving image data from another information terminal, executes display information generation processing, and supplies screen data to the other information terminal. Other information terminals only perform image data supply and screen data display processing. As a result, the facial expression information generation system can remarkably reduce the processing load on the computer 553, so that, for example, a personal computer or a small processing unit can be used as the computer 553.

この場合、コンピュータ553は、データベースの更新処理を実行する。これにより、コンピュータ553は、他の情報端末から供給された動画像データから膨大な数の顔画像データを取得することが可能となる。この場合、コンピュータ553は、新たな顔画像データを取得すると、顔特徴量を抽出し、登録顔特徴量との一致率を確認し、登録顔特徴量との一致率が高い顔画像データについては、顔画像データの表示を省略する。これにより、コンピュータ553は、顔画像データの多様性を保ちつつ、照合処理の負荷が過大になることを防止することができる。   In this case, the computer 553 executes database update processing. As a result, the computer 553 can acquire a huge number of face image data from moving image data supplied from other information terminals. In this case, when the computer 553 acquires new face image data, the computer 553 extracts the face feature amount, confirms the matching rate with the registered face feature amount, and for face image data with a high matching rate with the registered face feature amount. The display of face image data is omitted. Accordingly, the computer 553 can prevent the collation processing load from becoming excessive while maintaining the diversity of the face image data.

さらに上述した第1〜第7の実施の形態の表情情報生成処理において、コンピュータは、検出顔特徴量との一致率が最も高い登録顔特徴量を選択し、当該登録顔特徴量に関連付けられた見かけ年齢及び性別を検出顔特徴量の基となる人物の見かけ年齢及び性別とした場合について述べた。本発明はこれに限らず、例えば、登録顔特徴量を基に、年齢及び性別ごとにモデル特徴量を作成しておき、一致率が最も高いモデル特徴量に関連付けられた見かけ年齢及び性別を検出顔特徴量の基となる人物の見かけ年齢及び性別としても良い。このモデル特徴量は、見かけ年齢及び性別ごとに1つのみ作成されても良く、2以上作成されてもよい。   Further, in the facial expression information generation processing of the first to seventh embodiments described above, the computer selects a registered face feature amount having the highest coincidence with the detected face feature amount, and is associated with the registered face feature amount. The case where the apparent age and gender are the apparent age and gender of the person who is the basis of the detected face feature amount has been described. The present invention is not limited to this. For example, based on registered face feature values, model feature values are created for each age and gender, and the apparent age and sex associated with the model feature value having the highest matching rate are detected. The apparent age and gender of the person who is the basis of the facial feature quantity may be used. Only one model feature quantity may be created for each apparent age and sex, or two or more model feature quantities may be created.

これにより、表情情報生成システムでは、照合対象の数を著しく低減させることができる。このため、表情情報生成システムでは、コンピュータの処理負荷を著しく低減できるため、例えばコンピュータとして個人使用の一般的なパソコンや、小さな処理ユニットを使用することが可能となる。   Thereby, in the facial expression information generation system, the number of collation targets can be significantly reduced. For this reason, in the facial expression information generation system, the processing load on the computer can be significantly reduced. For example, it is possible to use a general personal computer for personal use or a small processing unit as the computer.

さらに上述した第1〜第7の実施の形態の表情情報生成処理においては、特定時間(例えば1時間、1日、曜日など)ごとに、検出見かけ情報及び笑顔の有無が統計されるようにした場合について述べた。本発明はこれに限らず、実年齢のデータベース及び実際の性別判断手法を用いて、実年齢及び実性別並びに検出された表情(笑顔の有無)が統計されるようにしても良い。   Furthermore, in the facial expression information generation processing of the first to seventh embodiments described above, the detected apparent information and the presence / absence of a smile are statistically calculated for each specific time (for example, 1 hour, 1 day, day of the week, etc.). Said about the case. The present invention is not limited to this, and the actual age, the actual sex, and the detected facial expression (presence / absence of a smile) may be statistically calculated using an actual age database and an actual sex determination method.

さらに上述した第4の実施の形態の表情情報生成処理においては、特定の人物についてのみ見かけ情報及び表情の検出が行われるようにした場合について述べた。本発明はこれに限らず、例えば全ての人物について見かけ情報及び表情の検出が行われるようにしても良い。この場合、特定の人物にのみフラグを立てるなどすることにより、ユーザの要求に応じて特定の人物と不特定の人物とに分けて統計が行われることが好ましい。これにより、全体に対する特定の人物の表情などが明確になるため、マーケティング情報の有用性を高めることができる。   Furthermore, in the facial expression information generation process of the fourth embodiment described above, the case where the appearance information and facial expression are detected only for a specific person has been described. The present invention is not limited to this. For example, appearance information and facial expression may be detected for all persons. In this case, it is preferable that the statistics are divided into a specific person and an unspecified person according to a user request by setting a flag only for the specific person. Thereby, since the expression of a specific person with respect to the whole becomes clear, the usefulness of marketing information can be enhanced.

また、特定の人物と不特定の人物とで統計手法を変化させても良い。例えば、コンピュータ653は、店舗など、店員と顧客が入り乱れる環境において、店員のみを特定し、笑顔の検出を行うことにより、店員の笑顔度と顧客の笑顔度とを同時に取得することが可能である。店員の笑顔度を取得する場合、コンピュータ653は、例えば笑顔度を複数段階に分け、笑顔度の段階と時間との関係を統計することにより、笑顔度と時間との関係を統計する。一方、コンピュータ653は、顧客に対しては笑顔度の平均値や笑顔の有無を算出する。   Further, the statistical method may be changed between a specific person and an unspecified person. For example, the computer 653 can acquire the smile level of the store clerk and the smile level of the customer at the same time by identifying only the store clerk and detecting a smile in an environment where the store clerk and the customer are confused, such as a store. is there. When acquiring the smile level of the store clerk, the computer 653 stats the relationship between the smile level and the time by, for example, dividing the smile level into a plurality of levels and statistically analyzing the relationship between the smile level and time. On the other hand, the computer 653 calculates the average value of smile levels and the presence or absence of smiles for customers.

さらに上述した第1〜第7の実施の形態の表情情報生成処理においては、笑顔度の平均値から笑顔の有無を判別するようにした場合について述べた。本発明はこれに限らず、例えば笑顔の大・中・小や、0〜20%、20〜40%、40〜60%、60〜80%、80〜100%というように、笑顔度の値に応じて3段階以上に分類しても良い。また、笑顔度をそのまま使用することも可能である。これにより、例えば接客業では自然な笑顔が要求され、顧客に対しては満面の笑顔が要求されるように、目的に応じて要求される笑顔に対しても柔軟に対応することが可能となる。 Furthermore, in the facial expression information generation processing of the first to seventh embodiments described above, the case where the presence / absence of a smile is determined from the average value of smile levels has been described. The present invention is not limited to this. For example, a smile value such as large / medium / small smiles, 0-20%, 20-40%, 40-60%, 60-80%, 80-100%. Depending on, it may be classified into three or more stages. It is also possible to use the smile level as it is. As a result, for example, a natural smile is required in the hospitality industry, and a smile that is required according to the purpose can be flexibly dealt with so that a full smile is required for the customer. .

さらに上述した第1〜第7の実施の携帯の表情情報生成処理においては、人型及び顔を検出すると人物であると認識するようにした場合について述べた。本発明はこれに限らず、例えばコンピュータは、人型の検出のみにより人数をカウントしたり、顔の検出や、表情の検出に応じて人数をカウントしても良い。   Furthermore, in the above-described portable facial expression information generation processes of the first to seventh embodiments, the case where a person is recognized when a human figure and a face are detected has been described. The present invention is not limited to this. For example, the computer may count the number of people only by detecting the human type, or may count the number of people according to the detection of the face or the detection of the facial expression.

さらに上述した第1〜第7の実施の携帯の表情情報生成処理においては、人型を検出するようにした場合について述べた。本発明はこれに限らず、コンピュータは、必ずしも人型を検出する必要はない。例えば顔の検出により人数をカウントし、そのまま表情を検出するようにしても良い。   Further, in the above-described portable facial expression information generation processing of the first to seventh embodiments, the case where a human figure is detected has been described. The present invention is not limited to this, and the computer does not necessarily need to detect a human figure. For example, the number of persons may be counted by detecting the face, and the facial expression may be detected as it is.

さらに上述した第1〜第7の実施の形態の表情情報生成処理においては、人物の笑顔の有無を判別するようにした場合について述べた。本発明はこれに限らず、例えば怒り顔、悲しみ顔のように、他の顔の表情についての有無やその程度を判別するようにしても良い。この場合、目尻や眉の角度、口角の角度に加えて、手の動きや目の開口率、眉間のしわなどを検出することによっても表情についての有無やその程度を判別することができる。   Furthermore, in the facial expression information generation processing of the first to seventh embodiments described above, the case where the presence or absence of a person's smile is determined has been described. The present invention is not limited to this. For example, the presence or absence of the facial expression of other faces such as an angry face and a sad face may be determined. In this case, the presence / absence of the facial expression and its degree can be determined by detecting the movement of the hand, the opening ratio of the eyes, the wrinkles between the eyebrows, etc. in addition to the angles of the corners of the eyes, the eyebrows, and the mouth corners.

この場合、例えば図19に示すように、コンピュータ753は、人物の動きに対応させて動く枠471を検出見かけ情報に応じた色分けをして表示すると共に、枠471の内部に表情を表す表情表示472を表示する。この表情表示472の色は、枠471と同じでも良いが、表情ごとに色分けすることにより、視認しやすくできる。   In this case, for example, as shown in FIG. 19, the computer 753 displays a frame 471 that moves in accordance with the movement of the person in a color-coded manner according to the detected apparent information, and also displays a facial expression that expresses an expression inside the frame 471. 472 is displayed. The color of the expression display 472 may be the same as that of the frame 471. However, the expression display 472 can be easily recognized by color-coding each expression.

表情表示472は、枠471の外側に表示しても良く、表情の度合いをグラフ化して一緒に表示することも可能である。また、例えば怒り=赤、悲しみ=青、笑い=黄色のように、表情を色で表示することも可能である。また、枠471は、その内部が塗りつぶされても良い。 The expression display 472 may be displayed outside the frame 471, and the degree of expression can be displayed in a graph. It is also possible to display facial expressions in colors, for example, anger = red, sadness = blue, and laughter = yellow. Further, the inside of the frame 471 may be filled.

この場合、コンピュータ753人物の動きに対応する枠471及び表情の度合いのみを表示し、動画像データを必ずしも重畳しなくても良い。これにより、コンピュータ753は、本当に必要となる人物の動き及びその表情についての情報を表示させつつ、撮影した顔画像をむやみやたらに表示させずに済み、撮影された人物のプライバシーを保護する事が可能となる。 In this case, only the frame 471 corresponding to the movement of the computer 753 person and the degree of expression are displayed, and the moving image data does not necessarily have to be superimposed. As a result, the computer 753 can display information on the movement and facial expression of the person that is really necessary, and can avoid unnecessary display of the photographed face image, thereby protecting the privacy of the photographed person. It becomes possible.

また、コンピュータ753は、必ずしもリアルタイムでかかる画面を表示する必要はなく、ユーザからの要求に応じて記憶部62に記憶された動画像データを表示することができる。この場合、動画像データの代わりに人物の移動点(例えば顔の中心点)のみを記憶部62に記憶しておくことにより、動画像データを記憶する場合と比較して格段にデータ容量を節約可能である。   Further, the computer 753 does not necessarily display such a screen in real time, and can display moving image data stored in the storage unit 62 in response to a request from the user. In this case, only the moving point of the person (for example, the center point of the face) is stored in the storage unit 62 instead of the moving image data, so that the data capacity can be greatly reduced as compared with the case of storing the moving image data. Is possible.

さらに上述した第1〜第7の実施の形態の表情情報生成処理においては、ビデオカメラ52から取得した動画像データからマーケティング情報を生成するようにした場合について述べた。本発明はこれに限らず、例えば、ICレコーダなどの録音機能を同時に用いるようにしても良い。   Furthermore, in the facial expression information generation processing of the first to seventh embodiments described above, the case where marketing information is generated from moving image data acquired from the video camera 52 has been described. The present invention is not limited to this. For example, a recording function such as an IC recorder may be used at the same time.

これにより、例えば営業マンと顧客との会話が撮影・録音された場合において、コンピュータが顧客の表情が変化した時点や笑顔度が高い時点を指定して再生することにより、営業マンのどの話の部分においてこれらの状況が生じたかを非常に簡単に後から追うことが可能となる。   Thus, for example, when a conversation between a salesperson and a customer is filmed / recorded, the computer designates and plays back when the customer's facial expression changes or when the smile level is high. It can be traced very easily later whether these situations have occurred in the part.

さらに上述した第1〜第7の実施の形態においては、表情情報生成処理において、レストラン、ショッピングセンター、遊園地、ホテルに設置されたビデオカメラ52によって動画像データを撮影するようにした場合について述べた。本発明はこれに限らず、例えば、旅館、銀行、住宅販売所など、種々の場所に設置されたビデオカメラ52によって動画像データを撮影するようにしても良い。   Furthermore, in the first to seventh embodiments described above, a case is described in which moving image data is captured by a video camera 52 installed in a restaurant, shopping center, amusement park, or hotel in the facial expression information generation process. It was. The present invention is not limited to this. For example, the moving image data may be captured by the video camera 52 installed in various places such as an inn, a bank, and a home sales office.

さらに上述した第5の実施の形態においては、輝度調整処理においてユーザの操作に応じて撮影基準対象の画像を取得するようにした場合について述べた。本発明はこれに限らず、撮影基準対象に撮影基準対象であることを示すマークを付すことにより、システムコントローラ261が撮影基準対象を自動検知して、自動的に撮影基準対象を撮影することも可能である。この場合、必ずしも選択されたビデオカメラ52の撮影中の画像を表示する必要はない。   Furthermore, in the fifth embodiment described above, a case has been described in which the image of the photographing reference target is acquired in accordance with the user operation in the brightness adjustment processing. The present invention is not limited to this, and the system controller 261 automatically detects the photographing reference object and automatically photographs the photographing reference object by attaching a mark indicating that the photographing reference object is the photographing reference object. Is possible. In this case, it is not always necessary to display an image being picked up by the selected video camera 52.

さらに上述した第5の実施の形態においては、輝度調整処理において、ひとつのビデオカメラ52を選択するようにした場合について述べた。本発明はこれに限らず、例えばビデオカメラ52が一つしか設置されていない場合には、ビデオカメラ52の選択は不要である。また、画像データにおける撮影基準対象のサイズ調整も必ずしも必要ではない。 Further, in the above-described fifth embodiment, the case where one video camera 52 is selected in the brightness adjustment processing has been described. The present invention is not limited to this. For example, when only one video camera 52 is installed, selection of the video camera 52 is unnecessary. Further, it is not always necessary to adjust the size of the photographing reference object in the image data.

さらに上述した第5及び第6の実施の形態においては、表情情報生成処理において、検出みかけ年齢の値を直接的に補正するようにした場合について述べた。本発明はこれに限らず、例えば、検出された顔の画像や検出顔特徴量に対してコントラストやシャープ度を調整するなどの画像処理を施すことにより、間接的に検出みかけ年齢の値をを補正しても良い。   Further, in the fifth and sixth embodiments described above, the case where the detected apparent age value is directly corrected in the facial expression information generation processing has been described. The present invention is not limited to this. For example, the detected apparent age value is indirectly set by performing image processing such as adjusting the contrast and sharpness on the detected face image and the detected face feature amount. It may be corrected.

さらに上述した6の実施の形態においては、表情情報生成処理において、日付、時刻、天気の3つの環境要素に応じた環境補正値を決定するようにした場合について述べた。本発明はこれに限らず、例えば、これらのうちの1要素のみ若しくは2要素を組み合わせて環境補正値を決定しても良い。また、照度計などで日照の強度を測定したデータを環境要素として取得し、又は直接測定し、これに基づいて環境補正値を決定しても良い。 Further, in the above-described sixth embodiment, the case has been described in which the environmental correction value corresponding to the three environmental elements of date, time, and weather is determined in the facial expression information generation process. The present invention is not limited to this. For example, the environmental correction value may be determined by combining only one element or two elements. Further, data obtained by measuring the intensity of sunlight with an illuminometer or the like may be acquired as an environmental element, or directly measured, and an environmental correction value may be determined based on this.

さらに上述した第7の実施の形態においては、視聴率調査システム751において、カメラ付端末752が表情情報生成処理を実行するようにした場合について述べた。本発明はこれに限らず、コンピュータ756に対してカメラ付端末752が動画像データを送信し、コンピュータ756が表情情報生成処理を実行しても良い。これにより、カメラ付端末752の処理負荷を軽減できる。 Furthermore, in the seventh embodiment described above, the case where the terminal with camera 752 executes the facial expression information generation process in the audience rating survey system 751 has been described. The present invention is not limited to this, and the camera-equipped terminal 752 may transmit moving image data to the computer 756, and the computer 756 may execute facial expression information generation processing. Thereby, the processing load of the camera-equipped terminal 752 can be reduced.

さらに上述した第7の実施の形態においては、視聴率調査システム751において、映像データに対応する視聴率及び笑顔度を表示するようにした場合について述べた。本発明はこれに限らず、例えば視聴人数と表情度合いのように、少なくとも検出された人物数と表情度とを統計した結果得られる値が表示されればよい。 Furthermore, in the seventh embodiment described above, the case where the audience rating survey system 751 displays the audience rating and smile level corresponding to the video data has been described. The present invention is not limited to this, and a value obtained as a result of statistics of at least the number of detected persons and the expression level, such as the number of viewers and the expression level, may be displayed.

さらに上述した第7の実施の形態における視聴率調査システム751では、カメラ付端末752が表情情報生成処理を実行するようにした場合について述べた。本発明はこれに限らず、カメラ付端末752が撮影した動画像データと映像データの時間情報とを関連付けた状態でコンピュータ756に供給し、コンピュータ756が表情情報生成処理を実行するようにしても良い。 Further, in the audience rating survey system 751 in the seventh embodiment described above, the case where the camera-equipped terminal 752 executes the facial expression information generation process has been described. The present invention is not limited to this, and the moving image data photographed by the camera-equipped terminal 752 and the time information of the video data are supplied in association with each other, and the computer 756 executes the facial expression information generation process. good.

すなわち、この視聴率調査システムでは、映像データを表示する表示手段と、映像データを視聴する人物を撮影する撮影手段と、撮影手段によって撮影された動画像データを送信する送信手段とを有する端末装置と、動画像データを取得する取得手段と、動画像データから人物を検出する人物検出手段と、検出された人物の顔から表情を検出する表情検出手段と、人物の数と、表情と、表情が検出された日時とを関連付けて記憶する記憶手段と特定の時間ごとに、表情と人物の数とを統計する統計手段とを有する表情情報生成装置とを有する。   That is, in this audience rating survey system, a terminal device having display means for displaying video data, photographing means for photographing a person who views the video data, and transmission means for transmitting moving image data photographed by the photographing means. An acquisition means for acquiring moving image data, a person detection means for detecting a person from the moving image data, an expression detection means for detecting an expression from the face of the detected person, the number of persons, an expression, and an expression A facial expression information generating device having storage means for associating and storing the date and time when the facial expression is detected, and statistical means for statistically analyzing the number of facial expressions and the number of persons for each specific time.

これにより、視聴率調査システムは、表情と人物の数とを映像データと関連付けて統計できるだけでなく、リアルタイムで人物の表情を確認できる。   Thereby, the audience rating survey system can confirm the facial expression of a person in real time as well as statistically associating the facial expression and the number of persons with the video data.

さらに上述した第7の実施の形態における視聴率調査システム751は、映像データを表示するカメラ付端末752として、例えば街頭などで広告情報を画面表示する、いわゆるサイネージ端末を用いることも可能である。この場合、表情情報生成処理として、トラッキング処理や個人IDの付加によって人物の同一性を特定し、人物ごとの滞留時間を検出することが好ましい。 Furthermore, the audience rating survey system 751 in the seventh embodiment described above can use a so-called signage terminal that displays advertisement information on the screen, for example, on a street as the camera-equipped terminal 752 that displays video data. In this case, as facial expression information generation processing, it is preferable that the identity of a person is specified by tracking processing or addition of a personal ID, and the residence time for each person is detected.

さらに上述した第1〜第7の実施の形態の各要素を適宜組み合わせることが可能である。 Furthermore, it is possible to appropriately combine the elements of the first to seventh embodiments described above.

さらに、上述した実施の形態においては、データベース作成プログラム及び表情情報生成プログラム等をROM又はハードディスクドライブなどに予め格納した場合について述べた。本発明はこれに限らず、メモリカードなどの外部記憶媒体からコンピュータ内部のフラッシュメモリやハードディスクドライブなどにインストールするようにしても良い。また、データベース作成プログラムなどをUSB(Universal Serial Bus)やEthernet(登録商標)(Institute
of Electrical and Electronics Engineers)802.11a/b/gなどの無線LAN(Local Area Network)を介して外部から取得し、さらに、は地上ディジタルテレビジョン放送やBSディジタルテレビジョン放送により配信されるようにしても良い。
Further, in the above-described embodiment, the case where the database creation program, the facial expression information generation program, and the like are stored in advance in a ROM or a hard disk drive has been described. The present invention is not limited to this, and it may be installed from an external storage medium such as a memory card into a flash memory or a hard disk drive in the computer. In addition, the database creation program and the like can be downloaded from USB (Universal Serial Bus) or Ethernet (registered trademark)
of Electrical and Electronics Engineers) 802.11a / b / g or other wireless LAN (Local Area Network) acquired from the outside, and further distributed by terrestrial digital television broadcast or BS digital television broadcast May be.

さらに上述した第1の実施の形態のデータベース作成処理においては、画像取得手段及入力手段としての外部インターフェース13と、見かけ年齢決定手段、見かけ性別決定手段及び特徴量抽出手段としてのシステムコントローラ11と、記憶手段としての記憶部12とによって本発明のデータベース作成装置としてのコンピュータ3を構成するようにした場合について述べた。本発明はこれに限らず、種々の構成による画像取得手段、入力手段、見かけ年齢決定手段、見かけ性別決定手段、特徴量抽出手段及び記憶手段によって本発明のデータベース作成装置を構成するようにしても良い。   Furthermore, in the database creation process of the first embodiment described above, the external interface 13 as an image acquisition means and an input means, the apparent age determination means, the apparent sex determination means, and the system controller 11 as a feature quantity extraction means, The case where the computer 3 as the database creation apparatus of the present invention is configured by the storage unit 12 as the storage means has been described. The present invention is not limited to this, and the database creation apparatus of the present invention may be configured by image acquisition means, input means, apparent age determination means, apparent sex determination means, feature amount extraction means, and storage means having various configurations. good.

さらに上述した第1の実施の形態の表情情報生成処理においては、取得手段としての外部インターフェース63と、人物検出手段、表情検出手段、統計手段としてのシステムコントローラ61と、記憶手段としての記憶部62とによって表情情報生成装置としてのコンピュータ53を構成する用にした場合について述べた。本発明はこれに限らず、種々の構成による取得手段、人物検出手段、表情検出手段、統計手段及び記憶手段によって本発明の表情情報生成装置を構成するようにしても良い。   Furthermore, in the facial expression information generation process of the first embodiment described above, the external interface 63 as an acquisition unit, the person detection unit, the facial expression detection unit, the system controller 61 as a statistical unit, and the storage unit 62 as a storage unit. The case where the computer 53 as the facial expression information generating apparatus is configured is described. The present invention is not limited to this, and the facial expression information generating apparatus of the present invention may be configured by acquisition means, person detection means, facial expression detection means, statistical means, and storage means having various configurations.

さらに上述した第1の実施の形態の表情情報生成処理においては、表情検出手段、検出情報決定手段、画面データ生成手段としてのシステムコントローラ61によって表情情報生成装置としてのコンピュータ53を構成する用にした場合について述べた。本発明はこれに限らず、種々の構成による表情検出手段、検出情報決定手段、画面データ生成手段によって本発明の表情情報生成装置を構成するようにしても良い。   Furthermore, in the facial expression information generation process of the first embodiment described above, the computer 53 as the facial expression information generation device is configured by the system controller 61 as the facial expression detection means, detection information determination means, and screen data generation means. Said about the case. The present invention is not limited to this, and the facial expression information generation apparatus of the present invention may be configured by facial expression detection means, detection information determination means, and screen data generation means having various configurations.

本発明は、例えばマーケティング情報を取得するためのプログラムに適用することができる。   The present invention can be applied to a program for acquiring marketing information, for example.

1・・・・・・データベース作成システム
2、52・・・・・・ビデオカメラ
3、5・・・・・・コンピュータ
4・・・・・・表示部
11、61・・・・・・システムコントローラ
12、62・・・・・・記憶部
13、63・・・・・・外部インターフェース
14、55・・・・・・外部操作部
51・・・・・・表示情報生成システム
1 ... Database creation system 2, 52 ... Video camera 3, 5 ... Computer 4 ... Display 11, 61 ... System Controllers 12, 62 ... Storage unit 13, 63 ... External interface 14, 55 ... External operation unit 51 ... Display information generation system

Claims (18)

動画像データを取得する取得手段と、
前記動画像データから人物を検出する人物検出手段と、
検出された前記人物の顔から表情を検出する表情検出手段と、
前記人物の数と、前記表情と、前記表情が検出された日時とを関連付けて記憶する記憶手段と
特定の時間ごとに、前記表情と前記人物の数とを統計する統計手段と
を有することを特徴とする表情情報生成装置。
Acquisition means for acquiring moving image data;
Person detecting means for detecting a person from the moving image data;
Facial expression detection means for detecting facial expressions from the detected human face;
Storage means for associating and storing the number of persons, the facial expression, and the date and time when the facial expression was detected, and statistical means for statistically calculating the facial expression and the number of persons at a specific time. Characteristic facial expression information generation device.
さらに、検出された前記人物の顔から年齢及び性別を判別する年齢性別検出手段
を有し、
前記統計手段は、
ユーザの要求に応じて、年齢及び性別、若しくは年齢又は性別ごとに前記表情と前記人物の数とを統計する
ことを特徴とする請求項1に記載の表情情報生成装置。
Furthermore, it has an age and gender detection means for discriminating age and gender from the detected face of the person,
The statistical means is
The facial expression information generating apparatus according to claim 1, wherein the facial expression and the number of persons are statistically determined according to a user's request, for age and sex, or for each age or sex.
前記年齢及び性別は、
みかけ年齢及びみかけ性別である
ことを特徴とする請求項2に記載の表情情報生成装置。
The age and gender are
The expression information generation device according to claim 2, wherein the expression information is an apparent age and an apparent gender.
前記人物の移動する方向を検出する移動方向検出手段
を有し、
前記統計手段は、
前記移動方向及び前記特定の時間ごとに、前記表情と前記人物の数とを統計する
ことを特徴とする請求項1〜3のいずれかに記載の表情情報生成装置。
A moving direction detecting means for detecting a moving direction of the person,
The statistical means is
The facial expression information generating apparatus according to any one of claims 1 to 3, wherein the facial expression and the number of persons are statistics for each of the movement direction and the specific time.
前記動画像データ取得手段によって取得される複数の動画像データ間において、検出される人物の同一性を判別する同一性判別手段
を有することを特徴とする請求項1〜4のいずれかに記載の表情情報生成装置。
5. The apparatus according to claim 1, further comprising identity determining means for determining identity of a detected person among a plurality of moving image data acquired by the moving image data acquiring means. Facial information generator.
前記検出された人物が特定の人物であるか否かを判別する特定人物判別手段
を有し、
前記表情検出手段は、
前記検出された人物が前記特定の人物であった場合にのみ、検出された前記人物の顔から表情を検出する
ことを特徴とする請求項1〜5のいずれかに記載の表情情報生成装置。
Specific person determining means for determining whether or not the detected person is a specific person,
The facial expression detection means includes
The facial expression information generating apparatus according to claim 1, wherein an facial expression is detected from the detected face of the person only when the detected person is the specific person.
前記検出された人物が特定の人物であるか否かを判別する特定人物判別手段
を有し、
前記統計手段は、
前記特定の人物であるか否かに応じて、統計方法を変化させる
ことを特徴とする請求項1〜6のいずれかに記載の表情情報生成装置。
Specific person determining means for determining whether or not the detected person is a specific person,
The statistical means is
The facial expression information generating apparatus according to claim 1, wherein a statistical method is changed according to whether or not the person is the specific person.
前記取得手段によって取得される予め定められた撮影基準対象の画像データの特定範囲における特定範囲輝度に基づいて、補正値を決定する補正値決定手段
を有し、
前記年齢性別検出手段は、
前記補正値に基づいて前記年齢を判別する
ことを特徴とする請求項2〜7のいずれかに記載の表情情報生成装置。
Correction value determining means for determining a correction value based on a specific range luminance in a specific range of image data of a predetermined photographing reference object acquired by the acquiring means,
The age gender detecting means is
The facial expression information generating apparatus according to claim 2, wherein the age is determined based on the correction value.
撮影場所における現在の環境に応じた環境要素から環境補正値を決定する環境補正値決定手段
を有し、
前記年齢性別検出手段は、
前記補正値に基づいて前記年齢を判別する
ことを特徴とする請求項2〜8のいずれかに記載の表情情報生成装置。
An environmental correction value determining means for determining an environmental correction value from environmental elements according to the current environment at the shooting location;
The age gender detecting means is
The facial expression information generating apparatus according to any one of claims 2 to 8, wherein the age is determined based on the correction value.
前記人物検出手段は、
前記検出された人物が前記動画像データにおいて存在した時間を前記人物ごとに検出する
ことを特徴とする請求項2〜8のいずれかに記載の表情情報生成装置。
The person detecting means is
The facial expression information generating apparatus according to any one of claims 2 to 8, wherein a time when the detected person exists in the moving image data is detected for each person.
前記検出情報に対応して色分けされた枠と、前記表情の度合いとを、前記動画像データにおける前記人物の動きに対応させるよう画面データを生成する画面データ生成手段と
ことを特徴とする請求項1〜10のいずれかに記載の表情情報生成装置。
The screen data generating means for generating screen data so that the color-coded frames corresponding to the detection information and the expression level correspond to the movement of the person in the moving image data. The facial expression information generating apparatus according to any one of 1 to 10.
映像データを表示する表示手段と、
映像データを視聴する人物を撮影する撮影手段と、
前記撮影手段によって撮影された動画像データを送信する送信手段とを有する端末装置と、
前記動画像データを取得する取得手段と、
前記動画像データから人物を検出する人物検出手段と、
検出された前記人物の顔から表情を検出する表情検出手段と、
前記人物の数と、前記表情と、前記表情が検出された日時とを関連付けて記憶する記憶手段と
特定の時間ごとに、前記映像データと関連付けて前記表情と前記人物の数とを統計する統計手段と
を有する表情情報生成装置と
を有することを特徴とする視聴率調査システム。
Display means for displaying video data;
Photographing means for photographing a person who views video data;
A terminal device having transmission means for transmitting moving image data photographed by the photographing means;
Obtaining means for obtaining the moving image data;
Person detecting means for detecting a person from the moving image data;
Facial expression detection means for detecting facial expressions from the detected human face;
Storage means for storing the number of persons, the facial expression, and the date and time when the facial expression was detected in association with each other, and statistics for statistically calculating the facial expression and the number of persons in association with the video data at specific time intervals An audience rating survey system characterized by comprising: a facial expression information generating device comprising: means.
映像データを表示する表示手段と、
映像データを視聴する人物を撮影する撮影手段と、
前記撮影手段によって撮影された動画像データから人物を検出する人物検出手段と、
検出された前記人物の顔から表情を検出する表情検出手段と、
前記人物の数と、前記表情と、前記映像データの時間情報とを関連付けて送信する送信手段と、
を有する端末装置と、
特定の時間ごとに、前記映像データと関連付けて前記表情と前記人物の数とを統計する統計手段
を有する統計装置と
を有することを特徴とする視聴率調査システム。
Display means for displaying video data;
Photographing means for photographing a person who views video data;
Person detecting means for detecting a person from moving image data photographed by the photographing means;
Facial expression detection means for detecting facial expressions from the detected human face;
Transmitting means for associating and transmitting the number of persons, the facial expression, and time information of the video data;
A terminal device having
A statistical device having statistical means for statistically calculating the facial expression and the number of persons in association with the video data at specific time intervals;
The audience rating survey system characterized by having.
前記人物検出手段は、
前記検出された人物が前記動画像データにおいて存在した時間を前記人物ごとに検出する
ことを特徴とする請求項12又は13のいずれかに記載の視聴率調査システム。
The person detecting means is
14. The audience rating survey system according to claim 12, wherein a time when the detected person exists in the moving image data is detected for each person.
動画像データを取得する取得ステップと、
前記動画像データから人物を検出する人物検出ステップと、
検出された前記人物の顔から表情を検出する表情検出ステップと、
前記人物数と、前記表情と、前記表情が検出された日時とを関連付けて記憶する記憶ステップと
特定の時間ごとに、前記表情と前記人物の数とを統計する統計ステップと
を有することを特徴とする表情情報生成プログラム。
An acquisition step of acquiring moving image data;
A person detecting step of detecting a person from the moving image data;
A facial expression detection step for detecting a facial expression from the detected human face;
A storage step of associating and storing the number of persons, the facial expression, and the date and time when the facial expression was detected, and a statistical step of statistically calculating the facial expression and the number of persons at a specific time. A facial expression information generation program.
動画像データから人物を検出し、検出された前記人物の顔から表情を検出する表情検出手段と、
前記人物の年齢及び性別を検出情報として決定する検出情報決定手段と、
前記検出情報に対応して色分けされた枠と、前記表情の度合いとを、前記動画像データにおける前記人物の動きに対応させるよう画面データを生成する画面データ生成手段と
を有することを特徴とする表情情報生成装置。
Facial expression detection means for detecting a person from moving image data and detecting an expression from the detected face of the person;
Detection information determining means for determining the age and sex of the person as detection information;
Screen data generating means for generating screen data so that the color-coded frames corresponding to the detection information and the degree of facial expression correspond to the movement of the person in the moving image data. Facial information generator.
前記画面データ生成手段は、
前記枠及び前記表情の度合いのみからなる前記画面データを生成する
ことを特徴とする請求項12に記載の表情情報生成装置。
The screen data generation means includes
The facial expression information generating apparatus according to claim 12, wherein the screen data including only the frame and the degree of facial expression is generated.
動画像データから人物を検出し、検出された前記人物の顔から表情を検出する表情検出ステップと、
前記人物の年齢及び性別を検出情報として決定する検出情報決定ステップと、
前記検出情報に対応して色分けされた枠と、前記表情の度合いとを、前記動画像データにおける前記人物の動きに対応させるよう画面データを生成する画面データ生成ステップと
を有することを特徴とする表情情報生成プログラム。





A facial expression detection step of detecting a person from moving image data and detecting a facial expression from the detected face of the person;
A detection information determination step for determining the age and sex of the person as detection information;
A screen data generation step for generating screen data so that the color-coded frames corresponding to the detection information and the expression level correspond to the movement of the person in the moving image data. Facial information generation program.





JP2013153150A 2012-07-24 2013-07-24 Audience rating survey system, facial expression information generation device, and facial expression information generation program Expired - Fee Related JP6254785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013153150A JP6254785B2 (en) 2012-07-24 2013-07-24 Audience rating survey system, facial expression information generation device, and facial expression information generation program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012164214 2012-07-24
JP2012164214 2012-07-24
JP2013153150A JP6254785B2 (en) 2012-07-24 2013-07-24 Audience rating survey system, facial expression information generation device, and facial expression information generation program

Publications (2)

Publication Number Publication Date
JP2014042235A true JP2014042235A (en) 2014-03-06
JP6254785B2 JP6254785B2 (en) 2017-12-27

Family

ID=50394141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013153150A Expired - Fee Related JP6254785B2 (en) 2012-07-24 2013-07-24 Audience rating survey system, facial expression information generation device, and facial expression information generation program

Country Status (1)

Country Link
JP (1) JP6254785B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058306A (en) * 2015-09-18 2017-03-23 日本電気株式会社 Identification apparatus and identification method
KR20180014195A (en) * 2015-06-26 2018-02-07 인텔 코포레이션 Emotion detection system
JP2018055230A (en) * 2016-09-27 2018-04-05 大日本印刷株式会社 Content recommendation system, content recommendation method, and program
JPWO2017217314A1 (en) * 2016-06-13 2018-06-21 日本電気株式会社 Response device, response system, response method, and recording medium
JP2019091290A (en) * 2017-11-15 2019-06-13 富士ゼロックス株式会社 Information processing system, information processing device and program
JP2022515317A (en) * 2019-11-28 2022-02-18 北京市商▲湯▼科技▲開▼▲發▼有限公司 Exhibit target control methods, devices, electronic devices, and recording media
JP2022515719A (en) * 2018-12-29 2022-02-22 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Face attribute recognition method and device, electronic device and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935067A (en) * 1995-07-21 1997-02-07 Video Res:Kk Method and device for discriminating television audience
JP2005142975A (en) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus
JP2005267611A (en) * 2004-01-23 2005-09-29 Sony United Kingdom Ltd Display device
JP2007104091A (en) * 2005-09-30 2007-04-19 Fujifilm Corp Image selection apparatus, program, and method
JP2010026871A (en) * 2008-07-22 2010-02-04 Nikon Corp Information processor and information processing system
JP2011123657A (en) * 2009-12-10 2011-06-23 Ntt Comware Corp Information collection system and method
JP2011139441A (en) * 2009-12-03 2011-07-14 Panasonic Corp Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935067A (en) * 1995-07-21 1997-02-07 Video Res:Kk Method and device for discriminating television audience
JP2005142975A (en) * 2003-11-10 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> Audience reaction information collection system and its method, user terminal and audience reaction information providing apparatus used in the audience reaction information collection system, and audience reaction information creation program used to obtain the user terminal and the audience reaction information providing apparatus
JP2005267611A (en) * 2004-01-23 2005-09-29 Sony United Kingdom Ltd Display device
JP2007104091A (en) * 2005-09-30 2007-04-19 Fujifilm Corp Image selection apparatus, program, and method
JP2010026871A (en) * 2008-07-22 2010-02-04 Nikon Corp Information processor and information processing system
JP2011139441A (en) * 2009-12-03 2011-07-14 Panasonic Corp Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method
JP2011123657A (en) * 2009-12-10 2011-06-23 Ntt Comware Corp Information collection system and method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018521381A (en) * 2015-06-26 2018-08-02 インテル コーポレイション Emotion detection system
KR20180014195A (en) * 2015-06-26 2018-02-07 인텔 코포레이션 Emotion detection system
KR102611913B1 (en) * 2015-06-26 2023-12-11 인텔 코포레이션 emotion detection system
JP2017058306A (en) * 2015-09-18 2017-03-23 日本電気株式会社 Identification apparatus and identification method
US11430207B2 (en) 2016-06-13 2022-08-30 Nec Corporation Reception apparatus, reception system, reception method and storage medium
JPWO2017217314A1 (en) * 2016-06-13 2018-06-21 日本電気株式会社 Response device, response system, response method, and recording medium
US11514663B2 (en) 2016-06-13 2022-11-29 Nec Corporation Reception apparatus, reception system, reception method, and storage medium
US11850728B2 (en) 2016-06-13 2023-12-26 Nec Corporation Reception apparatus, reception system, reception method, and storage medium
JP2018055230A (en) * 2016-09-27 2018-04-05 大日本印刷株式会社 Content recommendation system, content recommendation method, and program
JP2019091290A (en) * 2017-11-15 2019-06-13 富士ゼロックス株式会社 Information processing system, information processing device and program
JP7077585B2 (en) 2017-11-15 2022-05-31 富士フイルムビジネスイノベーション株式会社 Information processing systems, information processing equipment and programs
JP2022515719A (en) * 2018-12-29 2022-02-22 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Face attribute recognition method and device, electronic device and storage medium
JP2022515317A (en) * 2019-11-28 2022-02-18 北京市商▲湯▼科技▲開▼▲發▼有限公司 Exhibit target control methods, devices, electronic devices, and recording media

Also Published As

Publication number Publication date
JP6254785B2 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
JP6254785B2 (en) Audience rating survey system, facial expression information generation device, and facial expression information generation program
US10609267B2 (en) Systems and methods for analyzing advertisement effectiveness using wearable camera systems
CN105825522B (en) Image processing method and electronic device supporting the same
US9418481B2 (en) Visual overlay for augmenting reality
JP5994397B2 (en) Information processing apparatus, information processing method, and program
JP5224360B2 (en) Electronic advertising device, electronic advertising method and program
US20180154212A1 (en) Watch-type mobile terminal and method for controlling same
WO2019105411A1 (en) Information recommending method, intelligent mirror, and computer readable storage medium
TW201823983A (en) Method and system for creating virtual message onto a moving object and searching the same
CN111444887A (en) Mask wearing detection method and device, storage medium and electronic equipment
CN104133920A (en) User behavior collection method and device
CN111178294A (en) State recognition method, device, equipment and storage medium
US20150018023A1 (en) Electronic device
US9619707B2 (en) Gaze position estimation system, control method for gaze position estimation system, gaze position estimation device, control method for gaze position estimation device, program, and information storage medium
US11568615B2 (en) Collaborative on-demand experiences
CN111028071B (en) Bill processing method and device, electronic equipment and storage medium
CN105955451A (en) Travel prompt method based on user image
TWI603227B (en) Method and system for remote management of virtual message for a moving object
JP4427714B2 (en) Image recognition apparatus, image recognition processing method, and image recognition program
US11107098B2 (en) System and method for content recognition and data categorization
US20200098003A1 (en) Information system, information processing method, and non-transitory storage medium
KR102443016B1 (en) Apparatus and method for implementing advertising using augmented technology
KR102104063B1 (en) System for managing fashion style and method thereof
CN111209836A (en) Method and device for establishing user identification association, electronic equipment and storage medium
JP6287527B2 (en) Information processing apparatus, method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130808

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20130808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160724

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160908

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20161004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170525

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170923

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171201

R150 Certificate of patent or registration of utility model

Ref document number: 6254785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees