JP2007102342A - Automatic counter - Google Patents

Automatic counter Download PDF

Info

Publication number
JP2007102342A
JP2007102342A JP2005288521A JP2005288521A JP2007102342A JP 2007102342 A JP2007102342 A JP 2007102342A JP 2005288521 A JP2005288521 A JP 2005288521A JP 2005288521 A JP2005288521 A JP 2005288521A JP 2007102342 A JP2007102342 A JP 2007102342A
Authority
JP
Japan
Prior art keywords
image
information
unit
counting
visitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005288521A
Other languages
Japanese (ja)
Inventor
Shuji Ono
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005288521A priority Critical patent/JP2007102342A/en
Publication of JP2007102342A publication Critical patent/JP2007102342A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To accurately count the number of visitors where there is an unspecified majority of visitors, at an event site or the like. <P>SOLUTION: A plurality of images showing scenes at different time points are obtained by repeatedly photographing an area where there are visitors from the same direction. The frontal facial information of visitors facing front is extracted from each image, and objects of counting are discriminated, based on the extracted frontal facial information and counted (S104 and S105). Before the discrimination of the counting objects, the information which has not been detected in the prior processing is discriminated from the extracted frontal facial information (S102). Then, discrimination of the counting objects is executed only for the frontal facial information which is detected for the first time (S103). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、大勢の人が集まる場所での人数調査に用いられる自動計数装置に関する。   The present invention relates to an automatic counting device used for a number survey in a place where a large number of people gather.

画像に含まれる被写体の顔情報から個人もしくは性別、年齢などの属性を識別し、人物ごと、あるいは属性ごとの傾向を分析する技術が知られている。例えば、特許文献1、2には、店内にいる顧客を店内各所に設置されたカメラにより撮影し、各撮影画像から抽出される顔の特徴量に基づいて顧客個人を識別してその足取りを追跡したり、顔の特徴量から顧客の性別や年齢を識別して店内の所定場所に長く滞在する顧客の傾向を調べたりする方法およびシステムが示されている。
特開2000−200357号公報 特開2004−348618号公報
There is known a technique for identifying attributes such as individual or sex and age from face information of a subject included in an image and analyzing a tendency for each person or each attribute. For example, in Patent Documents 1 and 2, customers in a store are photographed by cameras installed in various places in the store, and individual customers are identified based on facial features extracted from each captured image, and their footsteps are tracked. And a method and system for identifying a customer's gender and age from a facial feature amount and examining a customer's tendency to stay at a predetermined place in a store for a long time.
JP 2000-200377 A JP 2004-348618 A

一般に、画像に含まれる顔情報を利用して個人や属性を識別する場合には、正面顔情報を用いることが多い。正面顔を用いるほうが、情報量が多い分、識別精度が高まるからである。このため、顔の識別を行なうシステムでは、通常、全人物が必ず通過する場所に人物が通過する向きに合わせてカメラを設置し、人物を正面から撮影した画像を取得している。例えば特許文献1、2のシステムも、入り口付近で外に向けてカメラを設置することにより、入店する顧客の正面顔を撮影している。   In general, when identifying an individual or an attribute using face information included in an image, front face information is often used. This is because using the front face increases the amount of information and thus increases the identification accuracy. For this reason, in a system for identifying a face, a camera is usually installed at a location where all persons pass without fail according to the direction in which the person passes, and an image obtained by photographing the person from the front is acquired. For example, the systems of Patent Documents 1 and 2 also photograph the front face of a customer entering the store by installing a camera facing outside near the entrance.

しかし、例えば、建屋のフロアの一部に設けられた特設会場などでは、明確な入口、出口がないため、あらゆる方向から来場者が入場する。さらには、入場した来場者が、それぞれ思い思いの方向を向いている場合もある。そのような環境では、特定の場所にカメラを設置しても、カメラの方を向かない来場者の正面顔は撮影できない。   However, for example, in a special venue provided on a part of the floor of a building, there are no clear entrances and exits, so visitors enter from all directions. In addition, there are cases where the visitors who are entering are facing their own direction. In such an environment, even if the camera is installed at a specific location, the front face of the visitors who are not facing the camera cannot be photographed.

本発明は、上記のような環境でも、大多数の来場者の正面顔情報を取得することができ、かつ取得した情報を利用して来場者の人数を正確に計測することができる自動計数装置を提供することを目的とする。   The present invention is an automatic counting device capable of acquiring front face information of a large number of visitors even in the above-described environment and accurately measuring the number of visitors using the acquired information. The purpose is to provide.

本発明は、所定場所に存在する対象を自動的に計数する自動計数装置を提供する。この装置は、所定場所の異なる時刻の場景を同じ方向から繰り返し撮影することにより得られた複数の画像について、画像に含まれる対象の正面顔情報を抽出する処理を順次施す抽出手段を備える。「正面顔情報」は正面を向いた顔の特徴を示す複数の特徴量の集合である。対象から抽出する特徴量は、その対象個人を識別するのに必要な特徴量とすることが好ましい。   The present invention provides an automatic counting device that automatically counts objects present at a predetermined location. This apparatus includes an extraction unit that sequentially performs a process of extracting front face information of a target included in an image with respect to a plurality of images obtained by repeatedly capturing scenes at different times at predetermined locations from the same direction. “Front face information” is a set of a plurality of feature amounts indicating features of a face facing the front. The feature amount extracted from the target is preferably a feature amount necessary for identifying the target individual.

この装置は、さらに、抽出手段により一の画像から抽出された正面顔情報を、抽出手段により該一の画像以前に処理された画像から抽出された正面顔情報と照合することにより、前記一の画像において初めて検出された対象を識別する第1識別手段を備える。また、第1識別手段により識別された対象の正面顔情報に基づいて計数対象を識別する第2識別手段と、第2識別手段が識別した計数対象の数を計数する計数手段を備える。   The apparatus further compares the front face information extracted from the one image by the extracting means with the front face information extracted from the image processed before the one image by the extracting means. First identification means for identifying an object detected for the first time in an image is provided. Moreover, the 2nd identification means which identifies the counting object based on the front face information of the object identified by the 1st identification means, and the counting means which counts the number of the counting objects identified by the 2nd identification means are provided.

上記構成により、来場者の向きが一定でない環境でも、大多数の来場者の正面顔情報を取得することができ、取得した正面顔情報を利用して来場者の人数を正確に計測することができる。   With the above configuration, the front face information of the majority of visitors can be acquired even in an environment where the orientation of the visitors is not constant, and the number of visitors can be accurately measured using the acquired front face information. it can.

第2識別手段は、前記正面顔情報に基づいて前記各画像に含まれる計数対象の属性および/または状態を識別できるような手段とし、計数手段は、前記計数対象の数を前記属性および/または状態ごとに計数できるような手段とすることが好ましい。これにより、性別、年齢などの属性別、あるいは笑顔、怒り顔などの状態別に対象数を調べることが可能になる。   The second identification unit is a unit that can identify the attribute and / or state of the counting target included in each image based on the front face information, and the counting unit sets the number of the counting target to the attribute and / or It is preferable to use a means that can count for each state. Thereby, it becomes possible to check the number of objects by attributes such as sex and age, or by states such as a smile and an angry face.

以下、本発明の一実施形態について、図面を参照して詳細に説明する。以下に例示するシステムは、多目的ホール(以下、ホール)の設備管理システムである。詳細には、ホール内に据付けられたカメラや照明を制御するサーバコンピュータに、本発明の装置の機能を組み込んだシステムである。以下の説明では、システムを構成するサーバコンピュータが、本発明の装置に相当する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. The system exemplified below is a facility management system for a multi-purpose hall (hereinafter referred to as a hall). Specifically, this is a system in which the function of the apparatus of the present invention is incorporated in a server computer that controls cameras and lighting installed in the hall. In the following description, the server computer constituting the system corresponds to the apparatus of the present invention.

[システムの構成]
図1に、上記システムの概略構成を示す。図に示すように、このシステムは、複数の撮影ユニット1〜1、サーバコンピュータ2、ストレージ3、設定用端末4およびDVDレコーダ5を備えている。撮影ユニット1〜1は、ホールの壁または天井の所定の位置に据えつけられている。サーバコンピュータ2、ストレージ3、設定用端末4およびDVDレコーダ5はホールに隣接する管理室に設置されている。
[System configuration]
FIG. 1 shows a schematic configuration of the system. As shown in the figure, this system includes a plurality of photographing units 1 1 to 1 n , a server computer 2, a storage 3, a setting terminal 4 and a DVD recorder 5. The photographing units 1 1 to 1 n are installed at predetermined positions on the wall or ceiling of the hall. The server computer 2, the storage 3, the setting terminal 4 and the DVD recorder 5 are installed in a management room adjacent to the hall.

撮影ユニット1〜1とサーバコンピュータ2とは無線ネットワークにより接続されており、ストレージ3、設定用端末4およびDVDレコーダ5はサーバコンピュータ2に直接接続されている。但し、装置同士の接続は図示した形態に限られない。例えば、撮影ユニット1〜1とサーバコンピュータ2とは有線ネットワークにより接続されていてもよいし、ストレージ3は、サーバコンピュータ2とネットワークを介して接続されるネットワークストレージであってもよい。 The photographing units 1 1 to 1 n and the server computer 2 are connected by a wireless network, and the storage 3, the setting terminal 4 and the DVD recorder 5 are directly connected to the server computer 2. However, the connection between apparatuses is not limited to the illustrated form. For example, the photographing units 1 1 to 1 n and the server computer 2 may be connected via a wired network, and the storage 3 may be a network storage connected to the server computer 2 via the network.

図2に、撮影ユニット1の内部構成を示す。撮影ユニット12〜1の構成も撮影ユニット1と同じである。撮影ユニット1は、撮像部11、符号化部12、特徴抽出部13、通信制御部14および設定部15を備える。 Figure 2 shows an internal configuration of the imaging unit 1 1. Configuration of the imaging unit 1 2 to 1 n is the same as the imaging unit 1 1. Photographing unit 1 1 includes an imaging unit 11, encoding unit 12, feature extraction unit 13, a communication control unit 14 and the setting unit 15.

撮像部11は、回転可能な構造と時計機能とを備えたビデオカメラである。回転可能な構造とは、例えばドーム型監視カメラのような構造、あるいは回転台にカメラを取り付けた構造などである。ビデオカメラの回転角度、撮影倍率、動画撮影/静止画撮影の切換え、静止画撮影時の撮影間隔は、設定により変更することができる。撮影に関する設定情報C1は設定部15から供給される。撮影により取得された画像情報は、時計機能により取得された撮影日時または撮影開始日時の情報とともに、符号化部12に送出される。   The imaging unit 11 is a video camera having a rotatable structure and a clock function. The rotatable structure is, for example, a structure such as a dome-type surveillance camera or a structure in which a camera is attached to a turntable. The rotation angle of the video camera, the shooting magnification, the switching between moving image shooting / still image shooting, and the shooting interval during still image shooting can be changed by setting. Setting information C <b> 1 related to shooting is supplied from the setting unit 15. The image information acquired by shooting is sent to the encoding unit 12 together with information of the shooting date / time or the shooting start date / time acquired by the clock function.

符号化部12は、撮像部11から送出された画像(動画像Mまたは静止画像I)を符号化して撮影ユニット内のメモリに記録する。画像の符号化方式は、撮影ユニットごとに設定される。本実施形態では、動画はMPEG4形式に符号化され、静止画はJPEGまたはTIFFのうち設定により選択された符号化方式で符号化される。符号化方式に関する設定情報C2は設定部15から供給される。符号化部12は、画像をメモリに記録する際に、各種の管理情報を付与する。本実施形態では、図3に示すように、撮影ユニット識別子UID、前述の設定情報C1およびC2、撮影日および時刻DTを画像に付与する。以下、これらの管理情報が付与された画像を画像情報6と称する。   The encoding unit 12 encodes the image (moving image M or still image I) sent from the imaging unit 11 and records it in the memory in the imaging unit. The image encoding method is set for each photographing unit. In the present embodiment, the moving image is encoded in the MPEG4 format, and the still image is encoded by an encoding method selected by setting from JPEG or TIFF. Setting information C2 related to the encoding method is supplied from the setting unit 15. The encoding unit 12 assigns various types of management information when recording an image in a memory. In the present embodiment, as shown in FIG. 3, the shooting unit identifier UID, the setting information C1 and C2, the shooting date and time DT are added to the image. Hereinafter, an image to which such management information is assigned is referred to as image information 6.

特徴抽出部13は、メモリに記録された画像情報6を順次読み出して、画像から人物の顔を検出する。画像から顔を検出する技術としては公知のいずれの技術を用いてもよいが、本実施形態では一画像から多数の顔を検出する必要があるため、例えば所定の大きさの肌色領域であれば顔と判断する方法など、できるだけシンプルな検出方法を採用することが好ましい。   The feature extraction unit 13 sequentially reads out the image information 6 recorded in the memory and detects a human face from the image. Any known technique may be used as a technique for detecting a face from an image. However, in the present embodiment, since a large number of faces need to be detected from one image, for example, a skin color area of a predetermined size is used. It is preferable to employ a detection method that is as simple as possible, such as a method for determining a face.

特徴抽出部13は、次に、各画像から検出された顔に、仮の来場者識別子GIDを割り当てる。仮の来場者識別子GIDは、例えば撮影ユニット識別子UIDの後に、その来場者の顔が検出された位置を示す番号をつけた識別子とする。顔が検出された位置を示す番号は、各顔の位置を大まかに特定できる番号でよく、例えば画像を格子状に区切って各格子の位置を行番号と列番号で表し、顔が検出された位置に最も近い格子の行列番号を用いる方法などが考えられる。仮の来場者識別子GIDは画像ごとに割り振られるため、この時点では、同じ人物に対し画像ごとに異なる識別子が割り当てられることになる。   Next, the feature extraction unit 13 assigns a temporary visitor identifier GID to the face detected from each image. The temporary visitor identifier GID is, for example, an identifier obtained by adding a number indicating the position where the face of the visitor is detected after the shooting unit identifier UID. The number indicating the position where the face is detected may be a number that can roughly specify the position of each face. For example, the image is divided into a grid and the position of each grid is represented by a row number and a column number, and the face is detected. A method using the matrix number of the lattice closest to the position can be considered. Since the temporary visitor identifier GID is assigned for each image, different identifiers are assigned to the same person for each image at this time.

続いて特徴抽出部13は、検出した人物ごとに顔の特徴を表す複数の特徴量F1〜FNを抽出する。特徴量抽出に基づく顔の識別については種々の技術が知られており、本実施形態ではそのいずれの技術をも採用することができる。但し、来場者の傾向分析では多数の顔を高速処理することが要求される一方、それほど高い精度は要求されないため、多少精度が低くても処理効率のよい手法を選択することが好ましい。   Subsequently, the feature extraction unit 13 extracts a plurality of feature amounts F1 to FN representing facial features for each detected person. Various techniques are known for identifying a face based on feature amount extraction, and any of these techniques can be employed in this embodiment. However, while the trend analysis of visitors requires high-speed processing of many faces, high accuracy is not required, so it is preferable to select a method with high processing efficiency even if the accuracy is somewhat low.

特徴抽出部13が抽出する特徴量の種類および数は、分析の目的に応じて撮影ユニットごとに設定される。また、特徴抽出部13の機能は設定によりオフにすることもできる。すなわち特徴抽出を行なわないような設定も可能である。これら特徴抽出に関する設定情報C3は、設定部15から供給される。   The type and number of feature amounts extracted by the feature extraction unit 13 are set for each photographing unit according to the purpose of analysis. Also, the function of the feature extraction unit 13 can be turned off by setting. That is, it is possible to set so as not to perform feature extraction. The setting information C3 regarding the feature extraction is supplied from the setting unit 15.

特徴抽出部13は、抽出した特徴量F1〜FNを、各種管理情報を付与して、メモリに記録する。本実施形態では、図5に示すように、抽出した特徴量F1〜FNに、画像情報6に含まれている撮影ユニット識別子UID、設定情報C1,C2および撮影日時と時刻の情報DT、さらには特徴抽出部に供給された設定情報C3と、前述の仮の来場者識別子GIDが管理情報として付与される。以下、この管理情報が付された特徴量F1〜FNを来場者情報7と称する。   The feature extraction unit 13 records the extracted feature amounts F1 to FN in a memory with various management information. In the present embodiment, as shown in FIG. 5, the extracted feature amounts F1 to FN include the shooting unit identifier UID, the setting information C1 and C2 and the shooting date and time information DT included in the image information 6, and The setting information C3 supplied to the feature extraction unit and the temporary visitor identifier GID described above are given as management information. Hereinafter, the feature amounts F1 to FN to which the management information is attached are referred to as visitor information 7.

通信制御部14は、撮影ユニット1〜1とサーバコンピュータ2の間の通信を制御する。詳細には3種類の通信を制御する。第1に、通信制御部14は、サーバコンピュータ2からその撮影ユニットに対して送られた設定情報C1〜C3を受信して、設定部15に供給する。第2に、通信制御部14は、符号化部12により生成された画像情報6を、サーバコンピュータ2に送信する。第3に、通信制御部14は、特徴抽出部13により生成された来場者情報7を、サーバコンピュータ2に送信する。 The communication control unit 14 controls communication between the photographing units 1 1 to 1 n and the server computer 2. Specifically, three types of communication are controlled. First, the communication control unit 14 receives the setting information C <b> 1 to C <b> 3 sent from the server computer 2 to the photographing unit and supplies it to the setting unit 15. Secondly, the communication control unit 14 transmits the image information 6 generated by the encoding unit 12 to the server computer 2. Thirdly, the communication control unit 14 transmits the visitor information 7 generated by the feature extraction unit 13 to the server computer 2.

設定部15は、通信制御部14から供給された設定情報を、撮像部11、符号化部12および特徴抽出部13に、それぞれ供給する。前述のとおり、設定部15が撮像部11に供給する設定情報C1は、カメラの回転角度、撮影倍率、動画/静止画切換、撮影間隔を指定する情報であり、符号化部12に供給する設定情報C2は、符号化方式を指定する情報であり、特徴抽出部13に供給する設定情報C3は、抽出する特徴量を指定する情報である。   The setting unit 15 supplies the setting information supplied from the communication control unit 14 to the imaging unit 11, the encoding unit 12, and the feature extraction unit 13, respectively. As described above, the setting information C1 that the setting unit 15 supplies to the imaging unit 11 is information that specifies the camera rotation angle, shooting magnification, moving image / still image switching, and shooting interval, and is the setting that is supplied to the encoding unit 12. The information C2 is information that specifies an encoding method, and the setting information C3 that is supplied to the feature extraction unit 13 is information that specifies a feature amount to be extracted.

次に、図4を参照して、サーバコンピュータ2の構成について説明する。サーバコンピュータ2は、通信制御部21、入出力制御部22、設定部23、記録部24、特徴抽出部25、分析部26および保存版画像生成部27を備える。サーバコンピュータ2は、ホールの設備管理用コンピュータに、イベントの自動分析を実現するためのプログラムを組み込んだものである。   Next, the configuration of the server computer 2 will be described with reference to FIG. The server computer 2 includes a communication control unit 21, an input / output control unit 22, a setting unit 23, a recording unit 24, a feature extraction unit 25, an analysis unit 26, and a saved version image generation unit 27. The server computer 2 is a hall facility management computer in which a program for realizing automatic event analysis is incorporated.

通信制御部21は、サーバコンピュータ2と撮影ユニット1〜1の間の通信を制御する。また、入出力制御部22は、ストレージ3の読み書き、設定用端末4による入出力およびDVDレコーダ5への出力を制御する。 The communication control unit 21 controls communication between the server computer 2 and the photographing units 1 1 to 1 n . The input / output control unit 22 controls reading / writing of the storage 3, input / output by the setting terminal 4, and output to the DVD recorder 5.

設定部23、記録部24、特徴抽出部25、分析部26および保存版画像生成部27は、後述する各部の各処理をサーバコンピュータ2に実行させる複数の要素プログラムを、
サーバコンピュータ2に組み込むことにより実現される。本実施形態では、サーバコンピュータ2は複数のプロセッサを備えており、各要素プログラムの処理は複数のプロセッサにより並列に処理される。
The setting unit 23, the recording unit 24, the feature extraction unit 25, the analysis unit 26, and the saved version image generation unit 27 include a plurality of element programs that cause the server computer 2 to execute each process of each unit described later.
This is realized by being incorporated in the server computer 2. In the present embodiment, the server computer 2 includes a plurality of processors, and the processing of each element program is processed in parallel by the plurality of processors.

設定部23は、設定用端末4からの撮影ユニット1〜1に関する設定操作を受け付ける。設定部23は、設定用端末4上で設定画面を呼び出す操作が行なわれたことを検出すると、入出力制御部22を介して、設定用端末4のモニタに設定画面を出力する。設定画面では、最初に撮影ユニットの選択画面が表れ、ユニットの選択操作が行なわれると、続いて、前述のカメラの回転角度、撮影倍率、動画/静止画切換、撮影間隔(設定情報C1)、符号化方式(設定情報C2)、抽出する特徴量など(設定情報C3)の指定を行なうための選択メニューや入力枠が表示される。システムのオペレータが、所望の設定値を選択あるいは入力すると、選択あるいは入力された設定情報が入出力制御部22を介して設定部23に供給される。設定部23は、その供給された設定情報をサーバコンピュータ2内のメモリに記憶するとともに、通信制御部21を介して撮影ユニット1に送信する。 The setting unit 23 receives a setting operation related to the photographing units 1 1 to 1 n from the setting terminal 4. When the setting unit 23 detects that an operation for calling the setting screen is performed on the setting terminal 4, the setting unit 23 outputs the setting screen to the monitor of the setting terminal 4 via the input / output control unit 22. In the setting screen, the shooting unit selection screen appears first, and when the unit is selected, the camera rotation angle, shooting magnification, moving image / still image switching, shooting interval (setting information C1), A selection menu and an input frame for designating an encoding method (setting information C2), a feature amount to be extracted and the like (setting information C3) are displayed. When the operator of the system selects or inputs a desired set value, the selected or input setting information is supplied to the setting unit 23 via the input / output control unit 22. The setting unit 23 stores the supplied setting information in a memory in the server computer 2 and transmits the setting information to the imaging unit 1 via the communication control unit 21.

記録部24は、通信制御部21を介して、撮影ユニット1〜1から転送された画像情報6や来場者情報7を受信し、入出力制御部22を介してストレージ3に出力する。 The recording unit 24 receives the image information 6 and the visitor information 7 transferred from the photographing units 1 1 to 1 n via the communication control unit 21, and outputs them to the storage 3 via the input / output control unit 22.

特徴抽出部25は、設定用端末4からサーバコンピュータ2側での特徴抽出処理に関する設定操作を受付、さらにその設定に基づいて特徴抽出処理を実行する。特徴抽出部25は、設定用端末4上で、設定画面の呼び出し操作が行なわれたことを検出すると、入出力制御部22を介して、設定用端末4のモニタに設定画面を出力する。設定画面では、特徴抽出部25が抽出する特徴量の種類および数を設定することができる。また、特徴抽出を行なわないような設定も可能である。設定画面で入力された設定情報C3は入出力制御部22を介して特徴抽出部25に供給される。   The feature extraction unit 25 receives a setting operation related to the feature extraction processing on the server computer 2 side from the setting terminal 4, and further executes the feature extraction processing based on the setting. When the feature extraction unit 25 detects that a setting screen call operation has been performed on the setting terminal 4, the feature extraction unit 25 outputs the setting screen to the monitor of the setting terminal 4 via the input / output control unit 22. On the setting screen, the type and number of feature quantities extracted by the feature extraction unit 25 can be set. It is also possible to set so that feature extraction is not performed. The setting information C3 input on the setting screen is supplied to the feature extraction unit 25 via the input / output control unit 22.

設定画面においてオペレータが所定の特徴量を指定して抽出処理を実行するよう設定すると、特徴抽出部25は、ストレージ3に記録された画像情報を順次読み出して、その画像から人物の顔を検出し、各画像から検出された顔に、仮の来場者識別子GIDを割り当てる。続いて、特徴抽出部25は、検出した人物ごとに顔の特徴を表す複数の特徴量F1〜FNを抽出し、各種管理情報を付与して図5に示す来場者情報7を生成し、ストレージ3に記録する。   When the operator designates a predetermined feature amount on the setting screen and performs the extraction process, the feature extraction unit 25 sequentially reads the image information recorded in the storage 3 and detects a person's face from the image. A temporary visitor identifier GID is assigned to the face detected from each image. Subsequently, the feature extraction unit 25 extracts a plurality of feature amounts F1 to FN representing facial features for each detected person, adds various management information to generate the visitor information 7 shown in FIG. Record in 3.

システムのオペレータは、撮影ユニット1〜1の特徴抽出部13の機能と、サーバコンピュータ2の特徴抽出部25の機能を選択的にオン/オフすることにより、いずれか一方に画像情報からの特徴抽出を行なわせることができる。例えば、抽出すべき特徴量の数が少なく短時間での抽出が可能な場合には、特徴抽出部13の機能をオンにして撮影ユニット1側で撮影と並行して特徴抽出処理を行わせ、抽出すべき特徴量の数が多く時間を要する場合には、特徴抽出部13の機能をオフにして撮影した画像を画像情報6としてストレージ3に記録しておき、後に特徴抽出部25により時間をかけて抽出処理を行うといったことができる。 The operator of the system selectively turns on / off the function of the feature extraction unit 13 of the photographing units 1 1 to 1 n and the function of the feature extraction unit 25 of the server computer 2, so Feature extraction can be performed. For example, when the number of feature quantities to be extracted is small and extraction in a short time is possible, the feature extraction unit 13 is turned on, and the feature extraction process is performed in parallel with shooting on the shooting unit 1 side. When the number of feature amounts to be extracted is large and requires time, an image taken with the function of the feature extraction unit 13 turned off is recorded in the storage 3 as image information 6, and the time is later extracted by the feature extraction unit 25. The extraction process can be performed over time.

分析部26は、設定用端末4から分析処理に関する設定操作を受け付け、その設定に基づいて分析処理を実行する。分析部26は、設定用端末4上で、設定画面の呼び出し操作が行なわれたことを検出すると、入出力制御部22を介して、設定用端末4のモニタに設定画面を出力する。設定画面では、分析項目の指定を行なうための選択メニューが表示される。設定画面で入力された設定情報C4は入出力制御部22を介して分析部26に供給される。   The analysis unit 26 receives a setting operation related to the analysis process from the setting terminal 4 and executes the analysis process based on the setting. When the analysis unit 26 detects that the setting screen call operation has been performed on the setting terminal 4, the analysis unit 26 outputs the setting screen to the monitor of the setting terminal 4 via the input / output control unit 22. On the setting screen, a selection menu for specifying an analysis item is displayed. The setting information C4 input on the setting screen is supplied to the analysis unit 26 via the input / output control unit 22.

分析部26は、記録部24または特徴抽出部25がストレージ3に記録した来場者情報7を読み出し、分析処理を行なう。その後分析部26は、入出力制御部22を介して分析結果Aをストレージ3に出力する。分析結果Aは、設定用端末4からの表示要求があれば、入出力制御部22を介して設定用端末4のモニタにも出力される。   The analysis unit 26 reads the visitor information 7 recorded in the storage 3 by the recording unit 24 or the feature extraction unit 25, and performs analysis processing. Thereafter, the analysis unit 26 outputs the analysis result A to the storage 3 via the input / output control unit 22. If there is a display request from the setting terminal 4, the analysis result A is also output to the monitor of the setting terminal 4 via the input / output control unit 22.

保存版画像生成部27は、イベントの模様を撮影した画像の要所にインデックスを付して記録する機能と、イベントの模様を撮影した画像の中から一部の画像を抜粋してダイジェストを生成する機能を提供する。保存版画像生成部27は、設定用端末4から保存版画像生成処理に関する設定操作を受け付け、その設定に基づいて保存版画像を生成する。設定画面では、インデックス付画像の生成要否およびダイジェストの生成要否の選択メニューが表示される。設定画面で入力された設定情報C5は、入出力制御部22を介して保存版画像生成部27に供給される。   The saved version image generation unit 27 generates a digest by extracting a part of images from an image obtained by capturing an event pattern by adding an index to the important points of the image obtained by capturing the event pattern. Provide the function to do. The saved version image generation unit 27 receives a setting operation related to the saved version image generation process from the setting terminal 4 and generates a saved version image based on the setting. On the setting screen, a menu for selecting whether to generate an indexed image and whether to generate a digest is displayed. The setting information C5 input on the setting screen is supplied to the saved version image generation unit 27 via the input / output control unit 22.

保存版画像生成部27は、記録部24がストレージ3に記録した画像情報6と、分析部26がストレージ3に記録した分析結果Aとを、ストレージ3から読み出す。そして、分析結果Aに基づいてインデックスの付与あるいはダイジェストを構成する画像の選択を行なう。インデックスが付与された画像あるいは生成されたダイジェストは、入出力制御部22を介してDVDレコーダ5に転送され、DVDレコーダ5によりDVDに記録される。   The saved version image generation unit 27 reads the image information 6 recorded in the storage 3 by the recording unit 24 and the analysis result A recorded in the storage 3 by the analysis unit 26 from the storage 3. Then, based on the analysis result A, an index is assigned or an image constituting a digest is selected. The indexed image or the generated digest is transferred to the DVD recorder 5 via the input / output control unit 22 and recorded on the DVD by the DVD recorder 5.

[システムの使用例]
次に、上記構成のシステムの使用方法を、例をあげながら説明する。
[System usage example]
Next, a method of using the system having the above configuration will be described with an example.

システムのオペレータは、まず撮影ユニット1〜1に関する設定画面を呼び出し、複数ある撮影ユニット1〜1の中から撮影に使用するいくつかの撮影ユニットを選択する。そして、選択した撮影ユニットについて、前述の設定情報C1、C2およびC3を設定する。本実施形態では、一度設定した設定情報を登録しておき、後に呼び出して使用することができる。 The operator of the system, to call up the display for setting the photographing unit 1 1 to 1 n first selects some of the imaging unit used for photographing from a plurality of imaging units 1 1 to 1 n. Then, the above-described setting information C1, C2, and C3 are set for the selected photographing unit. In the present embodiment, the setting information once set can be registered and recalled and used later.

例えば、コンサート、スポーツの試合、講演会などでは、まず、舞台上の公演などを撮影するために、観客席の後方にある数台の天井据付撮影ユニットを稼動させ、そのカメラが舞台の方向を向くように回転角度を設定する。これらの撮影ユニットについては、動画撮影あるいは数秒ごとに1回の静止画撮影が行なわれるように設定し、さらに所望の符号化方式を選択する。さらに、観客全員の顔を撮影するために、観客席の左右に据付けられた撮影ユニットを稼動させ、その各カメラが観客の顔を斜め前方から捉えられるようにカメラの回転角度を設定する。観客全体を漏れなく撮影するためには、観客を左前方から捉えるカメラの撮影範囲と観客を右前方から捉えるカメラの撮影範囲が、少し重なるようにカメラの回転角度を設定することが好ましい。そして、数秒ごとに1回の静止画撮影を行うように設定し、所望の符号化方式を選択する。   For example, in concerts, sports games, lectures, etc., first, in order to shoot performances on the stage, several ceiling-mounted shooting units behind the spectator seats are operated, and the camera changes the direction of the stage. Set the rotation angle to face. About these imaging | photography units, it sets so that a moving image imaging | photography or one still image imaging | photography may be performed every several seconds, and also a desired encoding system is selected. Furthermore, in order to photograph the faces of all the spectators, the photographing units installed on the left and right of the spectator seat are operated, and the rotation angles of the cameras are set so that each camera can catch the spectator's face obliquely from the front. In order to capture the entire audience without omission, it is preferable to set the rotation angle of the camera so that the imaging range of the camera that captures the audience from the front left and the imaging range of the camera that captures the audience from the front right slightly overlap. Then, a setting is made so that one still image is taken every several seconds, and a desired encoding method is selected.

一方、ビジネスショー、展示即売会、子供向けキャラクターショーなど、来場者がホール内を自由に往来するイベントでは、ホール内の各箇所が少なくとも2方向から撮影されるように各撮影ユニットのカメラの向きを設定する。この場合も、ホール全体が漏れなく撮影されるように、各撮影ユニットの撮影範囲が隣接する撮影ユニットの撮影範囲とが少し重なるように回転角度を設定するとよい。そして動画/静止画および符号化方式について、所望の設定を行なう。   On the other hand, for events where visitors can freely move around the hall, such as business shows, exhibition / sale events, and children's character shows, the direction of the camera of each shooting unit so that each part of the hall is shot from at least two directions. Set. In this case as well, the rotation angle may be set so that the shooting range of each shooting unit slightly overlaps the shooting range of the adjacent shooting unit so that the entire hole is shot without omission. Then, desired settings are made for the moving image / still image and the encoding method.

特徴抽出に関する設定は、撮影ユニットに対して行なってもよいし、サーバコンピュータに対して行なってもよい。また抽出する特徴量の種類や数は、収集したい情報、すなわち分析の目的による。分析を行なう上で個々の来場者を特定することが必要であれば、設定情報C3を設定する際に、個人を特定し得る種類、数の特徴量を選択する。一方、性別などの属性を判別できればよい場合には、その属性を判別し得る種類、数の特徴量を選択する。また、分析の目的が不明な場合には、動画撮影を行なって撮影画像をそのままストレージ3に保存しておくのがよい。あるいは特徴抽出を行なうとしても、個人を特定できる程度に十分な数の特徴量を抽出しておくのがよい。   The setting related to feature extraction may be performed on the photographing unit or on the server computer. The type and number of feature quantities to be extracted depend on the information to be collected, that is, the purpose of analysis. If it is necessary to specify each visitor in performing the analysis, when setting the setting information C3, the type and number of feature quantities that can specify the individual are selected. On the other hand, if it is only necessary to be able to discriminate attributes such as sex, the type and number of feature quantities that can discriminate those attributes are selected. When the purpose of analysis is unknown, it is preferable to take a moving image and store the captured image in the storage 3 as it is. Alternatively, even if feature extraction is performed, it is preferable to extract a sufficient number of feature quantities that can identify an individual.

設定が完了し、システムのオペレータにより撮影開始が指示されると、各撮影ユニットは、それぞれに設定された条件で撮影を開始する。特徴抽出機能がオンに設定された撮影ユニットは、画像からの特徴抽出も行う。各撮影ユニットにより取得あるいは生成された情報は、サーバコンピュータ2に転送され、ストレージ3に保存される。これらの処理は、オペレータがシステムに対し撮影終了を指示するまで繰り返される。   When the setting is completed and the start of shooting is instructed by the system operator, each shooting unit starts shooting under the conditions set for each. The photographing unit whose feature extraction function is set to ON also performs feature extraction from the image. Information acquired or generated by each photographing unit is transferred to the server computer 2 and stored in the storage 3. These processes are repeated until the operator instructs the system to end photographing.

なお、ストレージ3に情報が蓄積された後のシステムの使用例は、以下、システムの機能ごとに個別に説明する。   An example of how the system is used after information is stored in the storage 3 will be described separately for each function of the system.

[来場者数のカウント]
以下、分析部26が実行する来場者数のカウント処理について、図6および図7を参照して説明する。本実施形態では、分析部26は、来場者が舞台方向を向いているイベントと、来場者がホール内を自由に往来するイベントとで、異なる処理を実行する。いずれの処理を実行するかは、オペレータが予め設定により選択する。但し、分析部26が、オペレータが設定した撮影ユニットの設定情報に基づいて(例えば設定された各カメラの向きに基づいて)イベントのタイプを判定し、2種類の処理から適切な処理を自動的に選択するようにしてもよい。
[Count of visitors]
Hereinafter, the counting process of the number of visitors executed by the analysis unit 26 will be described with reference to FIGS. 6 and 7. In the present embodiment, the analysis unit 26 performs different processes for an event in which the visitor is facing the stage direction and an event in which the visitor freely travels in the hall. Which process is to be executed is selected in advance by an operator. However, the analysis unit 26 determines the type of the event based on the setting information of the photographing unit set by the operator (for example, based on the set direction of each camera), and automatically performs an appropriate process from the two types of processes. You may make it choose.

(1)第1の来場者数カウント機能
来場者が舞台方向など、同じ方向を向いているイベントでは、ある時刻におけるホール内の場景を舞台の側から撮影すれば、来場者の顔が写った画像を取得することができる。しかし、1台のカメラによる撮影では、後方座席の来場者が前にいる来場者の影に隠れてしまうこともあり、全員の顔が写った画像を取得することは難しい。あるいはホール面積が大きく来場者数が多い場合には全員の顔が写った画像を取得することができたとしても、個々の来場者は小さくしか写らないため、その画像から顔の特徴量を抽出することが難しい。
(1) First visitor count function In an event where the visitors are facing the same direction, such as the stage direction, the scene of the visitors can be seen by shooting the scene in the hall from the stage side at a certain time. Images can be acquired. However, when shooting with a single camera, visitors in the back seat may be hidden behind the visitors in front, and it is difficult to acquire an image showing the faces of all members. Or, if the hall area is large and the number of visitors is large, even if it is possible to obtain an image showing the faces of all the members, each individual visitor is only small, so the facial features are extracted from that image Difficult to do.

そこで、複数の撮影ユニットにより、ホール内の場景を分担して撮影して、複数の画像を得ることにより、各来場者の顔が、少なくともいずれか1つの画像に含まれるようにする。撮影ユニット1〜1のうち、いずれの撮影ユニットを稼動させるかは、来場者席の位置や来場者数に応じて決定することとなるが、以下の説明では、来場者席全体を来場者席の右前方から撮影する撮影ユニットと、来場者席全体を来場者席の左前方から撮影する撮影ユニットを選択した場合を例示して説明する。 Therefore, the scenes in the hall are divided and photographed by a plurality of photographing units to obtain a plurality of images, so that each visitor's face is included in at least one of the images. Of the shooting units 1 1 to 1 N , which shooting unit is to be operated is determined according to the position of the visitor seat and the number of visitors, but in the following explanation, the entire visitor seat is visited. An example will be described in which a photographing unit for photographing from the front right of the passenger seat and a photographing unit for photographing the entire visitor seat from the left front of the attendee seat are described.

まず、この機能を利用する場合には、システムのオペレータは、特徴抽出部設定情報C3を設定する際に、個人を特定するために必要な特徴量が抽出される設定としておく必要がある。すなわち、以下に説明する処理は、ストレージ3に記憶されている来場者情報に含まれる特徴量F1〜FNが、個人を特定できるような特徴量であることを前提としている。   First, when using this function, the system operator needs to make a setting for extracting feature quantities necessary for specifying an individual when setting the feature extraction unit setting information C3. That is, the processing described below is based on the premise that the feature amounts F1 to FN included in the visitor information stored in the storage 3 are feature amounts that can identify an individual.

まず、分析部26は、ストレージ3から、選択された2台の撮影ユニット(撮影ユニット1a,1bとする)により同じ時刻に撮影された画像から生成された来場者情報を読み込む。すなわち、撮影ユニット識別子UIDが選択された2台の撮影ユニットを示し、かつ撮影日および時刻情報DTが所定日時を示す来場者情報を判別して読み込む。ここで読み込む来場者情報は、撮影ユニット側で生成された情報でも、サーバコンピュータ側で生成された情報でもよい。   First, the analysis unit 26 reads visitor information generated from images captured at the same time by the two selected photographing units (referred to as photographing units 1 a and 1 b) from the storage 3. That is, the visitor information indicating the two photographing units with the photographing unit identifier UID selected and the photographing date and time information DT indicating the predetermined date and time is discriminated and read. The visitor information read here may be information generated on the photographing unit side or information generated on the server computer side.

続いて分析部26は、図6に示すように、読み込んだ来場者情報を用いて対象識別処理8と個人識別処理9を実行する。対象識別処理8は、画像の中から来場者の顔を識別する処理である。本実施形態では、撮影ユニット1aの撮影画像、撮影ユニット1bの撮影画像について、それぞれ対象識別処理8を施す。また、本実施形態では、識別したい来場者の属性または状態を設定することにより、その属性あるいは状態を有する顔の来場者のみを識別することができる。ここで、「属性」は、性別、年齢など来場者固有の特徴であり、「状態」は表情のように来場中に変化する特徴である。属性や状態を設定しなければ、画像に含まれるすべての顔が検出される。   Subsequently, as illustrated in FIG. 6, the analysis unit 26 executes the target identification process 8 and the personal identification process 9 using the read visitor information. The object identification process 8 is a process for identifying a visitor's face from an image. In the present embodiment, the object identification process 8 is performed on the captured image of the imaging unit 1a and the captured image of the imaging unit 1b. Further, in the present embodiment, by setting the attributes or states of visitors who want to be identified, it is possible to identify only the visitors who have the attributes or states. Here, the “attribute” is a characteristic unique to the visitor such as gender and age, and the “state” is a characteristic that changes during the visit like a facial expression. If no attribute or state is set, all faces included in the image are detected.

対象識別処理8では、来場者情報に含まれる特徴量F1〜FNとカウントしたい対象の属性または状態を示す特徴量と照合し、照合結果に基づいて、その来場者情報の抽出元の人物がカウントすべき対象か否か識別する。例えば、来場者中の男性の数を調べる場合であれば、来場者情報に含まれる特徴量F1〜FNを、男性の特徴を示す特徴量と照合して、来場者情報が示す人物が男性か女性かを識別する。あるいは、笑顔の来場者の数を調べる場合であれば、来場者情報に含まれる特徴量F1〜FNを笑顔の特徴を示す特徴量と照合して、その来場者情報が示す人物が笑顔か否かを識別する。   In the object identification process 8, the feature amounts F1 to FN included in the visitor information are collated with the feature amount indicating the attribute or state of the target to be counted, and the person from which the visitor information is extracted is counted based on the collation result. Identify whether it should be a target. For example, if the number of males in the visitor is to be checked, the feature amounts F1 to FN included in the visitor information are collated with the feature amount indicating the male feature to determine whether the person indicated by the visitor information is male. Identify women. Alternatively, if the number of smiling visitors is to be checked, the feature amounts F1 to FN included in the visitor information are compared with the feature amounts indicating the smile feature, and whether or not the person indicated by the visitor information is a smile To identify.

個人識別処理9は、複数の画像に重複して含まれる対象を検出する処理である。本実施形態では、図6(a)に示すように、対象識別処理8により撮影ユニット1aの撮影画像から検出された対象の来場者情報に含まれる特徴量と、撮影ユニット1bの撮影画像から検出された対象の来場者情報に含まれる特徴量とを、順次照合することにより、複数の来場者情報を持つ来場者を検出する。なお、本実施形態では、照合結果が一致した場合には、その複数の来場者情報に含まれている仮の来場者識別子GIDを、共通の新しい来場者識別子GIDに置き換える。ここで付与された共通の来場者識別子GIDは、以降他の分析処理を行なうときに利用できる。   The personal identification process 9 is a process for detecting a target included in a plurality of images. In the present embodiment, as shown in FIG. 6 (a), the feature amount included in the target visitor information detected from the photographed image of the photographing unit 1a by the object identification process 8 and the photographed image of the photographing unit 1b are detected. The visitors having a plurality of pieces of visitor information are detected by sequentially collating the feature amounts included in the target visitor information. In the present embodiment, when the matching results match, the temporary visitor identifier GID included in the plurality of visitor information is replaced with a common new visitor identifier GID. The common visitor identifier GID assigned here can be used when other analysis processing is performed thereafter.

さらに、分析部26は、2種類のカウンタを用いた計数処理10を実行する。第1のカウンタは、対象識別処理8においてカウント対象と判断された来場者情報の数を計数するカウンタである。第2のカウンタは、個人識別処理9において重複カウントと判断された来場者情報の数を計数するカウンタである。ストレージ3から読み込まれた全ての来場者情報について、対象識別処理8および個人識別処理9が終了した時点で、分析部26は第1のカウンタの値から第2のカウンタの値を減算する演算を行なう。   Further, the analysis unit 26 executes the counting process 10 using two types of counters. The first counter is a counter that counts the number of visitor information determined to be counted in the object identification process 8. The second counter is a counter that counts the number of visitor information determined to be a duplicate count in the personal identification process 9. For all the visitor information read from the storage 3, when the object identification process 8 and the personal identification process 9 are completed, the analysis unit 26 performs an operation of subtracting the value of the second counter from the value of the first counter. Do.

なお、他の方法として、図6(b)に示すように、先に個人識別処理9を実行して1人の来場者について複数の来場者情報が存在する場合には、その中の一の来場者情報のみを残して他の来場者情報を処理対象から除外し、残った来場者情報についてのみ対象識別処理8を実行する方法も考えられる。但し、個人識別処理9は対象識別処理8に比べて特徴量照合時の計算量が多いため、図6(a)の手順でカウントを行なうほうが識別処理の効率はよい。   As another method, as shown in FIG. 6 (b), when the individual identification process 9 is executed first and a plurality of pieces of visitor information exist for one visitor, one of them is included. A method of leaving only the visitor information and excluding other visitor information from the processing target and executing the object identification process 8 only for the remaining visitor information is also conceivable. However, since the personal identification process 9 has a larger calculation amount at the time of the feature amount comparison than the object identification process 8, the efficiency of the identification process is better when counting is performed according to the procedure of FIG.

以上、2台の撮影ユニット1a、1bにより得られた来場者情報を用いる場合を例示して説明したが、3台以上の撮影ユニットにより得られた来場者情報を用いる場合でも個人識別処理9における照合回数が増える点を除けば、撮影ユニットが2台の場合と同様である。実際には、観客席が数十列あるホールであれば、4台以上の撮影ユニットを稼動させる必要があるであろう。例えば、観客席の左右に所定間隔で配置されている撮影ユニットをすべて稼動させて、観客席5列〜10列ごとに左右斜め前方からの撮影が行なわれるようにする。例えば最前列のカメラでは観客席の1列目〜7列目を撮影し、次列のカメラでは3列目〜9列目を撮影するなどすれば、撮影漏れを防ぐことができる。この場合、来場者数をカウントする際に前列の撮影ユニットにより得られる画像と後列の撮影ユニットにより得られる画像との間で来場者情報の重複をチェックすれば、重複カウントを防止することもできる。   The case where the visitor information obtained by the two photographing units 1a and 1b is used has been described above as an example. However, even in the case where the visitor information obtained by the three or more photographing units is used, the personal identification processing 9 Except for the fact that the number of verifications increases, this is the same as when there are two photographing units. In practice, if there are dozens of spectator seats, it will be necessary to operate four or more photographing units. For example, all the photographing units arranged at predetermined intervals on the left and right sides of the spectator seat are operated so that photographing from the diagonally front left and right is performed every five to ten rows of the spectator seats. For example, if the first row of the camera is photographed in the first row to the seventh row of the spectator seat, and the next row camera is photographed in the third row to the ninth row, it is possible to prevent omissions. In this case, when counting the number of visitors, it is possible to prevent duplication counting by checking the overlap of the visitor information between the image obtained by the front row photographing unit and the image obtained by the rear row photographing unit. .

上記処理により求められた来場者数は、画像の取得に使用された撮影ユニットの撮影ユニット識別子UID、画像が撮影された日時DT、カウントの対象とした属性あるいは状態の情報とともに、分析結果としてストレージ3に保存される。また、オペレータからの要求に応じて設定用端末4の画面に表示される。   The number of visitors determined by the above processing is stored as an analysis result together with the shooting unit identifier UID of the shooting unit used to acquire the image, the date and time DT when the image was shot, and the attribute or status information to be counted. 3 is saved. Further, it is displayed on the screen of the setting terminal 4 in response to a request from the operator.

分析部26は、上記処理で得られた来場者数の値を用いて、さらに別の分析処理を実行することもできる。例えば、来場者数の比率(男女比など)、時間帯による来場者数の変移を表すグラフの生成のほか、来場者数に基づく多種多様な分析を行なうことができる。それらの処理により得られた分析結果もまた、ストレージ3に保存される。   The analysis part 26 can also perform another analysis process using the value of the number of visitors obtained by the said process. For example, in addition to the generation of graphs representing the ratio of the number of visitors (gender ratio, etc.) and the change in the number of visitors depending on the time of day, various analyzes based on the number of visitors can be performed. The analysis results obtained by these processes are also stored in the storage 3.

なお、ストレージ3に蓄積された分析結果は、統計情報としての利用価値があることはもちろんであるが、本実施形態のシステムは、この分析結果を利用して、さらなる付加価値を生み出すことができる。そのための機能については、後述する。   The analysis results accumulated in the storage 3 are of course useful as statistical information, but the system according to the present embodiment can generate further added value by using the analysis results. . The function for that will be described later.

(2)第2の来場者数カウント機能
来場者がホール内を自由に往来するイベントでは、ホール内の来場者の顔の向きは時々刻々と変化するため、1つの撮影画像から来場している全てのカウント対象を識別することは、ほとんど不可能といってよい。第1の来場者数カウント機能のように複数方向から撮影された画像を用いるとしても、顔の向きが360度変化することを考えると、いずれの撮影ユニットを稼動させるかの判断は非常に難しい。また、正面顔を撮影できた来場者と、横顔しか撮影できなかった来場者がいると、正面顔と横顔では顔から得られる特徴量が異なるため(正面顔からしか得られない特徴量もあるため)、照合が難しく、識別精度の低下にもつながりかねない。
(2) Second visitor count function In the event that visitors can freely travel through the hall, the direction of the faces of the visitors in the hall changes from moment to moment, so visitors come from one shot image It can be said that it is almost impossible to identify all count objects. Even if images taken from a plurality of directions are used as in the first visitor number counting function, it is very difficult to determine which photographing unit is to be operated considering that the orientation of the face changes by 360 degrees. . Also, if there are visitors who could shoot the front face and visitors who could only shoot the side face, the feature values obtained from the face differ between the front and side faces (some feature quantities can only be obtained from the front face). Therefore, verification is difficult and may lead to a decrease in identification accuracy.

そこで、正面顔から得られる来場者情報のみを用いて来場者数のカウントを行なえるようにするため、ホール内の同じ場景を、できる限り多くの来場者の正面顔が得られるように、繰り返し撮影する。稼動させる撮影ユニットは、来場者の注意を惹く物や掲示がある場所に近い撮影ユニットを選択することが好ましい。以下、1台の撮影ユニットを使用して繰り返し撮影を行なう場合を例示して、第2の来場者数カウント機能について説明する。   Therefore, in order to be able to count the number of visitors using only the visitor information obtained from the front face, repeat the same scene in the hall so that as many front faces as possible can be obtained. Take a picture. It is preferable to select a photographing unit that is close to a place where there is an object or a notice that attracts visitors' attention. Hereinafter, the second visitor number counting function will be described by exemplifying a case where repeated shooting is performed using one shooting unit.

まず、この機能を利用する場合には、システムのオペレータは、設定情報C1を設定する際に、所定間隔での静止画撮影を選択する。また、設定情報C3を設定する際に、正面顔のみを検出して、正面顔画像から特徴量を抽出するように設定を行なう。   First, when using this function, the system operator selects still image shooting at a predetermined interval when setting information C1 is set. Further, when setting information C3 is set, settings are made so that only the front face is detected and the feature amount is extracted from the front face image.

図7は、分析部26が実行する第2の来場者カウント処理を示すフローチャートである。分析部26は、ストレージ3から、選択した撮影ユニットの撮影ユニット識別子UIDを含む来場者情報を、撮影時刻の情報DTが示す時刻が早いものから順番に読み込む(S101)。第1の来場者カウント機能と同様、ここで読み込む特徴量の情報は、撮影ユニット側で生成された情報でも、サーバコンピュータ側で生成された情報でもよい。   FIG. 7 is a flowchart showing the second visitor count process executed by the analysis unit 26. The analysis unit 26 reads the visitor information including the shooting unit identifier UID of the selected shooting unit from the storage 3 in order from the earliest time indicated by the shooting time information DT (S101). Similar to the first visitor count function, the feature amount information read here may be information generated on the photographing unit side or information generated on the server computer side.

分析部26は、来場者情報を1つ読み込む度に、その来場者情報が示す来場者が、それ以前の処理で検出済みの来場者か否か識別する(初顔識別処理)(S102)。初顔識別処理では、新しく読み込んだ来場者情報に含まれる特徴量を、既読のすべての来場者情報に含まれる特徴量と照合する。そして、照合結果が一致する既読来場者情報がなければ、その来場者は初検出の来場者であると判断する(S103)。初検出でない場合には、次の来場者情報を読み込む。初検出の来場者の場合には、対象識別処理を実行する(S104)。   Every time one piece of visitor information is read, the analysis unit 26 identifies whether or not the visitor indicated by the visitor information is a visitor that has been detected in the previous process (first face identification process) (S102). In the initial face identification process, the feature amount included in the newly read visitor information is collated with the feature amount included in all the already read visitor information. If there is no already-read visitor information that matches the matching result, it is determined that the visitor is the first detected visitor (S103). If it is not the first detection, the next visitor information is read. In the case of a first-detected visitor, an object identification process is executed (S104).

対象識別処理S104は、画像の中から来場者(人物)を識別する処理である。本実施形態では、識別したい来場者の属性または状態を設定することにより、その属性あるいは状態を有する来場者のみを識別することができる。属性や状態を設定しなければ、画像に含まれるすべての来場者が識別され、検出される。対象識別処理S104では、初検出の来場者の来場者情報に含まれる特徴量F1〜FNとカウントしたい対象の属性または状態を示す特徴量と照合し、照合結果に基づいて、その来場者情報の抽出元の人物がカウントすべき対象か否か識別する。   The object identification process S104 is a process for identifying a visitor (person) from the image. In this embodiment, by setting an attribute or state of a visitor to be identified, it is possible to identify only a visitor having that attribute or state. If no attributes or status are set, all visitors included in the image are identified and detected. In the object identification process S104, the feature amounts F1 to FN included in the visitor information of the first detected visitor are collated with the feature amount indicating the attribute or state of the target to be counted, and based on the collation result, the visitor information It is identified whether or not the extraction source person is to be counted.

照合結果が一致した場合には、計数処理(S105)において所定のカウンタをカウントアップするとともに、その来場者情報を既読来場者情報としてメモリに記憶する。以降、ステップS101〜S105の処理を、来場者数を調べたい時間帯の時刻を示す来場者情報がなくなるまで繰り返す。   If the collation results match, a predetermined counter is counted up in the counting process (S105), and the visitor information is stored in the memory as already-read visitor information. Thereafter, the processing of steps S101 to S105 is repeated until there is no visitor information indicating the time of the time zone in which the number of visitors is to be checked.

上記処理によれば、1回でも正面顔を撮影できれば、その来場者をカウントすることができるので、来場者の向きが時々刻々と変化する環境でも来場者数を正確に求めることができる。   According to the above processing, if the front face can be photographed even once, the number of visitors can be counted, so the number of visitors can be accurately obtained even in an environment where the direction of the visitors changes every moment.

上記処理により求められた来場者数は、画像の取得に使用された撮影ユニットの撮影ユニット識別子UID、画像が撮影された日時DT、カウントの対象とした属性あるいは状態の情報とともに、分析結果としてストレージ3に保存される。また、オペレータからの要求に応じて設定用端末4の画面に表示される。また、第1の来場者カウント機能と同様、得られた来場者数は、他の統計情報の自動生成に利用される。   The number of visitors determined by the above processing is stored as an analysis result together with the shooting unit identifier UID of the shooting unit used to acquire the image, the date and time DT when the image was shot, and the attribute or status information to be counted. 3 is saved. Further, it is displayed on the screen of the setting terminal 4 in response to a request from the operator. Further, similarly to the first visitor count function, the obtained number of visitors is used for automatic generation of other statistical information.

[保存版画像の生成]
続いて、上記分析結果を利用した保存版画像の生成機能、すなわちサーバコンピュータ2の保存版画像生成部27の機能について説明する。本実施形態のシステムが生成し得る保存版画像は4種類ある。第1の保存版画像は、開始時から終了時までのイベントの場景を撮影した動画(または静止画スライド)の要所にインデックスをつけたもの(以下「インデックス付場景画像」と称する)である。第2の保存版画像は、開始時から終了時までのイベントの場景を撮影した動画(または静止画スライド)の一部を抜き出して編集しなおしたもの(以下「ダイジェスト場景画像」と称する)である。第3の保存版画像は、イベントの最中に上映された映像の要所にインデックスをつけたもの(以下「インデックス付上映画像」と称する)である。第4の保存版画像は、イベントの最中に上映された映像の一部を抜き出して編集しなおしたもの(以下「ダイジェスト上映画像」と称する)である。
[Generate saved image]
Next, the function of generating a saved version image using the analysis result, that is, the function of the saved version image generating unit 27 of the server computer 2 will be described. There are four types of stored version images that can be generated by the system of the present embodiment. The first preserved version image is an indexed image (hereinafter referred to as “indexed scene image”) of key points of a moving image (or still image slide) that captures the scene of the event from the start to the end. . The second preserved version image is a part of a moving image (or a still image slide) obtained by photographing the scene of the event from the start to the end and re-edited (hereinafter referred to as “digest scene image”). is there. The third preserved version image is an image obtained by indexing important points of the video screened during the event (hereinafter referred to as “indexed screened image”). The fourth stored version image is an image obtained by extracting a part of the video screened during the event and editing it again (hereinafter referred to as “digest screened image”).

図8は、インデックス付場景画像およびダイジェスト場景画像の生成の概念を示す図である。本実施形態のシステムでは、前述のように、コンサートや講演会のようなイベントで、舞台側を撮影して得た画像を符号化して動画、スライドなどの画像情報6を生成する一方で、来場者席を撮影して得た画像について顔識別処理による分析処理31を行って分析結果Aを得ることができる。この際、画像情報6には、図3を参照して説明したように、撮影日・時刻の情報DTが含まれている。また、所定時刻における来場者数をカウントする分析処理では、分析結果Aにも撮影日・時刻の情報DTが含まれている。   FIG. 8 is a diagram showing the concept of generating indexed scene scene images and digest scene scene images. In the system according to the present embodiment, as described above, in an event such as a concert or a lecture, an image obtained by photographing the stage side is encoded to generate image information 6 such as a moving image and a slide. The analysis result A can be obtained by performing the analysis process 31 by the face identification process on the image obtained by photographing the person's seat. At this time, as described with reference to FIG. 3, the image information 6 includes shooting date / time information DT. Further, in the analysis processing for counting the number of visitors at a predetermined time, the analysis result A also includes information DT on the shooting date / time.

保存版画像生成部27は、この撮影日・時刻の情報DTを利用して、舞台側の撮影により得られた画像情報6と分析結果Aとを撮影時刻ごとに対応付ける。これにより、図に示すように、舞台に対する来場者の評価を、時刻ごとあるいは時間帯ごとに推定する処理32を実行する。さらに、推定した評価に基づいて舞台側撮影画像の自動編集33を行い、編集された動画、スライドなどをDVDに記録する。   The stored version image generation unit 27 uses the shooting date / time information DT to associate the image information 6 obtained by shooting on the stage side with the analysis result A for each shooting time. As a result, as shown in the figure, a process 32 for estimating the visitor's evaluation on the stage for each time or for each time zone is executed. Further, the stage-side shot image is automatically edited 33 based on the estimated evaluation, and the edited moving image, slide, etc. are recorded on the DVD.

図9に保存版画像生成部27の処理の一例を示す。例えば、第1の人数カウント機能により、30秒おきに笑顔の女性、笑顔の男性の数がカウントされ、結果がストレージ3に保存されているとする。保存版画像生成部27は、ストレージ3から、その結果の情報を読み出し、笑顔の女性の数が所定数(図の例では30人)を越えた時間帯を判定する。すなわち、笑顔の女性の数が所定数を越えた時間帯は女性の評価が高かった時間帯、所定数を越えなかった時間帯は女性の評価が低かった時間帯と推定する。続いて、図に示すように、評価が高かった時間帯の画像のみを抜き出してダイジェストを生成する。さらには、特に評価が高まった時刻、評価が下がった時刻にインデックスをつける。   FIG. 9 shows an example of processing of the saved version image generation unit 27. For example, it is assumed that the number of smiling women and smiling men is counted every 30 seconds by the first number counting function, and the result is stored in the storage 3. The stored version image generation unit 27 reads the information of the result from the storage 3, and determines the time zone when the number of smiling women exceeds a predetermined number (30 in the example in the figure). That is, it is estimated that the time zone in which the number of smiling women exceeds the predetermined number is a time zone in which the female evaluation is high, and the time zone in which the female evaluation does not exceed the predetermined number is the time zone in which the female evaluation is low. Subsequently, as shown in the figure, a digest is generated by extracting only the images in the time zone with high evaluation. Furthermore, an index is added at a time when the evaluation is particularly high and a time when the evaluation is low.

この機能を用いれば、例えば、女性の反応がよかった時刻の画像のみを集めて記録した女性用DVD、男性の反応がよかった時刻の画像のみを集めて記録した男性用DVD、来場者の反応が特によかった時刻と特に悪かった時刻へのインデックスつけが可能になる。すなわち、編集者の一存ではなく、来場者の反応に基づいた画像選出が可能になる。さらに言えば、来場者アンケートなどでは必ずしも来場者の正直な反応は得られないが、この機能を用いれば来場者の顔情報から直接反応を取得することができるので、来場者の要望を正確に把握することができる。   If this function is used, for example, a female DVD that collects and records only images of the time when the female reaction was good, a male DVD that collects and records only the images of the time when the male response was good, and the reaction of the visitors in particular You can index good and bad times. That is, it is possible to select an image based on the reaction of the visitor, not the editor. Furthermore, although it is not always possible to get honest responses from visitors in questionnaires etc., this function can be used to obtain responses directly from the visitor's face information. I can grasp it.

以上、イベントの場景(主に舞台)を撮影した画像から保存版画像を生成する機能について説明したが、イベントの最中に上映された映像や音声についても、上映開始時刻を記録しておくことにより上映時刻と分析結果とを時刻ごとに対応づけることができる。よって、この場合にも、上記説明した方法により来場者の反応に応じた画像編集を自動で行うことができる。   In the above, the function to generate a saved version image from an image of the event scene (mainly the stage) has been explained, but recording the start time of the video and audio shown during the event as well Thus, the screening time and the analysis result can be associated with each time. Therefore, also in this case, it is possible to automatically perform image editing according to the reaction of the visitors by the method described above.

上記例は、第1の人数カウント機能を利用して保存版画像を生成するものであるが、第2の人数カウント機能を利用してもよい。第2の人数カウント機能では、所定時刻における来場者の反応を観測することはできないが、時間帯を区切って来場者数をカウントすることはできる。よって各時間帯(例えば午前、午後)の来場者の反応に応じて、その時間帯の画像を選出するか否かを決めることは可能であり、第1の人数カウント機能と同様保存版画像の生成に利用することができる。   In the above example, the saved version image is generated using the first number counting function, but the second number counting function may be used. With the second person counting function, it is not possible to observe the reaction of visitors at a predetermined time, but it is possible to count the number of visitors by dividing the time zone. Therefore, it is possible to decide whether or not to select an image for that time period according to the reaction of the visitors in each time period (for example, morning and afternoon). Can be used for generation.

また、分析部26が人数カウント機能以外の分析処理も行なう場合、その分析結果がイベントの評価に繋がる結果であれば、その分析結果を利用して保存版画像を生成する方法も考えられる。例えば、笑顔の来場者数の増減(微分値など)に基づいて、笑顔の来場者が急激に増えた時刻、急激に減った時刻にインデックスをつける処理などが考えられる。   In addition, when the analysis unit 26 performs analysis processing other than the number of people counting function, if the analysis result is a result that leads to the evaluation of the event, a method of generating a stored version image using the analysis result is also conceivable. For example, based on the increase / decrease (differential value, etc.) of the number of smiling visitors, a process of indexing the times when the number of smiling visitors suddenly increases or decreases rapidly can be considered.

また、上記例は、いずれもストレージ3その他の記憶媒体に一旦保存された画像を編集するものであるが、分析部26による人数カウントを撮影中にリアルタイムに行って、来場者の反応がよかった時間帯の撮影画像だけをストレージ3に記録して、撮影を行ないながら自動編集処理を実行する方法も考えられる。例えば、撮影ユニットから転送されてきた画像情報を直ちにストレージ3に記録せず、サーバコンピュータ2のメモリ上においたままにする。そして例えば5分間分の画像情報がメモリ上に蓄積された時点で、その画像情報に対し特徴抽出処理および分析処理を実行し、来場者の評価を推定する。評価がよい場合には、その10分間分の画像情報をストレージ3に記録する。一方、評価が悪い場合にはストレージ3には記録せず、メモリ上の画像情報は破棄する。この方法によれば、舞台公演などが終了した時点でダイジェスト映像などの保存版画像も完成していることになるので、舞台を見終わった来場者への土産物としてダイジェスト映像が記録されたDVDを提供するといたサービスを実現することができる。   In the above examples, the images once stored in the storage 3 or other storage media are edited. However, the time when the number of people by the analysis unit 26 is counted in real time during shooting and the reaction of the visitors is good. A method is also conceivable in which only the image of the band is recorded in the storage 3 and the automatic editing process is executed while shooting. For example, the image information transferred from the photographing unit is not immediately recorded in the storage 3 but is left on the memory of the server computer 2. Then, for example, when image information for 5 minutes is accumulated in the memory, feature extraction processing and analysis processing are executed on the image information to estimate the visitor's evaluation. If the evaluation is good, the image information for 10 minutes is recorded in the storage 3. On the other hand, if the evaluation is bad, the image information on the memory is discarded without being recorded in the storage 3. According to this method, when the stage performance etc. is finished, the saved version image such as digest video is also completed, so the DVD with the digest video recorded as a souvenir for visitors who finished watching the stage The service that was provided can be realized.

[システムの効果]
以上に説明したように、本実施形態のシステムは、撮影の方向や回数を自由に設定することができるので、イベントの種類に応じて情報収集に最適な撮影方法を選択することができ、さらにはその撮影方法による撮影で得られた画像を用いて来場者数のカウントなどの分析処理を行なうことができる。よって、あらゆる種類のイベントが開催される可能性がある多目的ホールへの適用に特に適している。
[System effects]
As described above, the system of the present embodiment can freely set the shooting direction and number of times, so that it is possible to select an optimal shooting method for collecting information according to the type of event. Can perform analysis processing, such as counting the number of visitors, using images obtained by the shooting method. Therefore, it is particularly suitable for application to a multipurpose hall where all kinds of events may be held.

第1の来場者数カウント機能によれば、複数台のカメラの画像を利用して過不足なく正確な人数を調べることができるため、1台のカメラでは撮影しきれないような広い範囲に来場者がいる場合でも、また1台のカメラでは人影に隠れて撮影できない来場者がいる場合でも、正確にカウントを行なうことができる。   According to the 1st visitor count function, you can check the exact number of people using images from multiple cameras, so you can visit a wide range that cannot be taken with just one camera. Even if there is a person, or even if there is a visitor who can not shoot with a single camera hidden behind a human figure, the counting can be performed accurately.

第2の来場者数カウント機能によれば、同じ方向から繰り返し撮影された画像を利用して過不足なく正確な人数を調べることができるため、不特定多数の来場者が任意の方向を向いている場合でも、正確にカウントを行なうことができる。   According to the second visitor number counting function, it is possible to check the exact number of people by using images repeatedly taken from the same direction, so that an unspecified number of visitors face in any direction. Even if it is, it can count accurately.

また、保存版画像生成機能によれば、保存対象の画像に何が写っているかではなく、保存対象の画像に対して来場者がどのような反応を示したかを基準にして、インデックスを付与したりダイジェスト画像を選出することができるので、編集者ではなく来場者の趣向にあった編集画像を生成することができる。   In addition, according to the saved version image generation function, an index is assigned based on how the visitors responded to the image to be saved, rather than what is reflected in the image to be saved. Or a digest image can be selected, so that an edited image suitable for the visitor, not the editor, can be generated.

本発明の一実施形態におけるシステムの概略構成を示す図The figure which shows schematic structure of the system in one Embodiment of this invention. 撮影ユニットの内部構成を示す図Diagram showing the internal configuration of the shooting unit 画像情報の一記録形態を示す図The figure which shows one recording form of image information 来場者情報の一記録形態を示す図Diagram showing one form of visitor information recording サーバコンピュータの構成を示す図Diagram showing the configuration of the server computer 第1の人数カウント機能(計数機能)について説明するための図The figure for demonstrating a 1st person count function (counting function) 第2の人数カウント機能(計数機能)について説明するための図The figure for demonstrating the 2nd people count function (count function) 保存版画像生成機能を示す概念図Conceptual diagram showing preservation version image generation function 保存版画像生成機能による編集の一例を示す図The figure which shows an example of the edit by the preservation version image generation function

符号の説明Explanation of symbols

C1〜C5 設定情報、 F 特徴量、 I 静止画、 M 動画、 A 分析結果
6 画像情報、 7 来場者情報
C1-C5 Setting information, F feature value, I still image, M movie, A analysis result 6 image information, 7 visitor information

Claims (2)

所定場所に存在する対象を自動的に計数する自動計数装置であって、
前記場所の異なる時刻の場景を同じ方向から繰り返し撮影することにより得られた複数の画像について、画像に含まれる対象の正面顔情報を抽出する処理を順次施す抽出手段と、
前記抽出手段により一の画像から抽出された正面顔情報を、前記抽出手段により該一の画像以前に処理された画像から抽出された正面顔情報と照合することにより、前記一の画像において初めて検出された対象を識別する第1識別手段と、
前記第1識別手段により識別された対象の正面顔情報に基づいて計数対象を識別する第2識別手段と、
前記第2識別手段が識別した計数対象の数を計数する計数手段とを備えた計数装置。
An automatic counting device for automatically counting objects existing in a predetermined place,
Extraction means for sequentially performing a process of extracting front face information of a target included in an image for a plurality of images obtained by repeatedly capturing scenes at different times from the same direction;
The front face information extracted from one image by the extracting means is first detected in the one image by collating with the front face information extracted from the image processed before the one image by the extracting means. A first identification means for identifying
Second identifying means for identifying the counting object based on the front face information of the object identified by the first identifying means;
A counting device comprising: counting means for counting the number of counting objects identified by the second identifying means.
前記第2識別手段が、前記正面顔情報に基づいて前記各画像に含まれる計数対象の属性および/または状態を識別し得る手段であり、
前記計数手段が、前記計数対象の数を前記属性および/または状態ごとに計数し得る手段であることを特徴とする請求項1記載の自動計数装置。
The second identification means is means capable of identifying an attribute and / or state of a counting target included in each image based on the front face information,
2. The automatic counting apparatus according to claim 1, wherein the counting unit is a unit capable of counting the number of the counting objects for each attribute and / or state.
JP2005288521A 2005-09-30 2005-09-30 Automatic counter Withdrawn JP2007102342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005288521A JP2007102342A (en) 2005-09-30 2005-09-30 Automatic counter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005288521A JP2007102342A (en) 2005-09-30 2005-09-30 Automatic counter

Publications (1)

Publication Number Publication Date
JP2007102342A true JP2007102342A (en) 2007-04-19

Family

ID=38029250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005288521A Withdrawn JP2007102342A (en) 2005-09-30 2005-09-30 Automatic counter

Country Status (1)

Country Link
JP (1) JP2007102342A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055248A (en) * 2008-08-27 2010-03-11 Shoei Computer:Kk Sales information generation system with clientele
WO2016035632A1 (en) * 2014-09-02 2016-03-10 Necソリューションイノベータ株式会社 Data processing device, data processing system, data processing method, and program
JP2020516188A (en) * 2017-07-21 2020-05-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Face image duplication deletion method and apparatus, electronic device, storage medium, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010055248A (en) * 2008-08-27 2010-03-11 Shoei Computer:Kk Sales information generation system with clientele
WO2016035632A1 (en) * 2014-09-02 2016-03-10 Necソリューションイノベータ株式会社 Data processing device, data processing system, data processing method, and program
JPWO2016035632A1 (en) * 2014-09-02 2017-04-27 Necソリューションイノベータ株式会社 Data processing apparatus, data processing system, data processing method and program
JP2020516188A (en) * 2017-07-21 2020-05-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Face image duplication deletion method and apparatus, electronic device, storage medium, and program
US11132581B2 (en) 2017-07-21 2021-09-28 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for face image deduplication and storage medium
US11409983B2 (en) 2017-07-21 2022-08-09 Beijing Sensetime Technology Development Co., Ltd Methods and apparatuses for dynamically adding facial images into database, electronic devices and media

Similar Documents

Publication Publication Date Title
JP2007104091A (en) Image selection apparatus, program, and method
CA2521670C (en) Automatic face extraction for use in recorded meetings timelines
JP4702877B2 (en) Display device
JP2007102341A (en) Automatic counter
EP1578130A1 (en) Automated video editing system and method
JP5213123B2 (en) Video output method and video output device
TWI601425B (en) A method for tracing an object by linking video sequences
WO2010053192A1 (en) Behavioral analysis device, behavioral analysis method, and recording medium
JP6910208B2 (en) Information processing equipment, information processing methods and programs
JP5088463B2 (en) Monitoring system
JP2022117996A (en) Information processing device, data generation method, and program
JP2007102342A (en) Automatic counter
JP4120378B2 (en) Surveillance system and program
JP7455715B2 (en) Crowd situation estimation device, method and program
TWI678928B (en) Video file processing method, video file processing device and monitoring system
US7965865B2 (en) Method, system, and program product for presenting electronic surveillance data
JP2018151840A (en) System, method and program for collation
JP7001429B2 (en) Interest measurement system and method
JP4601964B2 (en) Data collection management system, data collection management method, and data collection management program
US20240046652A1 (en) System and program
JP2007102343A (en) Interest level measurement system and method, and interest level calculation program
JP6959300B2 (en) Information processing device, access judgment method, and program
WO2022004569A1 (en) Image data processing device and system
CN112989075A (en) Multimedia album generating method, system, computer storage medium and electronic device
JP2009232023A (en) Image retrieval apparatus, image retrieval method, image reproducing apparatus, image reproduction method, image retrieval program, and image reproducing program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081202