JP2011087214A - Photographing system, method and program - Google Patents

Photographing system, method and program Download PDF

Info

Publication number
JP2011087214A
JP2011087214A JP2009240103A JP2009240103A JP2011087214A JP 2011087214 A JP2011087214 A JP 2011087214A JP 2009240103 A JP2009240103 A JP 2009240103A JP 2009240103 A JP2009240103 A JP 2009240103A JP 2011087214 A JP2011087214 A JP 2011087214A
Authority
JP
Japan
Prior art keywords
person
photographing
priority
shooting
function unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009240103A
Other languages
Japanese (ja)
Other versions
JP4985742B2 (en
Inventor
Shiketsu Saito
志傑 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2009240103A priority Critical patent/JP4985742B2/en
Publication of JP2011087214A publication Critical patent/JP2011087214A/en
Application granted granted Critical
Publication of JP4985742B2 publication Critical patent/JP4985742B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a photographing system for photographing a person without missing a video from the front where it is easy to capture the feature of a person, and for photographing a person who seems to step out of a photographic area preferentially. <P>SOLUTION: This photographing system including a plurality of photographing means is characterized by including a calculation means 10 configured to detect a person in a prescribed photographic region included in a video from video data photographed by the photographing means and to calculate the location information of the detected person and the moving distance and moving direction of the person in a prescribed period, a priority photographic person specification means 20 configured to specify the person to be photographed on the basis of the location information and moving distance calculated by the calculation means 10 and the photographing priority determined to a prescribed region in preliminarily stored photographic regions, and the photographing means specification means 30 configured to specify the photographing means for photographing the specified person from among the plurality of photographing means on the basis of the location information and moving direction of the person specified by the priority photographic person specification means 20 and the preliminarily stored layout information of each photographing means. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、所定の撮影領域内の人物を撮影する撮影システム、撮影方法及び撮影用プログラムに関する。   The present invention relates to a photographing system, a photographing method, and a photographing program for photographing a person in a predetermined photographing region.

昨今監視カメラは社会の様々な施設に導入されており、セキュリティ上の対策だけでなく、マーケティング用の分析データを取得するツールとしての利用方法も検討され始めている。   In recent years, surveillance cameras have been introduced into various facilities in society, and not only security measures but also methods for using them as a tool for acquiring marketing analysis data have begun to be examined.

例えば、企業や施設の安全性を確保するための手段として、または店舗に訪れた来店者の年齢、性別などの特徴を把握する手段として、施設や店舗にカメラを設置することが一般的に行われている。しかしながら、設置されたカメラにより常に映像を録画し続けているだけでは、人物の不審行動を即座に捉えることができないことや、人物の属性を把握するには定点的なカメラの映像では不十分であるという問題がある。   For example, it is common practice to install a camera in a facility or store as a means of ensuring the safety of a company or facility, or as a means of ascertaining the age, sex, etc. of a visitor who has visited the store. It has been broken. However, it is not possible to immediately capture the suspicious behavior of a person simply by continuously recording video with the installed camera, and fixed-point camera video is not enough to grasp the attributes of a person. There is a problem that there is.

このような問題に対応する方法として、例えば、特許文献1及び特許文献2には、カメラによって撮影されている映像内の人物を自動的に判別(人物の顔を特定や大きさを判定等)し、映像を記録するための方法が記載されている。また、特許文献3には、PTZカメラを制御し、判別した人物をズームし、場合によっては動きに合わせて人物を追随して、アップ画像を撮影することにより、人物の属性を記録する方法が記載されている。   As a method for dealing with such a problem, for example, in Patent Document 1 and Patent Document 2, a person in an image captured by a camera is automatically determined (identification of a person's face, determination of size, etc.). A method for recording a video is described. Patent Document 3 discloses a method of recording a person's attributes by controlling a PTZ camera, zooming the identified person, and following the person in accordance with the movement in some cases to shoot an up image. Are listed.

特開2009−152733号公報JP 2009-152733 A 特開2008−59110号公報JP 2008-59110 A 特開2005−142683号公報JP 2005-142683 A

しかしながら特許文献1及び特許文献2に記載された方法では、移動する人物のアップ画像を撮影できたとしても、人物がカメラに対して常に正面を向いているわけではない。そのため、人物の人相を確実に撮影したい場合などには、必ずしも有用な撮影映像になるとは限らないという場合がある。   However, in the methods described in Patent Document 1 and Patent Document 2, even if an up image of a moving person can be captured, the person does not always face the front with respect to the camera. For this reason, there are cases in which it is not always a useful photographed image when it is desired to photograph a human face of a person.

このように、肝心の映像が距離や画角の問題や、正面で撮影された映像ではなかったりするということによって、鮮明に人物の特徴を捉えていない場合がある。そのため、セキュリティ対策やマーケティング用の分析データを収集するツールとして用いた場合に、実際の事件が起こった後に証拠映像として利用できない場合や、マーケティング用の分析データとして不十分であるという場合がある。   As described above, there are cases where the image of the person is not clearly captured due to the problem of distance and angle of view, or the fact that the image is not an image shot in front. For this reason, when it is used as a tool for collecting security measures and analysis data for marketing, it may not be used as evidence video after an actual incident occurs, or it may be insufficient as analysis data for marketing.

また、特許文献3に記載された方法では、撮影対象の人物の移動方向に基づいて、主として撮影するカメラを選択するように制御する。しかし、撮影領域に複数の人物がおり、かつ移動によって領域内から出て行く可能性のある人物が居た場合には、ある一人のアップ画像を撮影している間に他の人物が領域を離れてしまい、補足しきれないという問題がある。   In the method described in Patent Document 3, control is performed so that a camera to be mainly photographed is selected based on the moving direction of the person to be photographed. However, if there are multiple people in the shooting area and there is a person who may move out of the area due to movement, another person may move the area while shooting one up image. There is a problem that it cannot be supplemented.

そこで、本発明は、人物の特徴を捉えやすい正面からの映像を逃すことなく撮影することができるとともに、撮影領域の外に出そうな人物を優先して撮影できる撮影システム、撮影方法及び撮影用プログラムを提供することを目的とする。   Therefore, the present invention is capable of shooting without missing a video from the front where it is easy to capture the characteristics of a person, and capable of shooting a person who is likely to go out of the shooting area with priority, a shooting method, and a shooting method. The purpose is to provide a program.

本発明による撮影システムは、複数の撮影手段を含み、撮影手段が撮影した映像データから、映像中に含まれる所定の撮影領域内の人物を検出し、検出した人物の位置情報と、所定期間における移動距離及び移動方向とを算出する算出手段と、算出手段が算出した位置情報及び移動距離と、予め記憶している撮影領域内の所定の領域に定められた撮影の優先度とに基づいて、撮影対象の人物を特定する優先撮影人物特定手段と、優先撮影人物特定手段が特定した人物の位置情報及び移動方向と、予め記憶している各撮影手段の配置情報とに基づいて、複数の撮影手段から特定した人物を撮影する撮影手段を特定する撮影手段特定手段とを含むことを特徴とする。   A photographing system according to the present invention includes a plurality of photographing means, detects a person in a predetermined photographing region included in the video from video data photographed by the photographing means, and detects position information of the detected person and a predetermined period. Based on the calculation means for calculating the movement distance and the movement direction, the positional information and the movement distance calculated by the calculation means, and the priority of shooting set in a predetermined area within the shooting area stored in advance, A plurality of shootings based on priority shooting person specifying means for specifying a person to be shot, position information and moving direction of the person specified by the priority shooting person specifying means, and arrangement information of each shooting means stored in advance. And a photographing means specifying means for specifying a photographing means for photographing the person specified by the means.

本発明による撮影方法は、複数の撮影手段がそれぞれ撮影した映像データから、映像中に含まれる所定の撮影領域内の人物を検出し、検出した人物の位置情報と、所定期間における移動距離及び移動方向とを算出し、算出した位置情報及び移動距離と、予め記憶している撮影領域内の所定の領域ごとに定められた撮影の優先度とに基づいて、撮影対象の人物を特定し、特定した人物の位置情報及び移動方向と、予め記憶している各撮影手段の配置情報とに基づいて、複数の撮影手段から特定した人物を撮影する撮影手段を特定することを特徴とする。   According to the imaging method of the present invention, a person in a predetermined imaging area included in an image is detected from video data respectively captured by a plurality of imaging means, and positional information of the detected person, a moving distance and a movement in a predetermined period are detected. The direction is calculated, and the person to be photographed is identified and identified based on the calculated position information and moving distance, and the photographing priority set for each predetermined area in the photographing area stored in advance. The photographing means for photographing the person identified from the plurality of photographing means is specified based on the position information and the moving direction of the photographed person and the arrangement information of each photographing means stored in advance.

本発明による撮影用プログラムは、コンピュータに、複数の撮影手段がそれぞれ撮影した映像データから、映像中に含まれる所定の撮影領域内の人物を検出し、検出した人物の位置情報と、所定期間における移動距離及び移動方向とを算出する算出処理と、算出した位置情報及び移動距離と、予め記憶している撮影領域内の所定の領域ごとに定められた撮影の優先度とに基づいて、撮影対象の人物を特定する優先撮影人物特定処理と、特定した人物の位置情報及び移動方向と、予め記憶している各撮影手段の配置情報とに基づいて、複数の撮影手段から特定した人物を撮影する撮影手段を特定する撮影手段特定処理とを実行させることを特徴とする。   A shooting program according to the present invention detects a person in a predetermined shooting area included in a video from video data shot by each of a plurality of shooting means in a computer, and detects the position information of the detected person and a predetermined period. Based on the calculation processing for calculating the moving distance and the moving direction, the calculated position information and moving distance, and the shooting priority set for each predetermined area in the shooting area stored in advance Based on the priority shooting person specifying process for specifying the person, the position information and the moving direction of the specified person, and the arrangement information of each shooting means stored in advance, the specified person is shot from a plurality of shooting means. An imaging means specifying process for specifying an imaging means is executed.

本発明によれば、人物の特徴を捉えやすい正面からの映像を逃すことなく撮影することができるとともに、撮影領域の外に出そうな人物を優先して撮影できる。   According to the present invention, it is possible to shoot without missing a video from the front where it is easy to capture the characteristics of a person, and it is possible to preferentially shoot a person who is likely to go out of the shooting area.

本発明による撮影システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the imaging | photography system by this invention. 撮影システムの適用例を示す説明図である。It is explanatory drawing which shows the example of application of an imaging | photography system. 人物管理DB220が記憶するデータの一例を示す説明図である。It is explanatory drawing which shows an example of the data which person management DB220 memorize | stores. 座標上の撮影優先度を示す説明図である。It is explanatory drawing which shows the imaging | photography priority on a coordinate. 優先度の計算例を示す説明図である。It is explanatory drawing which shows the example of calculation of a priority. カメラの制御例を示す説明図である。It is explanatory drawing which shows the example of control of a camera. 撮影システムが実行する処理例を示すシーケンス図である。It is a sequence diagram which shows the process example which an imaging | photography system performs. 撮影システムの最小の構成例を示すブロック図である。It is a block diagram which shows the minimum structural example of an imaging | photography system.

以下、本発明の実施形態について図面を参照して説明する。図1は、本発明による撮影システムの構成の一例を示すブロック図である。図1に示すように、撮影システムは、情報処理装置100、情報処理装置200、カメラ300、カメラ400、カメラ500、カメラ600及び映像記憶装置700を含む。また、情報処理装置100、情報処理装置200及び映像記憶装置700と、カメラ300〜600とは、LANやインターネット等の通信ネットワークを介して相互に接続されている。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of a photographing system according to the present invention. As illustrated in FIG. 1, the imaging system includes an information processing device 100, an information processing device 200, a camera 300, a camera 400, a camera 500, a camera 600, and a video storage device 700. The information processing device 100, the information processing device 200, the video storage device 700, and the cameras 300 to 600 are connected to each other via a communication network such as a LAN or the Internet.

情報処理装置100は、具体的には、プログラムに従って動作するサーバ機器等によって実現される。図1に示すように、情報処理装置100は、カメラ映像受信機能部110、人物検出機能部120及び位置検出機能部130を含む。   Specifically, the information processing apparatus 100 is realized by a server device or the like that operates according to a program. As illustrated in FIG. 1, the information processing apparatus 100 includes a camera video reception function unit 110, a person detection function unit 120, and a position detection function unit 130.

カメラ映像受信機能部110は、具体的には、プログラムに従って動作する情報処理装置のCPU及びネットワークインターフェース部によって実現される。カメラ映像受信機能部110は、カメラ300、カメラ400、カメラ500及びカメラ600から通信ネットワークを介して、映像データを受信することができる機能を備えている。なお、カメラ映像受信機能部110は、ハードウェア、ソフトウェアのいずれによって実現されてもよい。   Specifically, the camera video reception function unit 110 is realized by a CPU and a network interface unit of an information processing apparatus that operates according to a program. The camera video reception function unit 110 has a function capable of receiving video data from the camera 300, the camera 400, the camera 500, and the camera 600 via a communication network. The camera video reception function unit 110 may be realized by either hardware or software.

人物検出機能部120は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。人物検出機能部120は、カメラ映像受信機能部110が受信した映像データから人物部分を検出し、別個の人物として認識する機能を備えている。人物検出機能部120は、例えば、特許文献2に記載された方法(すなわち、画像から物体の特徴量を抽出し、抽出した特徴量に基づいて物体を識別する方法)を用いて、受信した映像データから人物部分を検出し、別個の人物として認識する。   Specifically, the person detection function unit 120 is realized by a CPU of an information processing apparatus that operates according to a program. The person detection function unit 120 has a function of detecting a person part from video data received by the camera video reception function unit 110 and recognizing it as a separate person. The person detection function unit 120 uses, for example, the received video using the method described in Patent Document 2 (that is, a method for extracting a feature amount of an object from an image and identifying the object based on the extracted feature amount). The person part is detected from the data and recognized as a separate person.

位置検出機能部130は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。位置検出機能部130は、人物検出機能部120が検出した人物の位置情報を、例えば、撮影映像内に2次元の座標を設定した上で座標データとして検出する機能を備えている。位置検出機能部130は、例えば、映像データを送信したカメラの位置に基づいて、人物の位置情報を算出する。また、位置検出機能部130は、検出した座標データの近似から人物を個別に特定し続け、特定した人物に対して個別のID221を付与する機能を備えている。   Specifically, the position detection function unit 130 is realized by a CPU of an information processing apparatus that operates according to a program. The position detection function unit 130 has a function of detecting the position information of the person detected by the person detection function unit 120 as, for example, coordinate data after setting two-dimensional coordinates in the captured video. For example, the position detection function unit 130 calculates the position information of the person based on the position of the camera that transmitted the video data. Further, the position detection function unit 130 has a function of continuing to specify a person individually from the approximation of the detected coordinate data and assigning an individual ID 221 to the specified person.

情報処理装置200は、具体的には、プログラムに従って動作するサーバ機器等によって実現される。図1に示すように、情報処理装置200は、フラグ管理機能部210、人物管理DB220、移動距離算出機能部230、移動方向算出機能部240、優先撮影人物決定機能部250及びカメラ制御機能部260を含む。   Specifically, the information processing apparatus 200 is realized by a server device or the like that operates according to a program. As illustrated in FIG. 1, the information processing apparatus 200 includes a flag management function unit 210, a person management DB 220, a movement distance calculation function unit 230, a movement direction calculation function unit 240, a priority photographing person determination function unit 250, and a camera control function unit 260. including.

フラグ管理機能部210は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。フラグ管理機能部210は、位置検出機能部130がID221を付与したデータに対して、ID221によって特定される人物の撮影が完了したか否かを示すフラグを付与する機能を備えている。また、フラグ管理機能部210は、位置検出機能部130がID221を付与したデータについて、フラグの有無を確認する機能を備えている。   Specifically, the flag management function unit 210 is realized by a CPU of an information processing apparatus that operates according to a program. The flag management function unit 210 has a function of adding a flag indicating whether or not photographing of the person specified by the ID 221 has been completed to the data to which the position detection function unit 130 has assigned the ID 221. In addition, the flag management function unit 210 has a function of confirming the presence or absence of a flag for the data to which the position detection function unit 130 has assigned ID 221.

人物管理DB220は、具体的には、磁気ディスク装置や光ディスク装置等の記憶装置によって実現される。図3は、人物管理DB220が記憶するデータの一例を示す説明図である。図3に示すように、人物管理DB220は、ID221と、完了フラグ222と、現在座標223と、過去座標224と、距離225と、角度226とを格納する。ID221は、位置検出機能部130によって付与され、一意に識別される。完了フラグ222は、フラグ管理機能部210によってID221に付与されるデータである。現在座標223は、各人物の現在の座標上の位置を数値として表すデータである。過去座標224は、各人物の所定時間前の座標上の位置を数値として表すデータである。距離225は、移動距離算出機能部230によって算出された数値として表すデータである。角度226は、移動方向算出機能部240によって算出された角度を数値として表すデータである。   Specifically, the person management DB 220 is realized by a storage device such as a magnetic disk device or an optical disk device. FIG. 3 is an explanatory diagram illustrating an example of data stored in the person management DB 220. As illustrated in FIG. 3, the person management DB 220 stores an ID 221, a completion flag 222, a current coordinate 223, a past coordinate 224, a distance 225, and an angle 226. The ID 221 is given by the position detection function unit 130 and uniquely identified. The completion flag 222 is data given to the ID 221 by the flag management function unit 210. The current coordinate 223 is data representing the position of each person on the current coordinate as a numerical value. The past coordinates 224 are data representing the position of each person on the coordinates before a predetermined time as a numerical value. The distance 225 is data represented as a numerical value calculated by the movement distance calculation function unit 230. The angle 226 is data representing the angle calculated by the movement direction calculation function unit 240 as a numerical value.

移動距離算出機能部230は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。移動距離算出機能部230は、人物の移動距離を算出する機能を備えている。   Specifically, the movement distance calculation function unit 230 is realized by a CPU of an information processing apparatus that operates according to a program. The movement distance calculation function unit 230 has a function of calculating the movement distance of a person.

移動方向算出機能部240は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。移動方向算出機能部240は、人物の移動方向を算出する機能を備えている。   Specifically, the moving direction calculation function unit 240 is realized by a CPU of an information processing apparatus that operates according to a program. The movement direction calculation function unit 240 has a function of calculating the movement direction of a person.

優先撮影人物決定機能部250は、具体的には、プログラムに従って動作する情報処理装置のCPUによって実現される。優先撮影人物決定機能部250は、予め設定された座標上の撮影優先度と現在座標との照らし合わせ、各人物の移動距離及び移動方向と撮影領域とから、優先的に撮影する人物を決定する機能を備えている。   Specifically, the priority photographing person determination function unit 250 is realized by a CPU of an information processing apparatus that operates according to a program. The priority photographing person determination function unit 250 compares the photographing priority on coordinates set in advance with the current coordinates, and determines a person to be preferentially photographed from the moving distance and moving direction of each person and the photographing area. It has a function.

カメラ制御機能部260は、具体的には、プログラムに従って動作する情報処理装置のCPU及び記憶装置によって実現される。カメラ制御機能部260は、各カメラの座標上の位置を示す情報を記憶している。また、カメラ制御機能部260は、予め記憶している座標上のカメラ位置を示す情報に基づいて、撮影対象の人物を撮影するカメラを決定する機能を備えている。また、カメラ制御機能部260は、カメラの動作を制御する機能を備えている。   Specifically, the camera control function unit 260 is realized by a CPU and a storage device of an information processing apparatus that operates according to a program. The camera control function unit 260 stores information indicating the position of each camera on the coordinates. The camera control function unit 260 has a function of determining a camera that captures a person to be imaged based on information indicating a camera position on coordinates stored in advance. The camera control function unit 260 has a function of controlling the operation of the camera.

カメラ300、カメラ400、カメラ500及びカメラ600は、例えば、PTZカメラ等の一般的な可動カメラ装置によって実現される。各カメラは、カメラ映像受信機能部110又は映像記憶装置700に、通信ネットワークを介して、撮影した映像データを送信する機能を備えている。各カメラは、パンチルトズーム機能を備えている。また、各カメラは、外部から受信する制御信号や内部に記憶するプログラムに従って、任意に上下左右への可動及び映像の拡大縮小をすることが可能である。   The camera 300, the camera 400, the camera 500, and the camera 600 are realized by a general movable camera device such as a PTZ camera, for example. Each camera has a function of transmitting captured video data to the camera video reception function unit 110 or the video storage device 700 via a communication network. Each camera has a pan / tilt / zoom function. Each camera can be arbitrarily moved up and down and left and right and can be enlarged and reduced according to a control signal received from the outside and a program stored in the camera.

映像記憶装置700は、具体的には、一般的なビデオレコーダーやハードディスクドライブ等の記憶装置によって実現される。映像記憶装置700は、カメラ300、カメラ400、カメラ500及びカメラ600から送信された映像データを記憶する。   Specifically, the video storage device 700 is realized by a storage device such as a general video recorder or a hard disk drive. The video storage device 700 stores video data transmitted from the camera 300, the camera 400, the camera 500, and the camera 600.

なお、本実施形態では、情報処理装置100と情報処理装置200とを別の装置として説明するが、情報処理装置100内の各機能であるカメラ映像受信機能部110、人物検出機能部120及び位置検出機能部130は、情報処理装置200に格納されてもよい。すなわち、撮影システムを1つの情報処理装置で実現してもよい。また、同じように映像記憶装置700も情報処理装置200に格納されてもよい。また、撮影システムは、複数の情報処理装置100や、複数の映像記憶装置700を含むようにしてもよい。また、本実施形態では、撮影システムは、4つのカメラを含むが、4つに限らず、例えば、5つ以上含むようにしてもよい。   In the present embodiment, the information processing apparatus 100 and the information processing apparatus 200 are described as separate apparatuses. However, the camera video reception function unit 110, the person detection function unit 120, and the position, which are functions in the information processing apparatus 100, are described. The detection function unit 130 may be stored in the information processing apparatus 200. That is, the photographing system may be realized by one information processing apparatus. Similarly, the video storage device 700 may be stored in the information processing device 200. Further, the imaging system may include a plurality of information processing apparatuses 100 and a plurality of video storage apparatuses 700. In the present embodiment, the photographing system includes four cameras, but is not limited to four, and may include, for example, five or more.

また、本発明を構成する各機能、情報処理装置及び記憶装置は、互いに任意の機能、情報装置及び記憶装置に対して、処理の結果や制御信号としてのデータを送受信することができる。   In addition, each function, information processing apparatus, and storage device that constitute the present invention can transmit and receive processing results and data as control signals to and from any function, information device, and storage apparatus.

次に、撮影システムの動作について、図1〜図7を参照して説明する。図2は、撮影システムの適用例を示す説明図である。図4は、座標上の撮影優先度を示す説明図である。図5は、優先度の計算例を示す説明図である。図6は、カメラの制御例を示す説明図である。図7は、撮影システムが実行する処理例を示すシーケンス図である。   Next, the operation of the photographing system will be described with reference to FIGS. FIG. 2 is an explanatory diagram illustrating an application example of the imaging system. FIG. 4 is an explanatory diagram showing photographing priority on coordinates. FIG. 5 is an explanatory diagram illustrating an example of calculating priority. FIG. 6 is an explanatory diagram illustrating an example of camera control. FIG. 7 is a sequence diagram illustrating an example of processing executed by the imaging system.

本実施形態では、図2に示すように、空港や駅などを想定した撮影領域には、カメラ300、カメラ400、カメラ500及びカメラ600が、4箇所にそれぞれ設置されている。ここで、撮影領域とは、4箇所のカメラを直線で結んだ内側の領域であり、それ以外の領域は撮影されていないものとする。また、撮影領域内及び撮影領域外については、人が自由に出入りすることができるオープンスペースであるものとする。   In the present embodiment, as shown in FIG. 2, cameras 300, 400, 500, and 600 are installed at four locations in an imaging region assuming an airport, a station, or the like. Here, the imaging region is an inner region where four cameras are connected by a straight line, and other regions are not captured. In addition, the inside and outside of the imaging area are open spaces where people can freely enter and exit.

図2に示す例において、カメラ300、カメラ400、カメラ500及びカメラ600が撮影領域を撮影すると、各カメラは、通信ネットワークを介して、撮影した映像データをカメラ映像受信機能部110にそれぞれ送信する。なお、カメラ300、カメラ400、カメラ500及びカメラ600は、撮影領域を撮影するため、所定の初期値の角度で固定されて動作している。   In the example illustrated in FIG. 2, when the camera 300, the camera 400, the camera 500, and the camera 600 capture an image capturing area, each camera transmits captured image data to the camera image receiving function unit 110 via a communication network. . Note that the camera 300, the camera 400, the camera 500, and the camera 600 are fixed and operated at an angle of a predetermined initial value in order to shoot a shooting region.

次いで、カメラ映像受信機能部110は、各カメラから受信した映像データを人物検出機能部120に出力する。   Next, the camera video reception function unit 110 outputs the video data received from each camera to the person detection function unit 120.

次いで、人物検出機能部120は、カメラ映像受信機能部110が出力した映像データから映像内の人物を特定して検出する。そして、人物検出機能部120は、人物を検出した映像データを位置検出機能部130に出力する。人物検出機能部120は、例えば、画像から物体の特徴量を抽出し、抽出した特徴量に基づいて物体を識別する方法を用いて、受信した映像データから人物部分を検出する。   Next, the person detection function unit 120 identifies and detects a person in the video from the video data output by the camera video reception function unit 110. Then, the person detection function unit 120 outputs the video data in which the person is detected to the position detection function unit 130. For example, the person detection function unit 120 extracts a feature amount of an object from an image, and detects a person portion from the received video data using a method of identifying the object based on the extracted feature amount.

次いで、位置検出機能部130は、人物検出機能部120が出力した映像データから、人物検出機能部120が検出した人物の位置を座標データとして検出する。例えば、位置検出機能部130は、各カメラの位置情報を予め記憶しており、映像データを送信したカメラの位置情報に基づいて、人物の位置情報を算出する。そして、位置検出機能部130は、人物の位置情報を、撮影映像内に2次元の座標を設定した上で座標データとして検出する。なお、人物検出機能部120によって複数の人物が検出されている場合には、位置検出機能部130は、それぞれ別個の座標データを検出する。   Next, the position detection function unit 130 detects the position of the person detected by the person detection function unit 120 from the video data output by the person detection function unit 120 as coordinate data. For example, the position detection function unit 130 stores the position information of each camera in advance, and calculates the position information of the person based on the position information of the camera that transmitted the video data. The position detection function unit 130 detects the position information of the person as coordinate data after setting two-dimensional coordinates in the captured video. When a plurality of persons are detected by the person detection function unit 120, the position detection function unit 130 detects separate coordinate data.

次いで、位置検出機能部130は、検出した座標データにID221を付与し、人物管理DB220に所定間隔(例えば0.1秒単位)で送信する。複数の座標データを検出した場合には、位置検出機能部130は、それぞれ別個のID221を付与し、通信ネットワークを介して、人物管理DB220に所定間隔で送信する(図7のステップS1)。   Next, the position detection function unit 130 assigns ID 221 to the detected coordinate data, and transmits it to the person management DB 220 at a predetermined interval (for example, in units of 0.1 seconds). When a plurality of coordinate data are detected, the position detection function unit 130 assigns separate IDs 221 and transmits them to the person management DB 220 at predetermined intervals via the communication network (step S1 in FIG. 7).

なお、各カメラは、撮影した映像データをカメラ映像受信機能部110に連続的に送信する。したがって、人物検出機能部120及び位置検出機能部130は、上記の処理を連続的に実行する。このとき、位置検出機能部130は、座標データの近似から同一の人物と判断し続ける限り、同一のID221を付与し続ける。   Each camera continuously transmits the captured video data to the camera video reception function unit 110. Therefore, the person detection function unit 120 and the position detection function unit 130 continuously execute the above processing. At this time, the position detection function unit 130 continues to assign the same ID 221 as long as it is determined as the same person from the approximation of the coordinate data.

次いで、人物管理DB220は、位置検出機能部130が送信した座標データとID221とを対応付けて、現在座標223として記録する。そして、位置検出機能部130が同一のID221と共に座標データを新たに送信した場合、人物管理DB220は、現在座標223を過去座標224として記録しなおし、新たに送信された座標データを現在座標223として記録しなおす。   Next, the person management DB 220 associates the coordinate data transmitted by the position detection function unit 130 with the ID 221 and records them as the current coordinates 223. When the position detection function unit 130 newly transmits coordinate data together with the same ID 221, the person management DB 220 rerecords the current coordinate 223 as the past coordinate 224 and sets the newly transmitted coordinate data as the current coordinate 223. Record again.

フラグ管理機能部210は、所定時間毎に人物管理DB220を参照し、ID221が存在するか否かを判定する。そして、フラグ管理機能部210は、ID221が存在する場合には、ID221に対応付けられた完了フラグ222が存在するか否かを判定する(ステップS2)。   The flag management function unit 210 refers to the person management DB 220 every predetermined time to determine whether or not the ID 221 exists. Then, when the ID 221 exists, the flag management function unit 210 determines whether or not the completion flag 222 associated with the ID 221 exists (step S2).

ステップS2において、人物管理DB220内に完了フラグ222が存在しないID221を含むデータがあると判定した場合、フラグ管理機能部210は、該当するID221と共に、ID221と対応付けられた現在座標223及び過去座標224を移動距離算出機能部230に出力する(ステップS3)。   If it is determined in step S2 that there is data including the ID 221 in which the completion flag 222 does not exist in the person management DB 220, the flag management function unit 210, together with the corresponding ID 221, the current coordinates 223 and past coordinates associated with the ID 221 224 is output to the movement distance calculation function unit 230 (step S3).

また、ステップS2において、人物管理DB220内に完了フラグ222が存在しないID221を含むデータがあると判定した場合、フラグ管理機能部210は、該当するID221と共に、ID221と対応付けられた現在座標223及び過去座標224を移動方向算出機能部240に出力する(ステップS4)。   If it is determined in step S2 that there is data including the ID 221 in which the completion flag 222 does not exist in the person management DB 220, the flag management function unit 210, together with the corresponding ID 221, the current coordinates 223 associated with the ID 221 and The past coordinates 224 are output to the movement direction calculation function unit 240 (step S4).

なお、完了フラグ222が存在しないデータが複数ある場合には、フラグ管理機能部210は、各ID221と共に、対応付けられた現在座標223及び過去座標224を移動方向算出機能部240に出力する。   When there are a plurality of data for which the completion flag 222 does not exist, the flag management function unit 210 outputs the current coordinate 223 and the past coordinate 224 associated with each ID 221 to the movement direction calculation function unit 240.

次いで、移動距離算出機能部230は、フラグ管理機能部210が出力した現在座標223及び過去座標224から、移動距離データを算出する。そして、移動距離算出機能部230は、算出した移動距離データを距離225として、ID221と共にフラグ管理機能部210に出力する(ステップS5)。移動距離算出機能部230は、移動距離データの算出方法として、例えば、2次元の座標である場合、それぞれ横および縦への現在と過去との座標の値の差を、移動距離を表す数値として扱う方法を用いることができる。なお、フラグ管理機能部210が複数のID221を出力した場合には、移動距離算出機能部230は、それぞれ移動距離データを算出し、距離225として、ID221と共にフラグ管理機能部210に出力する。   Next, the travel distance calculation function unit 230 calculates travel distance data from the current coordinates 223 and the past coordinates 224 output from the flag management function unit 210. Then, the movement distance calculation function unit 230 outputs the calculated movement distance data as the distance 225 to the flag management function unit 210 together with the ID 221 (step S5). For example, in the case of two-dimensional coordinates, the movement distance calculation function unit 230 calculates the difference between the current and past coordinates in the horizontal and vertical directions as a numerical value representing the movement distance. The handling method can be used. When the flag management function unit 210 outputs a plurality of IDs 221, the travel distance calculation function unit 230 calculates travel distance data, and outputs the travel distance data 225 together with the ID 221 to the flag management function unit 210.

次いで、移動方向算出機能部240は、フラグ管理機能部210が出力した現在座標223及び過去座標224から移動角度データを算出する。そして、移動方向算出機能部240は、算出した移動角度データを角度226として、ID221と共にフラグ管理機能部210に出力する(ステップS6)。なお、フラグ管理機能部210が複数のID221を出力した場合には、移動方向算出機能部240は、それぞれ移動角度データを算出し、算出した移動角度データを角度226として、ID221と共にフラグ管理機能部210に出力する。また、移動方向算出機能部240は、移動角度データを算出する方法として、例えば、次のような方法を用いることができる。例えば、撮影領域を2次元の座標とする場合、現在座標223と過去座標224との横軸の座標の値が変化しない場合を0度とする。そして、横軸及び縦軸の現在座標223と過去座標224との値の変化から、0度〜360度までの移動方向の角度を算出することで、移動角度データを算出する。   Next, the movement direction calculation function unit 240 calculates movement angle data from the current coordinates 223 and the past coordinates 224 output from the flag management function unit 210. Then, the movement direction calculation function unit 240 outputs the calculated movement angle data as the angle 226 to the flag management function unit 210 together with the ID 221 (step S6). When the flag management function unit 210 outputs a plurality of IDs 221, the movement direction calculation function unit 240 calculates movement angle data, and sets the calculated movement angle data as an angle 226 together with the ID 221. Output to 210. In addition, the movement direction calculation function unit 240 can use, for example, the following method as a method of calculating movement angle data. For example, when the imaging region is a two-dimensional coordinate, the case where the value of the horizontal coordinate between the current coordinate 223 and the past coordinate 224 does not change is set to 0 degree. Then, the movement angle data is calculated by calculating the angle in the movement direction from 0 degree to 360 degrees from the change in the values of the current coordinate 223 and the past coordinate 224 on the horizontal axis and the vertical axis.

次いで、フラグ管理機能部210は、ID221を参照し、移動距離算出機能部230及び移動方向算出機能部240が出力した距離225及び角度226と、ID221とを対応付けて人物管理DB220に記憶させる(ステップS7)。なお、移動距離算出機能部230及び移動方向算出機能部240が複数のID221を出力した場合には、フラグ管理機能部210は、それぞれのID221に対して、同様の処理を行う。   Next, the flag management function unit 210 refers to the ID 221 and stores the distance 225 and the angle 226 output by the movement distance calculation function unit 230 and the movement direction calculation function unit 240 in association with the ID 221 in the person management DB 220 ( Step S7). When the movement distance calculation function unit 230 and the movement direction calculation function unit 240 output a plurality of IDs 221, the flag management function unit 210 performs the same process for each ID 221.

次いで、フラグ管理機能部210は、人物DB220を参照し、完了フラグ222のないID221に対応付けられた現在座標223、過去座標224及び距離225のデータを優先撮影人物決定機能部250に出力する(ステップS8)。なお、完了フラグ222のないID221が複数ある場合には、フラグ管理機能部210は、それら全てのID221について、対応付けられた現在座標223、過去座標224及び距離225のデータを優先撮影人物決定機能部250に出力する。   Next, the flag management function unit 210 refers to the person DB 220 and outputs data of the current coordinate 223, the past coordinate 224, and the distance 225 associated with the ID 221 without the completion flag 222 to the priority photographer determination function unit 250 ( Step S8). When there are a plurality of IDs 221 without the completion flag 222, the flag management function unit 210 uses the data of the current coordinates 223, the past coordinates 224, and the distances 225 associated with each other for the IDs 221 as a priority photographing person determination function. Output to the unit 250.

なお、距離225及び角度226が存在せず、かつ完了フラグ222がないID221の現在座標223及び過去座標224がある場合には、フラグ管理機能部210は、優先撮影人物機能部250に上記のデータを出力せず、ステップS2に処理を移行する。その後、撮影システムは、ステップS3〜ステップS7の処理を実行する。   If there are the current coordinates 223 and past coordinates 224 of the ID 221 that do not have the distance 225 and the angle 226 and have no completion flag 222, the flag management function unit 210 sends the above data to the priority photographer function unit 250. Is not output, and the process proceeds to step S2. Thereafter, the imaging system executes the processes of steps S3 to S7.

ここで、優先撮影人物決定機能部250は、図4に示すように、座標上での撮影優先度を管理している。本実施形態では、図4に示す座標(撮影領域)のうち、横軸の座標が10以下もしくは90以上、又は縦軸の座標が10以下もしくは90以上の範囲(領域)を最優先の座標範囲としている。なお、この優先範囲(領域)は、システム管理者等によって撮影範囲(撮影領域)の座標上で任意に設定される。例えば、部屋の中などのクローズスペースに本発明を適用する場合には、ドア周辺の撮影優先度を高く設定することができる。撮影領域の境界付近にいる人物は、撮影領域から外れてしまう可能性が高いので優先して撮影する必要があるからである。   Here, the priority photographing person determination function unit 250 manages the photographing priority on the coordinates as shown in FIG. In the present embodiment, among the coordinates (imaging area) shown in FIG. 4, a range (area) in which the horizontal axis coordinate is 10 or less or 90 or more, or the vertical axis coordinate is 10 or less or 90 or more is the highest priority coordinate range. It is said. The priority range (area) is arbitrarily set on the coordinates of the shooting range (shooting area) by a system administrator or the like. For example, when the present invention is applied to a closed space such as in a room, the photographing priority around the door can be set high. This is because a person in the vicinity of the boundary of the shooting area is likely to be out of the shooting area, and therefore needs to be preferentially shot.

フラグ管理機能部210がデータを出力すると、優先撮影人物決定機能部250は、座標上の撮影優先度と、各人物の現在座標223及び距離226とに基づいて、優先的に撮影する人物を特定する。図5に示す例では、優先撮影人物決定機能部250は、まず、現在座標223に距離225を足して撮影領域の座標外の範囲に入る回数を算出する。次いで、優先撮影人物決定機能部250は、現在座標223に距離225を足して「優先度が最も高い」の範囲に入る回数を算出する。そして、優先撮影人物決定機能部250は、算出した撮影領域の座標外の範囲に入る回数と、「優先度が最も高い」の範囲に入る回数とを合計した値を求め、値が最も小さい人物を撮影の優先度が高い人物とする。本実施形態では、優先撮影人物決定機能部250は、図5に示すように、ID002によって特定される人物を最も撮影を優先すべき人物として特定する。   When the flag management function unit 210 outputs data, the priority photographer determination function unit 250 specifies a person to be preferentially photographed based on the photographing priority on the coordinates, the current coordinates 223 and the distance 226 of each person. To do. In the example illustrated in FIG. 5, the priority photographer determination function unit 250 first calculates the number of times that the current coordinate 223 is added to the distance 225 and enters the range outside the coordinates of the photographing region. Next, the priority photographer determination function unit 250 adds the distance 225 to the current coordinates 223 and calculates the number of times of entering the “highest priority” range. Then, the priority photographing person determination function unit 250 obtains a value obtained by summing the number of times of entering the range outside the coordinates of the calculated photographing region and the number of times of entering the “highest priority” range, and the person having the smallest value Is a person with a high priority of shooting. In the present embodiment, as shown in FIG. 5, the priority photographed person determination function unit 250 identifies the person specified by ID002 as the person who should prioritize shooting.

このように、優先撮影人物決定機能部250は、求めた合計値に基づいて、最も撮影を優先すべきID221を決定する。そして、優先撮影人物決定機能部250は、該当するID221をフラグ管理機能部210に出力する(ステップS9)。このように、優先度を求めて撮影する人物を決定することで、撮影領域から離れてしまう可能性の高い人物から順に撮影することができ、撮り逃しを防ぐことができる。   In this way, the priority photographer determination function unit 250 determines the ID 221 that should be prioritized for shooting based on the calculated total value. Then, the priority photographer determination function unit 250 outputs the corresponding ID 221 to the flag management function unit 210 (step S9). Thus, by determining the person to be photographed by obtaining the priority, it is possible to photograph in order from the person who is likely to leave the photographing area, and it is possible to prevent missed photographing.

次いで、フラグ管理機能部210は、優先度撮影人物決定機能部250が出力したID221と対応付けられた現在座標223及び角度226を、カメラ制御機能部260に出力する(ステップS10)。   Next, the flag management function unit 210 outputs the current coordinates 223 and the angle 226 associated with the ID 221 output from the priority photographer determination function unit 250 to the camera control function unit 260 (step S10).

本実施形態では、カメラ制御機能部260は、図6に示すような、カメラ300、カメラ400、カメラ500及びカメラ600の座標上の位置情報を予め記憶している。カメラ制御機能部260は、フラグ管理機能部210が出力した現在座標223と、記憶している各カメラの座標とから、各カメラが人物(図6に示すID002)とどのような角度を形成するか計算する。そして、カメラ制御機能部260は、計算した角度と角度226とを比較し、最も近い値の角度が計算されたカメラを、優先度の高い人物を撮影するためのカメラとして決定する。なお、カメラと人物とが形成する角度を計算する方法として、例えば、上記の現在座標223と過去座標224とから、移動方向の角度を算出する方法を用いることができる。また、例えば、図6が示す例において、カメラ制御機能部260は、各カメラとID002が示す人物とを繋いだ直線と、人物の移動方向を示す直線とが形成する角度をそれぞれ計算し、形成する角度が最も小さいカメラを撮影するためのカメラとして決定することができる。角度が最も小さいということは、カメラが人物の移動方向に位置し、人物を正面から撮影できる可能性が高いからである。本実施形態では、カメラ300が該当するため、カメラ制御機能部260は、カメラ300を優先度の高い人物を撮影するためのカメラとして決定する。   In the present embodiment, the camera control function unit 260 stores in advance position information on the coordinates of the camera 300, the camera 400, the camera 500, and the camera 600 as shown in FIG. The camera control function unit 260 forms what angle each camera forms with the person (ID002 shown in FIG. 6) from the current coordinates 223 output by the flag management function unit 210 and the stored coordinates of each camera. Or calculate. Then, the camera control function unit 260 compares the calculated angle with the angle 226, and determines the camera for which the closest angle is calculated as a camera for photographing a person with high priority. As a method for calculating the angle formed by the camera and the person, for example, a method for calculating the angle in the moving direction from the current coordinates 223 and the past coordinates 224 can be used. Further, for example, in the example shown in FIG. 6, the camera control function unit 260 calculates and forms the angles formed by the straight line connecting each camera and the person indicated by ID002 and the straight line indicating the movement direction of the person. The camera with the smallest angle can be determined as a camera for photographing. The reason that the angle is the smallest is that the camera is positioned in the direction of movement of the person and there is a high possibility that the person can be photographed from the front. In the present embodiment, since the camera 300 is applicable, the camera control function unit 260 determines the camera 300 as a camera for photographing a person with a high priority.

次いで、カメラ制御機能部260は、通信ネットワークを介して、カメラ300に対して、人物との間で形成された角度に移動し、ズーム撮影を行うよう制御する制御信号を送信する(ステップS11)。すると、カメラ300は、カメラ制御機能部260から受信した制御信号に従って、人物との間で形成された角度に移動し、人物をズーム撮影する。例えば、カメラ300は、人物の移動方向と正対する角度に回転し、正面からその人物をズーム撮影する。このことによって、カメラは、特定の人物の顔や髪形などの特徴を逃すことなく撮影することができる。   Next, the camera control function unit 260 transmits a control signal for controlling the camera 300 to move to an angle formed with a person and perform zoom shooting via the communication network (step S11). . Then, the camera 300 moves to an angle formed with the person according to the control signal received from the camera control function unit 260, and zooms the person. For example, the camera 300 rotates at an angle that is directly opposite to the moving direction of the person, and zooms the person from the front. As a result, the camera can shoot without missing features such as the face and hairstyle of a specific person.

次いで、カメラ制御機能部260は、フラグ管理機能部210にID221を出力する(ステップS12)。   Next, the camera control function unit 260 outputs the ID 221 to the flag management function unit 210 (step S12).

次いで、カメラ300は、通信ネットワークを介して、撮影した映像データを映像記憶装置700に送信する。そして、映像記憶装置700は、カメラ300が送信した映像データを記憶する。その後、カメラ300は、制御信号に従って移動した角度から所定の初期値の角度へと戻り、所定の撮影領域の撮影を再開する。   Next, the camera 300 transmits the captured video data to the video storage device 700 via the communication network. The video storage device 700 stores video data transmitted from the camera 300. Thereafter, the camera 300 returns from the angle moved according to the control signal to the angle of the predetermined initial value, and resumes imaging in the predetermined imaging area.

次いで、フラグ管理機能部210は、カメラ制御機能部260が出力したID221に完了フラグ222を対応付けて人物管理DB220に記憶させる(ステップS13)。   Next, the flag management function unit 210 associates the completion flag 222 with the ID 221 output from the camera control function unit 260 and stores it in the person management DB 220 (step S13).

その後、フラグ管理機能部210は、ステップS2に処理を移行し、上記と同様の処理を繰り返す。   Thereafter, the flag management function unit 210 shifts the process to step S2 and repeats the same process as described above.

また、フラグ管理機能部210は、所定時間毎に、人物管理DB220を参照する。そして、フラグ管理機能部210は、人物管理DB220が記憶するID221のうち、完了フラグ222が存在するID221について、現在座標223の座標データが横軸又は縦軸で、最大値又は最小値を所定時間示し続けているか否かを判定する。示し続けていると判定した場合には、フラグ管理機能部210は、該当するID221によって特定される人物が撮影領域から離れたと判断し、該当するID221を含め、対応付けられたデータを全て人物管理DB220から消去する。   In addition, the flag management function unit 210 refers to the person management DB 220 every predetermined time. Then, for the ID 221 in which the completion flag 222 exists among the IDs 221 stored in the person management DB 220, the flag management function unit 210 has the coordinate data of the current coordinates 223 on the horizontal axis or the vertical axis, and sets the maximum value or the minimum value for a predetermined time. It is determined whether or not the display is continued. If the flag management function unit 210 determines that the ID is continuously displayed, the flag management function unit 210 determines that the person specified by the corresponding ID 221 has left the shooting area, and manages all the associated data including the corresponding ID 221. Delete from DB220.

以上のように、本実施形態では、所定の撮影領域にいる人物のズーム映像を逃さず撮影することができる。その理由は、撮影領域内の人物の位置、移動方向及び移動距離を算出してズーム撮影する人物の優先度を設定し、撮影領域から離れてしまう可能性が最も高い人物から順次ズーム撮影を行うので、ズーム撮影の撮り逃しが押さえられるからである。   As described above, in this embodiment, it is possible to shoot without missing a zoom image of a person in a predetermined shooting area. The reason is that the position, moving direction, and moving distance of the person in the shooting area are calculated to set the priority of the person to be zoomed, and the zoom shooting is sequentially performed from the person most likely to move away from the shooting area. This is because it is possible to prevent missing zoom shots.

また、本実施形態では、撮影した人物の特徴を撮影することができる。その理由は、ただズーム撮影するだけではなく、算出した人物の移動方向に基づいて、人物と最も正対してズーム撮影できるカメラを選択し、移動させてズーム撮影することにより、人物の顔や髪型などの特徴を撮影できるからである。   In the present embodiment, it is possible to photograph the characteristics of the photographed person. The reason is not only to shoot with zoom, but based on the calculated movement direction of the person, select the camera that can zoom in most with the person, move it, and zoom to shoot the person's face and hairstyle This is because the features such as can be photographed.

以上のことにより、本発明は以下の特徴を備えていると言える。   From the above, it can be said that the present invention has the following features.

本発明は、固定カメラ及び可動カメラによる映像の撮影において、固定カメラによる撮影映像内の人物を特定し、特定した人物の位置、移動距離、方向より、最も先に注視して撮影すべき人物を特定し、特定した人物と最も正対できる可動カメラを選択して、可動カメラの最適な制御を行う。既知の技術により、複数の固定カメラによって映像内の人物を特定し、さらに位置を座標として測定することができる。このような技術は、例えば、特許文献1及び特許文献2に記されている。   The present invention specifies a person in a video image taken by a fixed camera and a person to be photographed first by gazing from the position, moving distance, and direction of the specified person in video shooting by a fixed camera and a movable camera. A movable camera that can be identified and most directly facing the identified person is selected, and optimal control of the movable camera is performed. With a known technique, a person in a video can be specified by a plurality of fixed cameras, and the position can be measured as coordinates. Such a technique is described in Patent Document 1 and Patent Document 2, for example.

また、本発明は、所定期間の人物の座標の変化により、人物の移動距離及び移動方向(角度)を求める。そして、各可動カメラと人物とを線で結び、結んだ線と人物の移動方向を示す線とで形成される角度が最も小さい可動カメラを選択する。そして、選択した可動カメラを動かして、特定の人物のズーム映像を撮影する。このことにより、人物の人相等が把握できる正面に近い人物の映像を撮影することが可能である。   Further, according to the present invention, a movement distance and a movement direction (angle) of a person are obtained based on a change in the coordinates of the person over a predetermined period. Then, each movable camera and the person are connected by a line, and the movable camera having the smallest angle formed by the connected line and the line indicating the moving direction of the person is selected. Then, the selected movable camera is moved to capture a zoom image of a specific person. As a result, it is possible to take a picture of a person close to the front in which the person's aspect can be grasped.

また、複数の人物が存在する場合には、移動距離と移動方向とから、所定領域内から最も早く離れてしまうであろう人物を優先的に可動カメラで撮影する。このことにより、人物の撮影漏れを防ぐことが可能である。   In addition, when there are a plurality of persons, the person who will be the earliest away from the predetermined area is preferentially photographed by the movable camera from the movement distance and the movement direction. As a result, it is possible to prevent a person from taking a picture.

次に、本発明による撮影システムの最小構成について説明する。図8は、撮影システムの最小の構成例を示すブロック図である。図8に示すように、撮影システムは、最小の構成要素として、算出手段10と、優先撮影人物特定手段20と、撮影手段特定手段30とを含む。   Next, the minimum configuration of the photographing system according to the present invention will be described. FIG. 8 is a block diagram illustrating a minimum configuration example of the photographing system. As shown in FIG. 8, the photographing system includes a calculation unit 10, a priority photographing person identification unit 20, and a photographing unit identification unit 30 as minimum components.

図8に示す最小構成の撮影システムでは、算出手段10は、撮影手段が撮影した映像データから、映像中に含まれる撮影領域内の人物を検出し、検出した人物の位置情報と、所定期間における移動距離及び移動方向とを算出する。次いで、優先撮影人物特定手段20は、算出手段10が算出した位置情報及び移動距離と、予め記憶している撮影領域内の所定の領域ごとに定められた撮影の優先度とに基づいて、撮影対象の人物を特定する。次いで、撮影手段特定手段30は、優先撮影人物特定手段20が特定した人物の位置情報及び移動方向と、予め記憶している各撮影手段の配置情報とに基づいて、複数の撮影手段から特定した人物を撮影する撮影手段を特定する。   In the imaging system with the minimum configuration shown in FIG. 8, the calculation means 10 detects a person in the imaging area included in the video from the video data taken by the imaging means, and detects the position information of the detected person and the predetermined period. The moving distance and moving direction are calculated. Next, the priority photographing person specifying unit 20 performs photographing based on the position information and the movement distance calculated by the calculating unit 10 and the photographing priority set for each predetermined region in the photographing region stored in advance. Identify the target person. Next, the shooting means specifying means 30 specified from a plurality of shooting means based on the position information and moving direction of the person specified by the priority shooting person specifying means 20 and the arrangement information of each shooting means stored in advance. The photographing means for photographing a person is specified.

従って、最小構成の撮影システムによれば、優先度に基づいて撮影する人物を特定することで、撮り逃しを防ぐことができる。さらに、特定した人物の位置情報、移動方向及び各撮影手段の配置情報に基づいて撮影する撮影手段を特定することで、人物の特徴を捉えやすい正面からの映像を撮影することができる。   Therefore, according to the imaging system having the minimum configuration, it is possible to prevent missing images by specifying the person to be imaged based on the priority. Furthermore, by specifying the photographing means for photographing based on the specified position information of the person, the moving direction, and the arrangement information of each photographing means, it is possible to photograph a video from the front where the characteristics of the person can be easily captured.

なお、本実施形態では、以下の(1)〜(5)に示すような撮影システムの特徴的構成が示されている。   In the present embodiment, the characteristic configuration of the imaging system as shown in the following (1) to (5) is shown.

(1)撮影システムは、複数の撮影手段(例えば、カメラ300によって実現される)を含み、撮影手段が撮影した映像データから、映像中に含まれる所定の撮影領域内の人物を検出し(例えば、人物検出機能部120によって実現される)、検出した人物の位置情報(例えば、現在座標223)と、所定期間における移動距離(例えば、距離225)及び移動方向(例えば、角度226)とを算出する算出手段(例えば、位置検出機能部130、移動距離算出機能部230及び移動方向算出機能部240によって実現される)と、算出手段が算出した位置情報及び移動距離と、予め記憶している撮影領域内の所定の領域に定められた撮影の優先度(例えば、図4に示す座標上の撮影優先度)とに基づいて、撮影対象の人物を特定する優先撮影人物特定手段(例えば、優先撮影人物決定機能部250によって実現される)と、優先撮影人物特定手段が特定した人物の位置情報及び移動方向と、予め記憶している各撮影手段の配置情報とに基づいて、複数の撮影手段から特定した人物を撮影する撮影手段を特定する撮影手段特定手段(例えば、カメラ制御機能部260によって実現される)とを含むことを特徴とする。   (1) The imaging system includes a plurality of imaging units (for example, realized by the camera 300), and detects a person in a predetermined imaging area included in the video from the video data captured by the imaging unit (for example, , Which is realized by the person detection function unit 120), position information (for example, current coordinates 223) of the detected person, a movement distance (for example, distance 225) and a movement direction (for example, angle 226) in a predetermined period. Calculation means (for example, realized by the position detection function unit 130, the movement distance calculation function unit 230, and the movement direction calculation function unit 240), position information and movement distance calculated by the calculation means, and pre-stored shooting Priority shooting for specifying a person to be shot based on shooting priority (for example, shooting priority on coordinates shown in FIG. 4) determined in a predetermined area in the area. A person specifying unit (for example, realized by the priority shooting person determining function unit 250), position information and moving direction of the person specified by the priority shooting person specifying unit, and arrangement information of each shooting unit stored in advance. On the basis of this, an imaging means specifying means (for example, realized by the camera control function unit 260) for specifying an imaging means for imaging a person specified from a plurality of imaging means is included.

(2)撮影システムは、撮影手段特定手段が特定した撮影手段に優先撮影人物特定手段が特定した人物を最も正面に近い位置から撮影させるように制御する撮影手段制御手段(例えば、カメラ制御機能部260によって実現される)を含むように構成されていてもよい。   (2) The photographing system controls photographing means control means (for example, a camera control function unit) for controlling the photographing means specified by the photographing means specifying means to photograph the person specified by the priority photographing person specifying means from the position closest to the front. 260 is realized).

(3)撮影システムにおいて、算出手段は、検出した人物の位置情報と、所定時間前に検出した同一人物の位置情報とに基づいて、所定期間における人物の移動距離及び移動方向を算出するように構成されていてもよい。   (3) In the photographing system, the calculating means calculates the moving distance and moving direction of the person in a predetermined period based on the detected position information of the person and the position information of the same person detected before a predetermined time. It may be configured.

(4)撮影システムにおいて、優先撮影人物特定手段は、各人物について、現在の位置(例えば、現在座標223)に移動距離(例えば、距離225)を足した位置が撮影領域外となる回数と、現在の位置に移動距離を足した位置が優先度の最も高い領域となる回数とを合計した値を算出し、算出した値が最も低い人物を撮影対象の人物として特定するように構成されていてもよい。   (4) In the photographing system, the priority photographing person specifying means, for each person, the number of times that the position obtained by adding the moving distance (for example, distance 225) to the current position (for example, current coordinates 223) is outside the photographing region; It is configured to calculate the total value of the number of times the position with the moving distance added to the current position becomes the highest priority area, and to identify the person with the lowest calculated value as the person to be photographed Also good.

(5)撮影システムにおいて、撮影手段特定手段は、優先撮影人物特定手段が特定した人物の移動方向と正対する位置に最も近い撮影手段を、人物を撮影するための撮影手段として特定するように構成されていてもよい。   (5) In the photographing system, the photographing means specifying means is configured to specify the photographing means closest to the position directly facing the moving direction of the person specified by the priority photographing person specifying means as the photographing means for photographing the person. May be.

本発明は、セキュリティ対策や、マーケティング用の分析データを取得する用途に適用可能である。   The present invention can be applied to security measures and uses for acquiring analysis data for marketing.

10 算出手段
20 優先撮影人物特定手段
30 撮影手段特定手段
100,200 情報処理装置
110 カメラ映像受信機能部
120 人物検出機能部
130 位置検出機能部
210 フラグ管理機能部
220 人物管理DB
230 移動距離算出機能部
240 移動方向算出機能部
250 優先撮影人物決定機能部
260 カメラ制御機能部
300,400,500,600 カメラ
700 映像記憶装置
DESCRIPTION OF SYMBOLS 10 Calculation means 20 Priority photography person identification means 30 Imaging | photography means identification means 100,200 Information processing apparatus 110 Camera image reception function part 120 Person detection function part 130 Position detection function part 210 Flag management function part 220 Person management DB
230 Moving Distance Calculation Function Unit 240 Moving Direction Calculation Function Unit 250 Priority Shooting Person Determination Function Unit 260 Camera Control Function Unit 300, 400, 500, 600 Camera 700 Video Storage Device

Claims (9)

複数の撮影手段を含み、
前記撮影手段が撮影した映像データから、映像中に含まれる所定の撮影領域内の人物を検出し、検出した人物の位置情報と、所定期間における移動距離及び移動方向とを算出する算出手段と、
前記算出手段が算出した位置情報及び移動距離と、予め記憶している前記撮影領域内の所定の領域に定められた撮影の優先度とに基づいて、撮影対象の人物を特定する優先撮影人物特定手段と、
前記優先撮影人物特定手段が特定した人物の位置情報及び移動方向と、予め記憶している各撮影手段の配置情報とに基づいて、前記複数の撮影手段から前記特定した人物を撮影する撮影手段を特定する撮影手段特定手段とを
含むことを特徴とする撮影システム。
Including a plurality of photographing means,
Calculating means for detecting a person in a predetermined shooting area included in the video from the video data shot by the shooting means, calculating position information of the detected person, a moving distance and a moving direction in a predetermined period;
Priority photographer identification that identifies a person to be photographed based on the position information and movement distance calculated by the calculation means and the photographing priority set in a predetermined area within the photographing area stored in advance Means,
A photographing unit that photographs the identified person from the plurality of photographing units based on the position information and moving direction of the person identified by the priority photographing person identifying unit and the arrangement information of each photographing unit stored in advance. An imaging system comprising: an imaging means specifying means for specifying.
撮影手段特定手段が特定した撮影手段に優先撮影人物特定手段が特定した人物を最も正面に近い位置から撮影させるように制御する撮影手段制御手段を含む
請求項1記載の撮影システム。
The photographing system according to claim 1, further comprising photographing means control means for controlling the photographing means specified by the photographing means specifying means to photograph the person specified by the priority photographing person specifying means from a position closest to the front.
算出手段は、検出した人物の位置情報と、所定時間前に検出した同一人物の位置情報とに基づいて、所定期間における前記人物の移動距離及び移動方向を算出する
請求項1又は請求項2記載の撮影システム。
The calculation means calculates a moving distance and a moving direction of the person in a predetermined period based on the detected position information of the person and the position information of the same person detected a predetermined time ago. Shooting system.
優先撮影人物特定手段は、各人物について、現在の位置に移動距離を足した位置が撮影領域外となる回数と、現在の位置に移動距離を足した位置が優先度の最も高い領域となる回数とを合計した値を算出し、算出した前記値が最も低い人物を撮影対象の人物として特定する
請求項1から請求項3のうちのいずれか1項に記載の撮影システム。
For each person, the priority photographer specifying means counts the number of times that the position obtained by adding the moving distance to the current position is outside the shooting area and the number of times that the position obtained by adding the moving distance to the current position is the highest priority area. The photographing system according to any one of claims 1 to 3, wherein a value obtained by summing the values is calculated, and a person having the lowest calculated value is specified as a person to be photographed.
撮影手段特定手段は、優先撮影人物特定手段が特定した人物の移動方向と正対する位置に最も近い撮影手段を、前記人物を撮影するための撮影手段として特定する
請求項1から請求項4のうちのいずれか1項に記載の撮影システム。
The photographing means specifying means specifies the photographing means closest to the position facing the moving direction of the person specified by the priority photographing person specifying means as the photographing means for photographing the person. The imaging system according to any one of the above.
複数の撮影手段がそれぞれ撮影した映像データから、映像中に含まれる所定の撮影領域内の人物を検出し、検出した人物の位置情報と、所定期間における移動距離及び移動方向とを算出し、
算出した位置情報及び移動距離と、予め記憶している前記撮影領域内の所定の領域に定められた撮影の優先度とに基づいて、撮影対象の人物を特定し、
特定した人物の位置情報及び移動方向と、予め記憶している各撮影手段の配置情報とに基づいて、前記複数の撮影手段から前記特定した人物を撮影する撮影手段を特定する
ことを特徴とする撮影方法。
From the video data photographed by each of the plurality of photographing means, detect a person in a predetermined photographing area included in the video, calculate the position information of the detected person, a moving distance and a moving direction in a predetermined period,
Based on the calculated position information and moving distance, and the priority of shooting set in a predetermined area in the shooting area stored in advance, the person to be shot is specified,
A photographing unit for photographing the identified person is specified from the plurality of photographing units based on the positional information and moving direction of the identified person and the arrangement information of each photographing unit stored in advance. Shooting method.
特定した撮影手段に特定した人物を最も正面に近い位置から撮影させるように制御する
請求項6記載の撮影方法。
The imaging method according to claim 6, wherein control is performed so that the person specified by the specified imaging means is imaged from a position closest to the front.
コンピュータに、
複数の撮影手段がそれぞれ撮影した映像データから、映像中に含まれる所定の撮影領域内の人物を検出し、検出した人物の位置情報と、所定期間における移動距離及び移動方向とを算出する算出処理と、
算出した位置情報及び移動距離と、予め記憶している前記撮影領域内の所定の領域に定められた撮影の優先度とに基づいて、撮影対象の人物を特定する優先撮影人物特定処理と、
特定した人物の位置情報及び移動方向と、予め記憶している各撮影手段の配置情報とに基づいて、前記複数の撮影手段から前記特定した人物を撮影する撮影手段を特定する撮影手段特定処理とを
実行させるための撮影用プログラム。
On the computer,
Calculation processing for detecting a person in a predetermined shooting area included in the video from the video data shot by each of the plurality of shooting means, and calculating position information of the detected person, a moving distance and a moving direction in a predetermined period When,
Based on the calculated position information and moving distance, and a priority of photographing set in a predetermined area in the photographing area stored in advance, priority photographing person identifying processing for identifying a person to be photographed;
An imaging unit specifying process for specifying an imaging unit for imaging the specified person from the plurality of imaging units based on the positional information and moving direction of the specified person and the arrangement information of each imaging unit stored in advance; Shooting program to execute
コンピュータに、
特定した撮影手段に特定した人物を最も正面に近い位置から撮影させるように制御する撮影手段制御処理を実行させる
請求項8記載の撮影用プログラム。
On the computer,
The shooting program according to claim 8, wherein a shooting unit control process is executed to control the specified shooting unit so that the specified person is shot from a position closest to the front.
JP2009240103A 2009-10-19 2009-10-19 Imaging system, method and program Active JP4985742B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009240103A JP4985742B2 (en) 2009-10-19 2009-10-19 Imaging system, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009240103A JP4985742B2 (en) 2009-10-19 2009-10-19 Imaging system, method and program

Publications (2)

Publication Number Publication Date
JP2011087214A true JP2011087214A (en) 2011-04-28
JP4985742B2 JP4985742B2 (en) 2012-07-25

Family

ID=44079826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009240103A Active JP4985742B2 (en) 2009-10-19 2009-10-19 Imaging system, method and program

Country Status (1)

Country Link
JP (1) JP4985742B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013168739A (en) * 2012-02-14 2013-08-29 Hitachi Ltd Image processing system and image processing method
JP2014064083A (en) * 2012-09-20 2014-04-10 Toshiba Corp Monitoring device and method
JP2015220507A (en) * 2014-05-14 2015-12-07 富士通株式会社 Monitoring device, monitoring method and monitoring program
CN113099163A (en) * 2019-12-23 2021-07-09 中移物联网有限公司 Monitoring adjusting method, monitoring system, electronic device and readable storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11275557A (en) * 1998-03-20 1999-10-08 Matsushita Electric Ind Co Ltd Supervisory image recording system
JP2005142683A (en) * 2003-11-04 2005-06-02 Matsushita Electric Ind Co Ltd Apparatus and method for camera control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11275557A (en) * 1998-03-20 1999-10-08 Matsushita Electric Ind Co Ltd Supervisory image recording system
JP2005142683A (en) * 2003-11-04 2005-06-02 Matsushita Electric Ind Co Ltd Apparatus and method for camera control

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013168739A (en) * 2012-02-14 2013-08-29 Hitachi Ltd Image processing system and image processing method
JP2014064083A (en) * 2012-09-20 2014-04-10 Toshiba Corp Monitoring device and method
JP2015220507A (en) * 2014-05-14 2015-12-07 富士通株式会社 Monitoring device, monitoring method and monitoring program
CN113099163A (en) * 2019-12-23 2021-07-09 中移物联网有限公司 Monitoring adjusting method, monitoring system, electronic device and readable storage medium
CN113099163B (en) * 2019-12-23 2023-04-11 中移物联网有限公司 Monitoring adjusting method, monitoring system, electronic device and readable storage medium

Also Published As

Publication number Publication date
JP4985742B2 (en) 2012-07-25

Similar Documents

Publication Publication Date Title
JP4984728B2 (en) Subject collation device and subject collation method
CN107766788B (en) Information processing apparatus, method thereof, and computer-readable storage medium
US20080075334A1 (en) Combined face and iris recognition system
KR101530255B1 (en) Cctv system having auto tracking function of moving target
JP2011233133A (en) Shoplifting preventing system
US10909388B2 (en) Population density determination from multi-camera sourced imagery
KR20120124785A (en) Object tracking system for tracing path of object and method thereof
WO2014175356A1 (en) Information processing system, information processing method, and program
JP5771039B2 (en) Abandoned person detection device
JP4985742B2 (en) Imaging system, method and program
KR20140058192A (en) Control image relocation method and apparatus according to the direction of movement of the object of interest
JP2010140425A (en) Image processing system
JP6396682B2 (en) Surveillance camera system
JP2006093955A (en) Video processing apparatus
JP5865584B2 (en) Specific person detection system and detection method
JP6941458B2 (en) Monitoring system
JP7146416B2 (en) Information processing device, information processing system, information processing method, and program
JP2020052822A (en) Information processing apparatus, authentication system, control method thereof, and program
KR101848320B1 (en) Method for gun sound detection and taking photograph
KR100536747B1 (en) The video storing system using a ptz camera and the method there of
JP6645503B2 (en) Image analysis device, image analysis method, and image analysis program
JP4990552B2 (en) Attention position identification system, attention position identification method, and attention position identification program
KR101926510B1 (en) Wide area surveillance system based on facial recognition using wide angle camera
KR101332820B1 (en) System and Method for Tracking Object, Apparatus for Object Management and Driving Method Thereof, Image Device and Driving Method Thereof
JP2020136855A (en) Monitoring system, monitor support device, monitoring method, monitor support method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120416

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4985742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3