JP2007134948A - Device for imaging person in parked vehicle - Google Patents

Device for imaging person in parked vehicle Download PDF

Info

Publication number
JP2007134948A
JP2007134948A JP2005325959A JP2005325959A JP2007134948A JP 2007134948 A JP2007134948 A JP 2007134948A JP 2005325959 A JP2005325959 A JP 2005325959A JP 2005325959 A JP2005325959 A JP 2005325959A JP 2007134948 A JP2007134948 A JP 2007134948A
Authority
JP
Japan
Prior art keywords
vehicle
area
unit
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005325959A
Other languages
Japanese (ja)
Inventor
Hiromichi Sotodate
弘理 外舘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005325959A priority Critical patent/JP2007134948A/en
Publication of JP2007134948A publication Critical patent/JP2007134948A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a device for imaging a person in a parked vehicle which can efficiently be used without using a large-capacity recording device and can easily detect the person in the parked vehicle from the recorded video. <P>SOLUTION: When a no-movement still area in an image can be extracted from video data of a monitor area from a wide-angle camera 110, a feature quantity is extracted from the still area and pattern matching between the feature quantity and a vehicle template is performed to calculate position information and time information of a vehicle area when the there is the vehicle area. Then while it is decided how many minutes there is no movement in the vehicle area, a pan and tilt zooming camera 111 is controlled based upon the position information to obtain video data from the pan and tilt zooming camera 111, a movement area in the image is extracted from the video data, and further a face area is extracted; and then the best shot matching a criterion most among face images is decided and recorded in a recording section 150. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、監視カメラで駐車車両や搭乗者を監視記録する駐車車両搭乗者撮像装置に関する。   The present invention relates to a parked vehicle occupant imaging device that monitors and records parked vehicles and passengers with a surveillance camera.

従来、監視カメラで駐車車両や搭乗者を監視記録する監視記録装置が開発されている(例えば、特許文献1参照)。特許文献1で開示されている監視記録装置は、広角カメラで駐車車両を探し出し、パンチルトズーム搭載カメラで搭乗者を監視するようにしている。   2. Description of the Related Art Conventionally, a monitoring recording device that monitors and records parked vehicles and passengers with a monitoring camera has been developed (see, for example, Patent Document 1). The monitoring and recording apparatus disclosed in Patent Document 1 searches for a parked vehicle with a wide-angle camera and monitors a passenger with a pan / tilt / zoom camera.

駐車車両は、路肩のどの部分に駐車するか分からないため、まず広角カメラで駐車車両の位置情報を検知し、検知した位置情報からパンチルトズーム搭載カメラを駐車車両近辺にパンチルトズームする。そして、搭乗者が車両に戻ってきたときに、その搭乗者をパンチルトズーム搭載カメラで撮像することにより、より鮮明に搭乗者を撮像することが可能となる。   Since the parked vehicle does not know which part of the road is parked, the position information of the parked vehicle is first detected by the wide-angle camera, and the pan / tilt zoom camera is pan / tilt zoomed to the vicinity of the parked vehicle from the detected position information. When the occupant returns to the vehicle, the occupant can be captured more clearly by capturing the occupant with the pan / tilt / zoom camera.

特開2004−7374号公報JP 2004-7374 A

しかしながら、従来の監視記録装置においては、駐車車両の搭乗者がいつ車両に戻ってくるか分からないため、常に撮像し続けなければならず、HDD(Hard Disk Drive)等の記録装置の資源枯渇が著しく、大容量の記録装置を必要とし、その分、コスト高になる問題がある。また、長時間録画した映像から駐車車両の搭乗者を見つけ出す作業が必要であり、作業効率が悪いという問題もある。   However, in the conventional monitoring and recording device, since it is not known when the passenger of the parked vehicle returns to the vehicle, it is necessary to continuously take an image, and the resource of the recording device such as an HDD (Hard Disk Drive) is depleted. There is a problem that a remarkably large-capacity recording apparatus is required and the cost is increased accordingly. In addition, there is a problem that work efficiency is poor because it is necessary to find a passenger of the parked vehicle from the video recorded for a long time.

本発明は、係る事情に鑑みてなされたものであり、記録装置として大容量のものを使用しなくても効率的な使用を可能とし、更に記録した映像から駐車車両の搭乗者を容易に見つけ出すことができる駐車車両搭乗者撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and enables efficient use without using a large-capacity recording device, and easily finds a occupant of a parked vehicle from the recorded video. It is an object of the present invention to provide a parked vehicle occupant imaging device.

上記目的は下記構成により達成される。
(1) 監視領域に向けて配置される第1の撮像手段と、外部からの命令に従って撮影範囲を変える第2の撮像手段と、前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、前記静領域抽出手段で抽出された前記監視領域映像情報の静領域から背景の変化を検出する背景変化検出手段と、前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が車両であるかどうか判別し、車両と判断した場合はその車両の位置情報と時刻情報を計算する車パターンマッチング手段と、前記車パターンマッチング手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者を撮像可能にするカメラ制御手段と、前記第2の撮像手段からの映像情報から動きのある動領域を抽出する動領域抽出手段と、画像を記録するための記録手段と、前記動領域抽出手段で抽出された動領域内から顔領域を抽出して前記記録手段に記録する顔領域抽出手段と、前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間以上である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像のうち判定基準に最も適合するベストショットを判別し、ベストショットと判別した画像のみを前記記録手段に記録するベストショット判別手段と、を備える。
The above object is achieved by the following configuration.
(1) a first imaging means arranged toward the monitoring area, a second imaging means for changing the imaging range in accordance with an instruction from the outside, and monitoring area video information from the first imaging means, A static region extracting means for extracting a static region having no motion, a background change detecting means for detecting a background change from the static region of the monitoring region video information extracted by the static region extracting means, and a background change detecting means. When a change in the background is detected, a feature amount extraction unit that extracts a feature amount of the region where the background is changing, and a pattern matching between the feature amount extracted by the feature amount extraction unit and the car template To determine whether the feature quantity is a vehicle. If the feature amount is determined to be a vehicle, the vehicle pattern matching means for calculating the position information and time information of the vehicle is calculated by the vehicle pattern matching means. A camera control means for giving a command to the second imaging means based on the position information and enabling the second imaging means to take an image of a vehicle occupant; and from the second imaging means A moving area extracting means for extracting a moving area with motion from video information, a recording means for recording an image, and a face area extracted from the moving area extracted by the moving area extracting means to the recording means A face area extracting means for recording; a parking time determining means for calculating a time without movement from the vehicle position information and time information calculated by the vehicle pattern matching means; and a time calculated by the parking time determining means. When it is less than a preset parking time, an image erasing unit that deletes all face images captured by the second imaging unit and recorded in the recording unit, and a time calculated by the parking time determination unit Preset If it is longer than the parking time, the best shot that best matches the criteria is determined from all the face images captured by the second imaging means and recorded in the recording means. Best shot discriminating means for recording in the recording means.

(2) 監視領域に向けて配置される第1の撮像手段と、外部からの命令に従って撮影範囲を変える第2の撮像手段と、前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、前記静領域抽出手段で抽出された前記監視領域映像の複数の静領域から背景を求める背景変化検出手段と、前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が車両であるかどうか判別し、車両と判断した場合はその車両の位置情報と時刻情報を計算する車パターンマッチング手段と、前記監視領域映像情報から画像内の動きのある動領域を抽出する第1の動領域抽出手段と、前記第1の動領域抽出手段で抽出された動領域内から人領域を抽出し、抽出した人領域の位置情報と時刻情報を計算する人領域抽出手段と、前記人領域抽出手段で抽出された人領域の特徴量を計算する人物特徴量抽出手段と、前記人物特徴量抽出手段で計算された特徴量をもつ人が前記監視領域映像情報内に存在するか否かを判別し、存在する場合は位置情報を計算する人物追尾手段と、前記人物追尾手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者の近傍の映像を撮像可能に制御するカメラ制御手段と、前記第2の撮像手段からの映像情報から画像内の動きのある動領域を抽出する第2の動領域抽出手段と、画像を記録するための記録手段と、前記第2の動領域抽出手段で抽出された動領域内から顔領域を抽出して前記記録手段に記録する顔領域抽出手段と、前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間以上である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像のうち判定基準に最も適合するベストショットを判別し、ベストショットと判別した画像のみを前記記録手段に記録するベストショット判別手段と、を備える。 (2) a first imaging means arranged toward the monitoring area, a second imaging means for changing the imaging range in accordance with an instruction from the outside, and the monitoring area video information from the first imaging means from within the image A static area extracting means for extracting a static area without movement, a background change detecting means for obtaining a background from a plurality of static areas of the monitoring area video extracted by the static area extracting means, and a background by the background change detecting means When a change is detected, a feature amount extraction unit that extracts a feature amount of the area where the background changes, and a pattern matching between the feature amount extracted by the feature amount extraction unit and the car template is performed. Determining whether the feature amount is a vehicle, and if it is determined to be a vehicle, vehicle pattern matching means for calculating position information and time information of the vehicle; A first moving area extracting means for extracting a moving area; and a person who extracts a human area from the moving area extracted by the first moving area extracting means and calculates position information and time information of the extracted human area. An area extracting means; a person feature amount extracting means for calculating a feature amount of the person area extracted by the person area extracting means; and a person having the feature amount calculated by the person feature amount extracting means And if there is a person tracking means for calculating position information, and giving a command to the second imaging means based on the position information calculated by the person tracking means. The camera control means for controlling the second imaging means so as to be able to take an image of the vicinity of the occupant of the vehicle, and a moving region having a motion in the image is extracted from the video information from the second imaging means. Second moving region extracting means and for recording an image Recording means, a face area extracting means for extracting a face area from the moving area extracted by the second moving area extracting means and recording it in the recording means, and the vehicle calculated by the vehicle pattern matching means Parking time determining means for calculating a time without movement from the position information and time information of the vehicle, and when the time calculated by the parking time determining means is less than a preset parking time, the second imaging means When the time calculated by the parking time determination means is equal to or longer than a preset parking time, the second image pickup means deletes the entire face image that has been captured and recorded in the recording means. Best shot discriminating means for discriminating the best shot that best matches the judgment criteria among all the face images that have been picked up and recorded in the recording means, and that records only the image discriminated as the best shot in the recording means , Comprising a.

(3) 上記(1)又は(2)に記載の駐車車両搭乗者撮像装置において、前記ベストショット判別手段でベストショット画像が選択された時刻において前記第1の撮像手段にて撮像された駐車領域の画像を前記記録手段に記録する車画像制御手段を備える。 (3) In the parked vehicle occupant imaging device described in (1) or (2) above, the parking area captured by the first imaging unit at the time when the best shot image is selected by the best shot discrimination unit Vehicle image control means for recording the image in the recording means.

(4) 監視領域に向けて配置される第1の撮像手段と、外部からの命令に従って撮影範囲を変える第2の撮像手段と、前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、前記静領域抽出手段で抽出された前記監視領域映像情報の複数の静領域から背景を求める背景変化検出手段と、前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、画像を記録するための記録手段と、前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が、車両と判断した場合はその車両の位置情報と時刻情報を計算すると共に高フレームレートのフレームレート制御命令を出力し、車両と判断した後、車両と判断できなくなると低フレームレートのフレームレート制御命令を出力する車パターンマッチング手段と、前記車パターンマッチング手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者の顔画像が撮像可能に制御するカメラ制御手段と、前記車パターンマッチング手段からのフレームレート設定命令に従う時間間隔で前記第2の撮像手段からの映像データを取り込み前記記録手段に録画するフレームレート制御手段と、前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、を備える。 (4) a first imaging means arranged toward the monitoring area, a second imaging means for changing the imaging range in accordance with an instruction from the outside, and monitoring area video information from the first imaging means, A static area extracting means for extracting a static area without movement, a background change detecting means for obtaining a background from a plurality of static areas of the monitoring area video information extracted by the static area extracting means, and the background change detecting means When a change in the background is detected, a feature amount extraction unit that extracts a feature amount of the region where the background changes, a recording unit for recording an image, and the feature amount extraction unit that extracts the feature amount Perform pattern matching between the feature quantity and the car template, and if the feature quantity is determined to be a vehicle, calculate the position information and time information of the vehicle and output a frame rate control command with a high frame rate, Vehicle pattern matching means for outputting a frame rate control command at a low frame rate when the vehicle cannot be determined after determining both, and the second imaging means based on the position information calculated by the vehicle pattern matching means The camera control means for controlling the second imaging means so that the face image of the passenger of the vehicle can be taken, and the second imaging means at a time interval according to a frame rate setting command from the vehicle pattern matching means. Frame rate control means for capturing video data from the image pickup means and recording it on the recording means, and parking time determination means for calculating time without motion from the vehicle position information and time information calculated by the vehicle pattern matching means And when the time calculated by the parking time determination means is less than a preset parking time, the second imaging hand Image erasing means for erasing all face images picked up in stages and recorded in the recording means.

(5) 上記(1)乃至(4)のいずれかに記載の駐車車両搭乗者撮像装置において、複数の顔データを蓄積した顔データ蓄積手段と、アラームを発報するアラーム出力手段と、前記顔データ蓄積手段内にある顔と新たに取得した不法駐車搭乗者の顔とのマッチングを行い、適合した場合に前記アラーム出力手段を動作させる顔検索手段と、を備える。 (5) In the parked vehicle occupant imaging device described in any of (1) to (4) above, face data storage means for storing a plurality of face data, alarm output means for issuing an alarm, and the face Face search means for matching the face in the data storage means with the newly acquired face of the illegally parked passenger and operating the alarm output means when the face matches.

(6) 上記(5)に記載の駐車車両搭乗者撮像装置において、前記顔検索手段は、前記顔データ蓄積手段内にある顔と新たに取得した不法駐車搭乗者の顔がマッチングした場合にネットワークを介して集中サーバに配信する。 (6) In the parked vehicle occupant imaging device according to (5), the face search unit is configured to perform networking when a face in the face data storage unit and a newly acquired face of an illegally parked occupant are matched. To the centralized server.

上記(1)に記載の駐車車両搭乗者撮像装置では、駐車車両を認識した場合にのみ記録を行い、しかも駐車車両搭乗者の顔のなかでも判定基準に最も適合するベストショット画像のみ記録するので、駐車車両の搭乗者を監視するためのデータ量の軽減化が図れるとともに、容易に搭乗者を特定することができる。   In the parked vehicle occupant imaging device described in (1) above, recording is performed only when a parked vehicle is recognized, and only the best shot image that best meets the criteria is recorded among the parked vehicle occupant's face. In addition, the amount of data for monitoring the occupants of the parked vehicle can be reduced, and the occupants can be easily identified.

上記(2)に記載の駐車車両搭乗者撮像装置では、車両の搭乗者を追尾し位置情報を取得するので、降車時、乗車時からベストショット顔画像を取得することができ、より鮮明な駐車車両搭乗者のベストショット画像を記録することができる。   In the parked vehicle occupant imaging device described in (2) above, since the vehicle occupant is tracked and position information is acquired, the best shot face image can be acquired from the time of getting off and when the vehicle is boarded. The best shot image of the vehicle occupant can be recorded.

上記(3)に記載の駐車車両搭乗者撮像装置では、駐車車両搭乗者のベストショット画像とその駐車車両を記録することができる。   In the parked vehicle occupant imaging device described in (3) above, the best shot image of the parked vehicle occupant and the parked vehicle can be recorded.

上記(4)に記載の駐車車両搭乗者撮像装置では、駐車車両を認識した場合には第2の撮像手段より得られる動画を高フレームレートで記録し、駐車車両を認識できなくなると低フレームレートで記録するので、駐車車両の搭乗者を監視するためのデータ量の軽減化が図れるとともに、容易に搭乗者を特定することができる。   In the parked vehicle occupant imaging device described in (4) above, when the parked vehicle is recognized, the moving image obtained from the second imaging means is recorded at a high frame rate, and if the parked vehicle cannot be recognized, the low frame rate Therefore, the amount of data for monitoring the occupants of the parked vehicle can be reduced, and the occupants can be easily identified.

上記(5)に記載の駐車車両搭乗者撮像装置では、不法駐車常習者といった顔データ蓄積手段に記録された特定の人物が不法駐車したときに即座にアラームを発報するので、不法駐車常習者の検挙に寄与できる。   In the parked vehicle occupant imaging device described in (5) above, an alarm is issued immediately when a specific person recorded in the face data storage means such as an illegal parking addict is illegally parked. Can contribute to the clearance.

上記(6)に記載の駐車車両搭乗者撮像装置では、不法駐車常習者といった顔データ蓄積手段に記録された特定の人物が不法駐車したときに即座にネットワークを介して集中サーバに配信することができる。   In the parked vehicle occupant imaging device described in (6) above, when a specific person recorded in the face data storage means such as an illegal parking addict parks illegally, it can be immediately delivered to the centralized server via the network. it can.

以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments for carrying out the invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図である。同図において、本実施の形態に係る駐車車両搭乗者撮像装置100は、広角カメラ110と、パンチルトズーム搭載カメラ111と、監視制御記録装置112とを備えて構成される。監視制御記録装置112は、静領域抽出部121と、バッファA122及びB123と、背景選別部124及び125と、フレーム差分部126と、特徴量抽出部127と、車パターンマッチング部128と、駐車時間判定部129と、カメラ制御部130と、動領域抽出部131と、顔領域抽出部132と、ベストショット判別部133と、画像消去部134と、記録部150とを備えている。
(Embodiment 1)
FIG. 1 is a block diagram showing a schematic configuration of a parked vehicle occupant imaging device according to Embodiment 1 of the present invention. In the figure, a parked vehicle occupant imaging device 100 according to the present embodiment includes a wide-angle camera 110, a pan / tilt / zoom camera 111, and a monitoring control recording device 112. The monitoring control recording device 112 includes a static area extraction unit 121, buffers A122 and B123, background selection units 124 and 125, a frame difference unit 126, a feature amount extraction unit 127, a car pattern matching unit 128, and a parking time. A determination unit 129, a camera control unit 130, a moving region extraction unit 131, a face region extraction unit 132, a best shot determination unit 133, an image erasure unit 134, and a recording unit 150 are provided.

なお、上記広角カメラ110は第1の撮像手段に対応する。また、パンチルトズーム搭載カメラ111は第2の撮像手段に対応する。また、静領域抽出部121は静領域抽出手段に対応する。また、バッファA122及びB123と背景選別部124及び125とフレーム差分部126は背景変化検出手段を構成する。また、特徴量抽出部127は特徴量抽出手段に対応する。また、車パターンマッチング部128は車パターンマッチング手段に対応する。また、駐車時間判定部129は駐車時間判定手段に対応する。また、カメラ制御部130はカメラ制御手段に対応する。また、動領域抽出部131は動領域抽出手段に対応する。また、顔領域抽出部132は顔領域抽出手段に対応する。また、ベストショット判別部133はベストショット判別手段に対応する。また、画像消去部134は画像消去手段に対応する。また、記録部150は記録手段に対応する。   The wide-angle camera 110 corresponds to the first imaging unit. The pan / tilt / zoom camera 111 corresponds to a second imaging unit. The static area extraction unit 121 corresponds to a static area extraction unit. Further, the buffers A122 and B123, the background selection units 124 and 125, and the frame difference unit 126 constitute background change detection means. The feature quantity extraction unit 127 corresponds to feature quantity extraction means. The car pattern matching unit 128 corresponds to car pattern matching means. Moreover, the parking time determination part 129 respond | corresponds to a parking time determination means. The camera control unit 130 corresponds to camera control means. The moving area extracting unit 131 corresponds to moving area extracting means. The face area extracting unit 132 corresponds to a face area extracting unit. The best shot discrimination unit 133 corresponds to best shot discrimination means. The image erasing unit 134 corresponds to an image erasing unit. The recording unit 150 corresponds to a recording unit.

広角カメラ110は、監視対象エリア全体を撮像できるように、35ミリ換算値で50mm以下の焦点距離を持つ広角レンズを備える。パンチルトズーム搭載カメラ111は、カメラ本体をパン(水平方向)及びチルト(上下方向)する機構を備えるとともに、レンズの焦点距離変更による光学ズームを備える。図2は、広角カメラ110と、パンチルトズーム搭載カメラ111と、監視制御記録装置112と、車両200と、車両200の運転手210と、車道220との位置関係の一例を示す図である。同図に示すように、広角カメラ110及びパンチルトズーム搭載カメラ111は、それぞれ監視方向に方向付けされ、配置される。この際、パンチルトズーム搭載カメラ111の動作によって、互いに衝突しないように一定の距離隔てて配置することもできる。なお、パンチルトズーム搭載カメラ111は、パンとチルトの動作によって撮影方向を任意に設定できるが、監視対象エリア内の中心に、水平方向の角度及び上下方向の角度の中心が来るように設定するのが望ましい。   The wide-angle camera 110 includes a wide-angle lens having a focal length of 50 mm or less in terms of 35 mm so that the entire monitoring target area can be imaged. The pan / tilt zoom camera 111 includes a mechanism for panning (horizontal direction) and tilting (vertical direction) the camera body, and an optical zoom by changing the focal length of the lens. FIG. 2 is a diagram illustrating an example of a positional relationship among the wide-angle camera 110, the pan / tilt / zoom camera 111, the monitoring control recording device 112, the vehicle 200, the driver 210 of the vehicle 200, and the roadway 220. As shown in the figure, the wide-angle camera 110 and the pan / tilt / zoom camera 111 are each oriented and arranged in the monitoring direction. At this time, the pan / tilt / zoom camera 111 can be arranged at a fixed distance so as not to collide with each other. Note that the pan / tilt / zoom camera 111 can arbitrarily set the shooting direction by pan and tilt operations. However, the pan / tilt / zoom camera 111 is set so that the center of the horizontal angle and the vertical angle is centered in the monitoring target area. Is desirable.

図1において、静領域抽出部121は、差分法や動きベクトル法を用いて、広角カメラ110からの映像データ(監視領域映像)から画像内の動きのない領域(静領域)を抽出する。例えば、差分法を用いる場合、現在のフレームの映像とその1つ前のフレームの映像との差分を求めて動き領域を抽出して、その動き領域以外を静領域として抽出する。このようにして監視領域から静領域を抽出する。バッファA122及びB123は、フレーム毎に静領域抽出部121で抽出された静領域を一時的に格納するものである。バッファA122とバッファB123には、データ格納サイズの異なるものが用いられる。この理由については、次のフレーム差分部126のところで説明する。   In FIG. 1, a static area extraction unit 121 extracts a non-motion area (static area) in an image from video data (monitoring area video) from the wide-angle camera 110 using a difference method or a motion vector method. For example, when the difference method is used, a difference between the current frame image and the previous frame image is obtained to extract a motion region, and a region other than the motion region is extracted as a static region. In this way, a static area is extracted from the monitoring area. The buffers A122 and B123 temporarily store the static area extracted by the static area extraction unit 121 for each frame. The buffer A122 and the buffer B123 are different in data storage size. The reason for this will be described at the next frame difference unit 126.

背景選別部124は、バッファA122に格納された静領域群から背景画像を選別する。ここで、広角カメラ110で撮像される映像には前景と背景が存在し、前景とは、人、車といった常に動きのあるもので、背景とは、壁、地面といった動きのないものである。静領域には、前景に比べ背景の方が非常に多く、情報が残っていると仮定することができ、バッファA122に格納された静領域群から、例えば任意の個数存在する母集団から最頻値をとる最小二乗メディアン法を用いて、画素毎の最頻値を背景画素として背景画像を作成する。背景選別部125は、背景選別部124と同様の処理を行って、バッファB123に格納された静領域群から背景画像を選別する。   The background selection unit 124 selects a background image from the static region group stored in the buffer A122. Here, a foreground and a background exist in the video imaged by the wide-angle camera 110, and the foreground is always moving such as a person or a car, and the background is a thing without movement such as a wall or the ground. It can be assumed that the background has much more background than the foreground and information remains in the static area. From the static area group stored in the buffer A122, for example, the most frequent from the existing population. A background image is created using a mode value for each pixel as a background pixel by using a least squares median method that takes a value. The background selection unit 125 performs the same processing as the background selection unit 124 and selects a background image from the static region group stored in the buffer B123.

フレーム差分部126は、バッファA122に格納された静領域群を基に背景選別部124によって選別された背景画像P1と、バッファB123に格納された静領域群を基に背景選別部125によって選別された背景画像P2のフレーム差分をとる。ここで、上述したように、バッファA122とバッファB123のデータ格納サイズを違えているので、例えば、バッファA122のデータ容量を300秒分の情報に相当するものとし、バッファB123のデータの容量を10秒分の情報に相当するものとし、バッファA122では0〜300秒の情報から背景画像P1が生成されたとし、バッファB123では290〜300秒の情報から背景画像P2が生成されたとすると、289秒に車が停車された場合、バッファA122には停車前の288秒間の情報量が多いため、背景画像P1に車情報は反映されないが、バッファB123には停車後の情報量しか存在しないため、背景画像P2には車情報が反映される。   The frame difference unit 126 is selected by the background selection unit 125 based on the background image P1 selected by the background selection unit 124 based on the static region group stored in the buffer A122 and the static region group stored in the buffer B123. The frame difference of the background image P2 is taken. Here, since the data storage sizes of the buffer A 122 and the buffer B 123 are different as described above, for example, the data capacity of the buffer A 122 is equivalent to information for 300 seconds, and the data capacity of the buffer B 123 is 10 It is assumed that the background image P1 is generated from 0 to 300 seconds of information in the buffer A122, and the background image P2 is generated from 290 to 300 seconds of information in the buffer B123. When the vehicle is stopped, the buffer A122 has a large amount of information for 288 seconds before the stop, so the vehicle information is not reflected in the background image P1, but the buffer B123 has only the information amount after the stop. The vehicle information is reflected in the image P2.

特徴量抽出部127は、フレーム差分部126でフレーム差分をとった結果から静領域がある場合、その静領域を保持し、この静領域から縦横比、サイズ、形状といったマッチングをとるための特徴量を計算する。車パターンマッチング部128は、DP(Dynamic Programming)マッチング法等のマッチングアルゴリズムを用いて、車テンプレートと特徴量抽出部127で計算された静領域の特徴量とのパターンマッチングを行い、車領域があるかどうか判定する。車領域がある場合は、その位置情報と時刻情報を計算し、保持する。   When there is a static region from the result of the frame difference obtained by the frame difference unit 126, the feature amount extraction unit 127 retains the static region, and the feature amount for matching the aspect ratio, size, and shape from the static region. Calculate The car pattern matching unit 128 uses a matching algorithm such as a DP (Dynamic Programming) matching method to perform pattern matching between the car template and the feature quantity of the static area calculated by the feature quantity extraction unit 127, and there is a car area. Determine whether or not. If there is a vehicle area, its position information and time information are calculated and stored.

駐車時間判定部129は、車パターンマッチング部128に保持された車領域の位置情報と時刻情報から、その車領域が何分変化していないか計算する。この場合、広角カメラ110からの映像データが、例えば721×240画素で構成されたNTSC(National Television Standards Committee)方式の映像データであれば、監視領域のX座標0〜719及びY座標0〜239における矩形領域の座標データを位置情報として表される。また、時刻情報は、YYYY/MM/DD HH:MM:SSといったように、秒単位での計算が可能なフォーマットで表される。   The parking time determination unit 129 calculates how much the vehicle area has not changed from the position information and time information of the vehicle area held in the vehicle pattern matching unit 128. In this case, if the video data from the wide-angle camera 110 is, for example, NTSC (National Television Standards Committee) video data composed of 721 × 240 pixels, the X coordinate 0 to 719 and the Y coordinate 0 to 239 of the monitoring area are used. The coordinate data of the rectangular area is represented as position information. The time information is expressed in a format that can be calculated in seconds, such as YYYY / MM / DD HH: MM: SS.

画像消去部134は、駐車時間判別部129で計算された時間が、一般的な駐車時間未満である場合、駐車車両でなく停車車両であると判断し、位置情報と時刻情報からその停車車両で撮像された全顔画像を消去するとともに、位置情報と時刻情報を削除する。また、駐車時間判別部129で計算された時間が、一般的な駐車時間以上である場合、駐車車両と判断し、ベストショット判別部133に記録部150に格納された顔画像からベストショット画像を選択する命令を与える。   If the time calculated by the parking time discriminating unit 129 is less than the general parking time, the image erasing unit 134 determines that the parking vehicle is not a parked vehicle and is a parked vehicle from the position information and the time information. The entire face image that has been captured is deleted, and the position information and time information are deleted. Further, when the time calculated by the parking time determination unit 129 is equal to or longer than the general parking time, it is determined as a parked vehicle, and the best shot image is extracted from the face image stored in the recording unit 150 in the best shot determination unit 133. Give an instruction to select.

カメラ制御部130は、車パターンマッチング部128に保持した位置情報を基にパンチルトズーム搭載カメラ111を駐車車両近辺にパンチルトズームするため、パン、チルト、ズーム等のカメラ制御を行う。このカメラ制御には撮影を開始する指令も含まれる。   The camera control unit 130 performs camera control such as panning, tilting, and zooming in order to pan-tilt-zoom the pan / tilt / zoom-equipped camera 111 in the vicinity of the parked vehicle based on the position information held in the car pattern matching unit 128. This camera control includes a command to start shooting.

動領域抽出部131は、パンチルトズーム搭載カメラ111からの映像データから画像内の動きのある動領域を抽出する。例えば、現在のフレームの映像とその1つ前のフレームの映像との差分を求めて動きのある領域を抽出する。顔領域抽出部132は、動領域抽出部131で抽出された動領域から、楕円ハフといった顔領域を取得するアルゴリズムを用いて顔領域を抽出し、抽出した顔領域を出力する。ベストショット判別部133は、顔領域抽出部132で抽出された顔画像を記録部150に記録し、また画像消去部134からベストショット画像選択命令を受けることで、記録部150に格納された顔画像を所定の判定基準(コントラストが適性、顔のサイズが大きい、顔方向が正面等)に基づいて比較し、最も鮮明に撮像されたベストショット画像を選択する。また、ベストショット画像以外の画像は削除する。   The moving area extraction unit 131 extracts a moving area having movement in the image from the video data from the camera 111 equipped with pan / tilt / zoom. For example, the difference between the current frame image and the previous frame image is obtained to extract a region with motion. The face area extracting unit 132 extracts a face area from the moving area extracted by the moving area extracting unit 131 using an algorithm for obtaining a face area such as an elliptical hough, and outputs the extracted face area. The best shot discriminating unit 133 records the face image extracted by the face area extracting unit 132 in the recording unit 150, and receives the best shot image selection command from the image erasing unit 134, thereby storing the face stored in the recording unit 150. The images are compared based on predetermined criteria (contrast is appropriate, face size is large, face direction is front, etc.), and the best shot image picked up most clearly is selected. Also, images other than the best shot image are deleted.

次に、以上のように構成された駐車車両搭乗者撮像装置100の動作について、図3及び図4のフロー図を用いて説明する。まず、静領域抽出部121が、広角カメラ110からの監視領域の映像データを取り込み(ステップS201)、差分法や動きベクトル法等を用いて、映像データから画像内の動きのない領域即ち静領域を抽出する(ステップS202)。監視領域から静領域を検出した後、該静領域をバッファA122とバッファB123に格納する(ステップS203及びS204)。この場合、バッファA122とバッファB123に静領域を格納できる空メモリがなければ、古い情報から順次上書きをする。例えば1秒間に1枚静領域を抽出し、バッファA122には30枚静領域を格納できるとする。0〜30秒までは全ての時刻の静領域をバッファA122に格納するが、31秒には1秒目に抽出された静領域に対して上書きする。   Next, the operation of the parked vehicle occupant imaging device 100 configured as described above will be described using the flowcharts of FIGS. 3 and 4. First, the static region extraction unit 121 captures video data of a monitoring region from the wide-angle camera 110 (step S201), and uses a difference method, a motion vector method, or the like, from the video data, a region where there is no motion, that is, a static region. Is extracted (step S202). After detecting the static area from the monitoring area, the static area is stored in the buffer A 122 and the buffer B 123 (steps S203 and S204). In this case, if there is no empty memory that can store a static area in the buffer A 122 and the buffer B 123, the old information is overwritten sequentially. For example, it is assumed that one static area is extracted per second, and 30 static areas can be stored in the buffer A122. The static area at all times is stored in the buffer A122 from 0 to 30 seconds, but the static area extracted at the first second is overwritten at 31 seconds.

次に、背景選別部124がバッファA122に格納された静領域群から背景画像P1を作成する(ステップS205)。同様に、背景選別部125がバッファB123に格納された静領域群から背景画像P2を作成する(ステップS206)。次に、フレーム差分部126が背景画像P1と背景画像P2のフレーム差分をとり(ステップS207)、その結果から停止している物体があるかどうか判定する(ステップS208)。背景に物体が存在した場合は、特徴量抽出部127が縦横比、サイズ、形状といったマッチングを行うための特徴量を計算する(ステップS209)。次に、車パターンマッチング部128がDPマッチング法等の縦横比、サイズ、形状といったテンプレート情報を基に任意のパターンを抽出するアルゴリズムを用いて、車パターンマッチング部128に保持した静領域内に車領域が存在するかマッチングを行う(ステップS210)。そして、マッチング結果から車領域があるかどうか判定し(ステップS211)、車領域がある場合(ステップS211でYESの場合)は、その車の位置情報・時刻情報を計算する(ステップS212)。   Next, the background selection unit 124 creates a background image P1 from the static region group stored in the buffer A122 (step S205). Similarly, the background selection unit 125 creates a background image P2 from the static region group stored in the buffer B123 (step S206). Next, the frame difference unit 126 calculates the frame difference between the background image P1 and the background image P2 (step S207), and determines whether there is a stopped object from the result (step S208). If there is an object in the background, the feature quantity extraction unit 127 calculates a feature quantity for matching such as aspect ratio, size, and shape (step S209). Next, the vehicle pattern matching unit 128 uses the algorithm for extracting an arbitrary pattern based on the template information such as the aspect ratio, size, and shape such as the DP matching method, so that the vehicle is within the static region held in the vehicle pattern matching unit 128. Matching is performed to determine whether an area exists (step S210). Then, it is determined from the matching result whether there is a vehicle area (step S211). If there is a vehicle area (YES in step S211), position information / time information of the vehicle is calculated (step S212).

次に、カメラ制御部130が車パターンマッチング部128で算出された位置情報を基にパンチルトズーム搭載カメラ111にパンチルトズーム命令を与える(ステップS213)。これにより、パンチルトズーム搭載カメラ111には車領域の近傍が撮像される。そして、動領域抽出部131がパンチルトズーム搭載カメラ111からの映像データを取込み、差分法や動きベクトル法等用いて、動きのある動領域を検出する(ステップS214)。次に、顔領域抽出部132が例えば楕円ハフアルゴリズムを用いて、動き領域内に顔領域が存在するかマッチングを行う(ステップS215)。マッチングすればその顔画像を記録部150に記録する(ステップS216)。   Next, the camera control unit 130 gives a pan / tilt / zoom command to the pan / tilt / zoom camera 111 based on the position information calculated by the car pattern matching unit 128 (step S213). As a result, the pan / tilt / zoom camera 111 captures the vicinity of the vehicle area. Then, the moving region extraction unit 131 takes in the video data from the pan / tilt / zoom camera 111 and detects a moving region in motion using a difference method, a motion vector method, or the like (step S214). Next, the face area extraction unit 132 performs matching to determine whether a face area exists in the motion area using, for example, an elliptical Hough algorithm (step S215). If matched, the face image is recorded in the recording unit 150 (step S216).

一方、車が発進し、広角カメラ110外に移動したことで車領域がマッチングできなかった場合は、ステップS211の判定がNOとなるので、駐車時間判別部129が車パターンマッチング部128で取得された位置情報と時刻情報からその車が何分動きがないか時間を計算する。そして、駐車車両かどうかを判定する(ステップS217)。計算した時間が一般的な駐車時間未満である場合は、駐車車両でなく停車車両であると判断し、停車車両で撮像された全顔画像を記録部150から消去する(ステップS218)。更に、位置情報と時刻情報を削除する(ステップS219)。   On the other hand, when the vehicle has started and moved out of the wide-angle camera 110 and the vehicle area cannot be matched, the determination in step S211 is NO, so the parking time determination unit 129 is acquired by the vehicle pattern matching unit 128. The time is calculated from how much position information and time information the car does not move. And it is determined whether it is a parked vehicle (step S217). If the calculated time is less than the general parking time, it is determined that the vehicle is not a parked vehicle but a parked vehicle, and the full-face image captured by the parked vehicle is deleted from the recording unit 150 (step S218). Further, the position information and time information are deleted (step S219).

これに対して、計算した時間が一般的な駐車時間以上である場合、駐車車両であると判断し、記録部150に格納された顔画像から、所定の比較基準に基づいて比較してベストショット画像を選択する(ステップS220)。この場合、ベストショットの比較基準において、例えば顔映像のコントラスト、顔映像サイズ及び顔方向情報の3つのベストショットを判別基準とした場合、抽出された顔映像を要素毎にスコア化し、スコア化したものに所定の重み係数を乗じて顔映像の総合スコアを算出する。現在のフレームから抽出した顔画像と過去のフレームで抽出した顔映像とを総合スコアでフレーム毎に順次比較し、総合スコアが最も大きいものをベストショットとする。それ以外の画像は削除する(ステップS221)。   On the other hand, when the calculated time is equal to or longer than the general parking time, it is determined that the vehicle is a parked vehicle, and the best shot is compared from the face image stored in the recording unit 150 based on a predetermined comparison criterion. An image is selected (step S220). In this case, in the best shot comparison criterion, for example, when the three best shots of the contrast of the face image, the face image size, and the face direction information are used as the discrimination criterion, the extracted face image is scored for each element and scored. The total score of the face image is calculated by multiplying the object by a predetermined weighting factor. The face image extracted from the current frame and the face image extracted from the past frame are sequentially compared for each frame by the total score, and the one having the highest total score is determined as the best shot. Other images are deleted (step S221).

このように本実施の形態に係る駐車車両搭乗者撮像装置100によれば、広角カメラ110からの監視領域の映像データから画像内の動きのない領域即ち静領域を抽出できると、その静領域から特徴量を計算し、これにより得られた特徴量と車テンプレートとのパターンマッチングを行い、車領域がある場合はその位置情報と時刻情報を計算し、その車領域が何分動きがないかを判別する一方、位置情報を基にパンチルトズーム搭載カメラ111を制御してパンチルトズーム搭載カメラ111からの映像データを得て、その映像データから画像内の動きのある動領域を抽出し、更に顔領域を抽出して記録部150に記録し、車領域の動きの無い時間が一般的な駐車時間未満であれば、停車車両として判断して記録部150に記録した全顔画像を消去し、車領域の動きの無い時間が一般的な駐車時間以上であれば、駐車車両と判断して記録部150に記録した顔画像からベストショット画像を選択し、残りの顔画像については消去する。したがって、駐車車両と判断した場合、該車両の搭乗者のベストショット画像のみ保存するので、駐車車両の搭乗者を監視するためのデータ量の軽減化が図れるとともに、容易に搭乗者を特定することができる。   As described above, according to the parked vehicle occupant imaging device 100 according to the present embodiment, if an area without motion, that is, a static area in the image can be extracted from the video data of the monitoring area from the wide-angle camera 110, the static area is extracted from the static area. The feature amount is calculated, pattern matching between the obtained feature amount and the car template is performed. If there is a car area, the position information and time information are calculated, and how much the car area does not move. On the other hand, on the basis of the position information, the pan / tilt / zoom camera 111 is controlled to obtain video data from the pan / tilt / zoom camera 111, a moving area in the image is extracted from the video data, and a face area is further extracted. Is extracted and recorded in the recording unit 150, and if the time when there is no movement in the vehicle area is less than the general parking time, the whole face image that is determined to be a stopped vehicle and recorded in the recording unit 150 If the time when there is no movement in the vehicle area is longer than the general parking time, the best shot image is selected from the face images recorded in the recording unit 150 as a parked vehicle, and the remaining face images are deleted. To do. Therefore, when it is determined that the vehicle is a parked vehicle, only the best shot image of the passenger of the vehicle is stored, so that the amount of data for monitoring the passenger of the parked vehicle can be reduced and the passenger can be easily identified. Can do.

なお、上記実施の形態において、静領域抽出部121で抽出された静領域を2つのバッファA122とバッファB123に格納するようにしたが、バッファの数は2つに限定されることはなく、2つ以上であってもよい。但し、背景選別部125もそれに合わせて増やす必要がある。   In the above embodiment, the static areas extracted by the static area extraction unit 121 are stored in the two buffers A122 and B123. However, the number of buffers is not limited to two, and two. There may be more than one. However, the background selection unit 125 needs to be increased accordingly.

(実施の形態2)
図5は、本発明の実施の形態2に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図である。なお、図5において図1と共通する部分には同一の符号を付けてその説明を省略する。
(Embodiment 2)
FIG. 5 is a block diagram showing a schematic configuration of the parked vehicle occupant imaging device according to Embodiment 2 of the present invention. 5 that are the same as those in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

図5において、本実施の形態に係る駐車車両搭乗者撮像装置300は、上述した実施の形態1に係る駐車車両搭乗者撮像装置100の動領域抽出部131、顔領域抽出部132及びベストショット判別部133に代わってフレームレート制御部321を備えている点と、実施の形態1に係る駐車車両搭乗者撮像装置100の車パターンマッチング部128に新たな機能を追加した車パターンマッチング部322を備えている点が異なっている。フレームレート制御部321は、パンチルトズーム搭載カメラ111からの映像データを取り込む間隔を変えて記録部150へ出力する。車パターンマッチング部322は、フレームレート制御部321に任意のフレームレートで撮像するようにフレームレート制御命令を与える。フレームレート制御部321は、フレームレート制御命令に従う時間間隔でパンチルトズーム搭載カメラ111からの映像データを取り込む。なお、フレームレート制御部321はフレームレート制御手段に対応する。   In FIG. 5, the parked vehicle occupant imaging device 300 according to the present embodiment includes a moving region extraction unit 131, a face region extraction unit 132, and a best shot discrimination of the parked vehicle occupant imaging device 100 according to the above-described first embodiment. A vehicle pattern matching unit 322 in which a frame rate control unit 321 is provided instead of the unit 133 and a new function is added to the vehicle pattern matching unit 128 of the parked vehicle occupant imaging device 100 according to the first embodiment. Is different. The frame rate control unit 321 changes the interval at which video data from the pan / tilt / zoom camera 111 is captured and outputs the video data to the recording unit 150. The car pattern matching unit 322 gives a frame rate control command to the frame rate control unit 321 so as to capture an image at an arbitrary frame rate. The frame rate control unit 321 takes in video data from the pan / tilt / zoom camera 111 at time intervals according to the frame rate control command. The frame rate control unit 321 corresponds to a frame rate control unit.

次に、図6及び図7のフロー図を用いて駐車車両搭乗者撮像装置300の動作について説明する。ここで、図6のステップS401〜ステップS413は、前述した図3のステップS201〜ステップS213と同一であるので、説明を省略する。   Next, the operation of the parked vehicle occupant imaging device 300 will be described using the flowcharts of FIGS. 6 and 7. Here, steps S401 to S413 in FIG. 6 are the same as steps S201 to S213 in FIG.

図6及び図7において、ステップS412で車パターンマッチング部128が、静領域を車領域と判断してその車領域の位置情報と時刻情報を計算し、カメラ制御部130にカメラ制御命令を与えた後、フレームレート制御部321に対して高フレームレートで記録部150に動画を録画するようにフレームレート制御命令を与える(ステップS414)。フレームレート制御部321は、フレームレート制御命令が与えられることで、パンチルトズーム搭載カメラ111からの映像データを高フレームレートで記録部150に録画する。   6 and 7, in step S412, the vehicle pattern matching unit 128 determines that the static region is a vehicle region, calculates position information and time information of the vehicle region, and gives a camera control command to the camera control unit 130. Thereafter, a frame rate control command is given to the frame rate control unit 321 to record a moving image on the recording unit 150 at a high frame rate (step S414). The frame rate control unit 321 records the video data from the pan / tilt / zoom camera 111 in the recording unit 150 at a high frame rate when a frame rate control command is given.

一方、車が発進し、広角カメラ110外に移動したことで車領域がマッチングできなくなった場合、ステップS411からステップS415へ移行し、駐車車両かどうか判定する。駐車車両であれば、車パターンマッチング部322がフレームレート制御部321に対して、低フレームレートで録画するようにフレームレート制御命令を入力する(ステップS417)。このフレームレート制御命令が与えられることで、フレームレート制御部321がパンチルトズーム搭載カメラ111からの映像データを低フレームレートで記録部150に録画する。ステップS415の判定において、駐車車両でない即ち停車車両であると判断すると、位置情報と時刻情報からその停車車両を撮像した動画を削除するように画像消去部134に指示する。これにより、画像消去部134が該動画を記録部150から削除する(ステップS416)。   On the other hand, when the vehicle has started and moved out of the wide-angle camera 110 and the vehicle area cannot be matched, the process moves from step S411 to step S415 to determine whether the vehicle is a parked vehicle. If the vehicle is a parked vehicle, the vehicle pattern matching unit 322 inputs a frame rate control command to the frame rate control unit 321 so as to record at a low frame rate (step S417). When this frame rate control command is given, the frame rate control unit 321 records video data from the pan / tilt / zoom camera 111 on the recording unit 150 at a low frame rate. If it is determined in step S415 that the vehicle is not a parked vehicle, that is, a stopped vehicle, the image erasing unit 134 is instructed to delete a moving image of the stopped vehicle from the position information and time information. As a result, the image erasing unit 134 deletes the moving image from the recording unit 150 (step S416).

このように本実施の形態に係る駐車車両搭乗者撮像装置300によれば、車テンプレートとのパターンマッチングを行って車領域がある場合は、その位置情報と時刻情報を計算し、その車領域が何分動きがないかを判別する一方、パンチルトズーム搭載カメラ111からの映像データを高フレームレートで記録部150に録画し、車領域があった状態から無くなった状態になると、そのときまで車領域が継続してきた時間が一般的な駐車時間以上であれば、パンチルトズーム搭載カメラ111からの映像データを低フレームレートで記録部150に録画し、車領域が継続してあった時間が一般的な駐車時間未満であれば、記録部150の録画データを消去する。したがって、駐車車両が発生したときのみ高フレームレートで記録することができる。   As described above, according to the parked vehicle occupant imaging device 300 according to the present embodiment, when there is a car area by performing pattern matching with the car template, the position information and time information are calculated, and the car area is While determining whether there is no movement, the video data from the camera 111 equipped with pan / tilt / zoom is recorded in the recording unit 150 at a high frame rate. If the time that has continued is longer than the general parking time, the video data from the camera 111 equipped with pan / tilt / zoom is recorded on the recording unit 150 at a low frame rate, and the time when the vehicle area has continued is generally If it is less than the parking time, the recorded data in the recording unit 150 is deleted. Therefore, it is possible to record at a high frame rate only when a parked vehicle is generated.

(実施の形態3)
図8は、本発明の実施の形態3に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図ある。なお、図8において図1と共通する部分には同一の符号を付けてその説明を省略する。
(Embodiment 3)
FIG. 8 is a block diagram showing a schematic configuration of a parked vehicle occupant imaging device according to Embodiment 3 of the present invention. 8 that are the same as those in FIG. 1 are assigned the same reference numerals, and descriptions thereof are omitted.

図8において、本実施の形態に係る駐車車両搭乗者撮像装置500は、上述した実施の形態1に係る駐車車両搭乗者撮像装置100と同一の構成に加えて、車画像格納部521と車画像制御部522を備えている点が異なっている。車画像格納部521は、車パターンマッチング部128がフレーム毎に抽出した車画像を保存する。車画像制御部522は、ベストショット判別部133が判別したベストショット画像が撮像された時刻に車画像格納部521に格納された車画像を取得して記録部150に記録する。そして、車画像格納部521に格納された車画像を消去する。なお、上記車画像格納部521と車画像制御部522は車画像制御手段を構成する。   In FIG. 8, the parked vehicle occupant imaging device 500 according to the present embodiment has the same configuration as that of the parked vehicle occupant imaging device 100 according to Embodiment 1 described above, and in addition, a vehicle image storage unit 521 and a vehicle image. The difference is that a control unit 522 is provided. The vehicle image storage unit 521 stores the vehicle image extracted by the vehicle pattern matching unit 128 for each frame. The vehicle image control unit 522 acquires the vehicle image stored in the vehicle image storage unit 521 at the time when the best shot image determined by the best shot determination unit 133 is captured, and records it in the recording unit 150. Then, the car image stored in the car image storage unit 521 is deleted. The vehicle image storage unit 521 and the vehicle image control unit 522 constitute a vehicle image control unit.

以上のように構成された駐車車両搭乗者撮像装置500の動作について、図9のフロー図を用いて説明する。なお、本実施の形態に係る駐車車両搭乗者撮像装置500は、実施の形態1に係る駐車車両搭乗者撮像装置100に車画像格納部521と車画像制御部522を追加した構成なので、これら以外の構成の説明は省略する。   The operation of the parked vehicle occupant imaging device 500 configured as described above will be described with reference to the flowchart of FIG. The parked vehicle occupant imaging device 500 according to the present embodiment has a configuration in which a vehicle image storage unit 521 and a vehicle image control unit 522 are added to the parked vehicle occupant imaging device 100 according to the first embodiment. The description of the configuration is omitted.

車画像格納部521が、フレーム毎に抽出した車画像を保存する(ステップS601)。車画像制御部522が、顔画像のベストショットが撮像された時刻を取得し(ステップS602)、次いで顔画像のベストショットが撮像された時刻の車画像を記録部150に記録する(ステップS603)。次いで、車画像格納部521に格納された車画像を消去する(ステップS604)。   The vehicle image storage unit 521 stores the extracted vehicle image for each frame (step S601). The vehicle image control unit 522 acquires the time when the best shot of the face image was captured (step S602), and then records the vehicle image at the time when the best shot of the facial image was captured in the recording unit 150 (step S603). . Next, the car image stored in the car image storage unit 521 is deleted (step S604).

このように本実施の形態に係る駐車車両搭乗者撮像装置500によれば、ベストショット画像が得られた時刻の車画像を記録部150に記録するので、駐車車両搭乗者のベストショット画像と駐車車両を共に記録部150に記録することができる。   As described above, according to the parked vehicle occupant imaging device 500 according to the present embodiment, the vehicle image at the time when the best shot image was obtained is recorded in the recording unit 150, so the parked vehicle occupant best shot image and the parking Both vehicles can be recorded in the recording unit 150.

(実施の形態4)
図10は、本発明の実施の形態4に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図ある。なお、図10において図1と共通する部分には同一の符号を付けてその説明を省略する。
(Embodiment 4)
FIG. 10 is a block diagram showing a schematic configuration of a parked vehicle occupant imaging device according to Embodiment 4 of the present invention. 10 that are the same as those in FIG. 1 are assigned the same reference numerals, and descriptions thereof are omitted.

図10において、本実施の形態に係る駐車車両搭乗者撮像装置700は、上述した実施の形態1に係る駐車車両搭乗者撮像装置100と同一の構成に加えて、顔データベース721と、顔検索部722と、アラーム出力部723とを備えている点が異なっている。顔データベース721には複数の顔画像が格納されている。顔検索部722は、記録部150に格納された顔画像をキーとして、顔データベース721に格納されている顔画像の検索を行う。アラーム出力部723はアラーム出力を行う。なお、顔データベース721は顔データ蓄積手段に対応する。また、アラーム出力部723はアラーム出力手段に対応する。また、顔検索部722は顔検索手段に対応する。   In FIG. 10, a parked vehicle occupant imaging device 700 according to the present embodiment has the same configuration as that of the parked vehicle occupant imaging device 100 according to the first embodiment described above, and also includes a face database 721 and a face search unit. 722 and an alarm output unit 723 are different. The face database 721 stores a plurality of face images. The face search unit 722 searches for the face image stored in the face database 721 using the face image stored in the recording unit 150 as a key. The alarm output unit 723 outputs an alarm. The face database 721 corresponds to a face data storage unit. The alarm output unit 723 corresponds to an alarm output unit. The face search unit 722 corresponds to face search means.

以上のように構成された駐車車両搭乗者撮像装置700の動作について、図11のフロー図を用いて説明する。なお、本実施の形態に係る駐車車両搭乗者撮像装置700は、実施の形態1に係る駐車車両搭乗者撮像装置100に、顔データベース721と顔検索部722とアラーム出力部723とを追加した構成なので、これら以外の構成の説明は省略する。   The operation of the parked vehicle occupant imaging device 700 configured as described above will be described with reference to the flowchart of FIG. The parked vehicle occupant imaging device 700 according to the present embodiment is configured by adding a face database 721, a face search unit 722, and an alarm output unit 723 to the parked vehicle occupant imaging device 100 according to the first embodiment. Therefore, the description of the configuration other than these is omitted.

まず、顔検索部722が、つい先ほど得られたベストショット画像をキーとして、顔データベース721内に存在する顔情報に対して検索をかける(ステップS801)。検索アルゴリズムは、例えばAdaBoost学習を用いた顔識別検出器によるマッチング手法でよい。また、顔データベース721は例えば不法駐車常習者の顔データベースでもよい。   First, the face search unit 722 searches the face information existing in the face database 721 using the best shot image obtained just before as a key (step S801). The search algorithm may be a matching method using a face identification detector using AdaBoost learning, for example. The face database 721 may be a face database of an illegal parking addict, for example.

そして、取得した顔画像が顔データベース721に存在するか否かを判定し(ステップS802)、存在する場合(ステップS802においてYESとなる場合)は、顔検索部722がアラーム出力部723にアラーム出力命令を与える。これにより、アラーム出力部723がアラーム出力を行う(ステップS803)。なお、アラーム出力部723はブザーを鳴動させるものであってもよいし、駐車車両搭乗者撮像装置700にIP(Internet Protocol)ネットワークといった一般的なネットワークに繋がるI/F(インタフェース)を持たせて、集中サーバもしくは最寄りの派出所に不法駐車情報を伝えるといった手法でもよい。   Then, it is determined whether or not the acquired face image exists in the face database 721 (step S802). If it exists (YES in step S802), the face search unit 722 outputs an alarm to the alarm output unit 723. Give instructions. As a result, the alarm output unit 723 outputs an alarm (step S803). The alarm output unit 723 may sound a buzzer, or the parked vehicle occupant imaging device 700 may have an I / F (interface) connected to a general network such as an IP (Internet Protocol) network. Alternatively, a method may be used in which illegal parking information is transmitted to a central server or the nearest dispatching station.

このように本実施の形態に係る駐車車両搭乗者撮像装置700によれば、ベストショット画像と顔データベース721と顔の検索を行い、ベストショット画像が顔データベース721に存在する場合にアラーム出力を行うので、不法駐車常習者といった顔データベース721に格納された特定の人物が不法駐車したときに即座にアラームを発報することができる。   Thus, according to parked vehicle occupant imaging device 700 according to the present embodiment, the best shot image and face database 721 are searched for a face, and an alarm is output when the best shot image exists in face database 721. Therefore, when a specific person stored in the face database 721, such as an illegal parking addict, parks illegally, an alarm can be issued immediately.

なお、前述した実施の形態2に係る駐車車両搭乗者撮像装置300と実施の形態3に係る駐車車両搭乗者撮像装置500においても、本実施の形態に係る駐車車両搭乗者撮像装置700と同様の手段(即ち、予め登録してある顔データベース内にある顔と新たに取得した不法駐車搭乗者の顔とのマッチングを行い、適合した場合にアラームを発報する手段)を追加しても構わない。   In addition, the parked vehicle occupant imaging device 300 according to the second embodiment and the parked vehicle occupant imaging device 500 according to the third embodiment are the same as the parked vehicle occupant imaging device 700 according to the present embodiment. Means (that is, means for matching the face in the face database registered in advance with the newly acquired face of the illegally parked passenger and issuing an alarm when the face matches) may be added. .

(実施の形態5)
図12は、本発明の実施の形態5に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図ある。なお、図12において図1と共通する部分には同一の符号を付けてその説明を省略する。
(Embodiment 5)
FIG. 12 is a block diagram showing a schematic configuration of a parked vehicle occupant imaging device according to Embodiment 5 of the present invention. 12 that are the same as those in FIG. 1 are assigned the same reference numerals, and descriptions thereof are omitted.

図12において、本実施の形態に係る駐車車両搭乗者撮像装置900は、上述した実施の形態1に係る駐車車両搭乗者撮像装置100と同一の構成に加えて、動領域抽出部921と、人領域抽出部922と、人物特徴量抽出部923と、人物追尾部924とを備えている点が異なっている。   In FIG. 12, the parked vehicle occupant imaging device 900 according to the present embodiment has the same configuration as that of the parked vehicle occupant imaging device 100 according to the above-described first embodiment. The difference is that an area extracting unit 922, a person feature amount extracting unit 923, and a person tracking unit 924 are provided.

動領域抽出部921は、動領域抽出部131と同一の機能を有するものであり、広角カメラ110からの映像データから画像内の動きのある動領域を抽出する。例えば現在のフレームの映像とその1つ前のフレームの映像との差分を求めて動きのある動領域を抽出する。人領域抽出部922は、動領域抽出部921で抽出された動きのある動領域から、DPマッチングアルゴリズムとった、縦横比、サイズ、形状といったテンプレート情報から人領域を取得するアルゴリズムによって人領域を抽出し、そのときの人の位置情報と時刻情報を抽出する。   The moving area extraction unit 921 has the same function as the moving area extraction unit 131, and extracts a moving area with movement in the image from the video data from the wide-angle camera 110. For example, a moving region with motion is extracted by obtaining a difference between the image of the current frame and the image of the previous frame. The human region extraction unit 922 extracts a human region from the moving region extracted by the moving region extraction unit 921 by an algorithm that acquires a human region from template information such as an aspect ratio, size, and shape using a DP matching algorithm. Then, the position information and time information of the person at that time are extracted.

人物特徴量抽出部923は、人領域抽出部922によって抽出された人領域の、例えば、身長、体型の縦横比、服装の色といった人毎に区別可能な特徴量を計算する。人物追尾部924は、人物特徴量抽出部923で計算された特徴量をもつ人が広角カメラ110で撮像された画像内に存在するか否かを判別し、存在する場合は位置情報を計算する。カメラ制御部130は、人物追尾部924で計算された位置情報を基にパンチルトズーム搭載カメラ111にパン、チルト、ズーム命令を与えて、パンチルトズーム搭載カメラ111に車両搭乗者の近傍の映像を撮像可能な画角に制御する。   The person feature amount extraction unit 923 calculates a feature amount that can be distinguished for each person such as height, body shape aspect ratio, and clothing color of the human region extracted by the human region extraction unit 922. The person tracking unit 924 determines whether or not a person having the feature amount calculated by the person feature amount extraction unit 923 exists in the image captured by the wide-angle camera 110, and if it exists, calculates position information. . The camera control unit 130 gives pan, tilt, and zoom commands to the pan / tilt / zoom camera 111 based on the position information calculated by the person tracking unit 924, and captures an image of the vicinity of the vehicle occupant on the pan / tilt / zoom camera 111. Control to a possible angle of view.

なお、上記動領域抽出部131は第2の動領域抽出手段に対応する。また、動領域抽出部921は第1の動領域抽出手段に対応する。また、人領域抽出部922は人領域抽出手段に対応する。また、人物特徴量抽出部923は人物特徴量抽出手段に対応する。また、人物追尾部924は人物追尾手段に対応する。   The moving region extracting unit 131 corresponds to a second moving region extracting unit. The moving region extraction unit 921 corresponds to first moving region extraction means. The human area extracting unit 922 corresponds to a human area extracting unit. The person feature quantity extraction unit 923 corresponds to a person feature quantity extraction unit. The person tracking unit 924 corresponds to a person tracking unit.

以上のように構成された駐車車両搭乗者撮像装置900について、図13〜図15のフロー図を用いて説明する。まず、初期化として搭乗者人数を「0」に設定する(ステップS1000)。次いで、静領域抽出部121が広角カメラ110からの監視領域の映像データを取り込み(ステップS1001)、差分法や動きベクトル法等を用いて、映像データから画像内の動きのない領域即ち静領域を抽出する(ステップS1002)。監視領域から静領域を抽出した後、該静領域をバッファA122とバッファB123に格納する(ステップS1003及びS1004)。この場合、バッファA122とバッファB123に静領域を格納できる空メモリがなければ、古い情報から順次上書きをする。例えば1秒間に1枚静領域を抽出し、バッファA122には30枚静領域を格納できるとする。0〜30秒までは全ての時刻の静領域をバッファA122に格納するが、31秒には1秒目に抽出された静領域に対して上書きする。   The parked vehicle occupant imaging device 900 configured as described above will be described with reference to the flowcharts of FIGS. First, as initialization, the number of passengers is set to “0” (step S1000). Next, the static area extraction unit 121 captures the video data of the monitoring area from the wide-angle camera 110 (step S1001), and uses the difference method, the motion vector method, or the like to extract a non-motion area in the image, that is, a static area from the video data. Extract (step S1002). After extracting the static area from the monitoring area, the static area is stored in the buffer A 122 and the buffer B 123 (steps S1003 and S1004). In this case, if there is no empty memory that can store a static area in the buffer A 122 and the buffer B 123, the old information is overwritten sequentially. For example, it is assumed that one static area is extracted per second, and 30 static areas can be stored in the buffer A122. The static area at all times is stored in the buffer A122 from 0 to 30 seconds, but the static area extracted at the first second is overwritten at 31 seconds.

次に、背景選別部124がバッファA122に格納された静領域群から背景画像P1を作成する(ステップS1005)。同様に、背景選別部125がバッファB123に格納された静領域群から背景画像P2を作成する(ステップS1006)。次に、フレーム差分部126が背景画像P1と背景画像P2のフレーム差分をとり(ステップS1007)、その結果から停止している物体があるかどうか判定する(ステップS1008)。背景に物体が存在した場合は、特徴量抽出部127が、縦横比、サイズ、形状といったマッチングを行うための特徴量を計算する(ステップS1009)。次に、車パターンマッチング部128が、DPマッチング法等の縦横比、サイズ、形状といったテンプレート情報を基に任意のパターンを抽出するアルゴリズムを用いて、静領域内に車領域が存在するかマッチングを行う(ステップS1010)。そして、マッチング結果から車領域があるかどうか判定し(ステップS1011)、車領域がある場合(YESの場合)は、その車の位置情報と時刻情報を計算する(ステップS1012)。   Next, the background selection unit 124 creates a background image P1 from the static region group stored in the buffer A122 (step S1005). Similarly, the background selection unit 125 creates a background image P2 from the static region group stored in the buffer B123 (step S1006). Next, the frame difference unit 126 calculates the frame difference between the background image P1 and the background image P2 (step S1007), and determines whether there is a stopped object from the result (step S1008). If an object is present in the background, the feature quantity extraction unit 127 calculates a feature quantity for matching such as aspect ratio, size, and shape (step S1009). Next, the vehicle pattern matching unit 128 uses an algorithm that extracts an arbitrary pattern based on template information such as aspect ratio, size, and shape such as the DP matching method to match whether the vehicle region exists in the static region. This is performed (step S1010). Then, it is determined from the matching result whether there is a vehicle area (step S1011), and if there is a vehicle area (in the case of YES), the position information and time information of the vehicle are calculated (step S1012).

次に、広角カメラ110からの監視領域の映像データを動領域抽出部921が取り込み、差分法や動きベクトル法等を用いて、映像データから画像内の動きのある領域即ち動領域を検出する(ステップS1013)。次に、人領域抽出部922が、例えばDPマッチング法といった、縦横比、サイズ、形状といったテンプレート情報を基に任意のパターンを抽出するアルゴリズムも用いて、動領域内に人領域が存在するかマッチングを行い(ステップS1014)、人領域があるかどうか判定する(ステップS1015)。人領域がある場合は、検知した人領域全てにおいて、身長、体型の縦横比、服装の色といった人毎に区別可能な特徴量を計算する(ステップS1016)。そして、計算した特徴量が、車領域の位置情報周辺から新規に発生した特徴量かどうか判定する(ステップS1017)。新規に発生した特徴量である場合は、この人領域は車から降車した人物であると判断し、搭乗者人数を1増加させ、搭乗者特徴量として保持する(ステップS1018)。   Next, the moving area extraction unit 921 takes in the video data of the monitoring area from the wide-angle camera 110, and detects a moving area in the image, that is, a moving area from the video data by using a difference method, a motion vector method, or the like ( Step S1013). Next, the human region extraction unit 922 uses an algorithm that extracts an arbitrary pattern based on template information such as aspect ratio, size, and shape, such as DP matching method, to match whether a human region exists in the moving region. (Step S1014), it is determined whether there is a human area (step S1015). If there is a human area, feature quantities that can be distinguished for each person, such as height, body shape aspect ratio, and clothing color, are calculated in all detected human areas (step S1016). Then, it is determined whether or not the calculated feature amount is a feature amount newly generated around the position information of the vehicle area (step S1017). If it is a newly generated feature quantity, it is determined that this person area is a person who gets off the car, and the number of passengers is increased by 1 and held as a passenger feature quantity (step S1018).

次に、人物追尾部924が、ステップS1016で計算された特徴量内に同値の搭乗者特徴量が存在するか調べ、同値の値が存在する場合は同値の特徴量が搭乗者であると判断し、位置情報を計算する(ステップS1019)。次いで、カメラ制御部130が、人物追尾部924で計算された位置情報にパンチルトズーム命令をパンチルトズーム搭載カメラ111に送信し(ステップS1020)、パンチルトズーム搭載カメラ111から搭乗者の近傍の映像が撮像される。また、駐車時間判別部129が、車パターンマッチング部128が取得した車領域と位置情報から、その車が何分変化していないか駐車時間情報を計算する。   Next, the person tracking unit 924 checks whether there is an equivalent passenger feature amount in the feature amount calculated in step S1016. If the equivalent value exists, the person tracking unit 924 determines that the equivalent feature amount is the passenger. Then, position information is calculated (step S1019). Next, the camera control unit 130 transmits a pan / tilt / zoom command to the position information calculated by the person tracking unit 924 to the pan / tilt / zoom camera 111 (step S1020), and an image of the vicinity of the passenger is captured from the pan / tilt / zoom camera 111. Is done. In addition, the parking time determination unit 129 calculates parking time information based on the vehicle area and position information acquired by the vehicle pattern matching unit 128 to determine how much the vehicle has changed.

次に、パンチルトズーム搭載カメラ111からの人領域近傍の映像データを動領域抽出部131が取り込み、差分法や動きベクトル法等用いて動きのある動領域が検出される(ステップS1021)。例えば、差分法を用いる場合、動領域抽出部131は、現在のフレームの映像と現在のフレームの1つ前のフレームの映像との差分を求めて、監視領域から動きのある領域を検出する。   Next, the moving region extraction unit 131 takes in video data in the vicinity of the human region from the camera 111 equipped with pan / tilt / zoom, and detects a moving region in motion using a difference method, a motion vector method, or the like (step S1021). For example, when using the difference method, the moving region extraction unit 131 obtains a difference between the current frame image and the previous frame image, and detects a moving region from the monitoring region.

次に、顔領域抽出部132が、例えば楕円ハフアルゴリズムを用いて、動き領域内に顔領域が存在するかマッチングを行う(ステップS1022)。マッチングすれば、顔画像を記録部150に保存する(ステップS1023)。搭乗者特徴量を持った人領域が広角カメラ111の画角外に移動しても駐車車両が移動するまでマッチング、顔画像保存を行う。   Next, the face area extraction unit 132 performs matching to determine whether a face area exists in the motion area using, for example, an elliptical Hough algorithm (step S1022). If matching is performed, the face image is stored in the recording unit 150 (step S1023). Even if the person region having the passenger feature amount moves outside the angle of view of the wide-angle camera 111, matching and face image storage are performed until the parked vehicle moves.

車が発進し、広角カメラ110の画角外に移動したことで車領域がマッチングできなかった場合、ステップS1011で車領域なしと判断されるので、駐車時間判別部129が、車パターンマッチング部128で取得した位置情報と時刻情報から、その車が何分変化していないか時間を計算する。駐車時間判別部129が計算した時間が、一般的な駐車時間未満である場合、駐車車両ではなく停車車両であると判断し、ステップS1024からステップS1025に進み、画像消去部134が、位置情報と時刻情報からその停車車両で撮像された全顔画像を削除する。全顔画像の削除後、位置情報と時刻情報を削除する(ステップS1026)。   If the vehicle area cannot be matched because the vehicle has started and moved out of the angle of view of the wide-angle camera 110, it is determined in step S1011 that there is no vehicle area. Therefore, the parking time determination unit 129 includes the vehicle pattern matching unit 128. From the position information and time information acquired in step 1, the time is calculated for how many minutes the vehicle has not changed. When the time calculated by the parking time determination unit 129 is less than the general parking time, the parking time determination unit 129 determines that the parking vehicle is not a parked vehicle, and proceeds from step S1024 to step S1025. All face images captured by the stopped vehicle are deleted from the time information. After deleting all the face images, the position information and time information are deleted (step S1026).

これに対して、駐車時間判別部129が計算された時間が一般的な駐車時間以上である場合、駐車車両であると判断されるので、ベストショット判別部133が、記録部150に格納された顔画像から所定の比較基準に基づいて比較し、ベストショット画像を選択する(ステップS1027)。この場合、ベストショットの比較基準において、例えば顔映像のコントラスト、顔映像サイズ及び顔方向情報の3つのベストショットを判別基準とした場合、抽出された顔映像を要素毎にスコア化し、スコア化したものに所定の重み係数を乗じて顔映像の総合スコアを算出する。現在のフレームから抽出した顔画像と、過去のフレームで抽出した顔映像とを総合スコアでフレーム毎に順次比較し、総合スコアが最も大きいものをベストショットとする。それ以外の画像は、画像消去部134が削除する(ステップS1028)。   On the other hand, when the time calculated by the parking time determination unit 129 is equal to or longer than a general parking time, it is determined that the vehicle is a parked vehicle, so the best shot determination unit 133 is stored in the recording unit 150. The face image is compared based on a predetermined comparison criterion, and the best shot image is selected (step S1027). In this case, in the best shot comparison criterion, for example, when the three best shots of the contrast of the face image, the face image size, and the face direction information are used as the discrimination criterion, the extracted face image is scored for each element and scored. The total score of the face image is calculated by multiplying the object by a predetermined weighting factor. The face image extracted from the current frame and the face image extracted in the past frame are sequentially compared for each frame by the total score, and the one having the highest total score is determined as the best shot. Other images are deleted by the image erasure unit 134 (step S1028).

このように本実施の形態に係る駐車車両搭乗者撮像装置900によれば、動領域抽出部921と人領域抽出部922で広角カメラ110内の人領域を抽出し、人物特徴量抽出部923と人物追跡部924で搭乗者を追尾し位置情報を取得するので、降車時、乗車時からベストショット顔画像を取得することができ、より鮮明な駐車車両搭乗者のベストショット画像を記録することができる。   As described above, according to the parked vehicle occupant imaging device 900 according to the present embodiment, the moving region extracting unit 921 and the human region extracting unit 922 extract the human region in the wide-angle camera 110, and the person feature amount extracting unit 923 Since the person tracking unit 924 tracks the passenger and acquires the position information, the best shot face image can be acquired from the time of getting off and at the time of getting on, and the clearer best shot image of the parked vehicle passenger can be recorded. it can.

なお、本実施の形態において、上述した実施の形態4に係る駐車車両搭乗者撮像装置700と同様の手段即ち予め登録してある顔データベース内にある顔と新たに取得した不法駐車搭乗者の顔とのマッチングを行い、適合した場合にアラームを発報する手段を追加しても構わない。   In the present embodiment, the same means as in the parked vehicle occupant imaging device 700 according to the above-described fourth embodiment, that is, the face in the face database registered in advance and the newly acquired face of the illegally parked occupant It is also possible to add a means for issuing an alarm when matching is performed.

本発明は、記録装置として大容量のものを使用しなくても効率的な使用を可能とし、更に記録した映像から駐車車両の搭乗者を容易に見つけ出すことができるといった効果を有し、監視カメラで駐車車両や搭乗者を監視記録する駐車車両搭乗者撮像装置などへの適用が可能である。   The present invention has an effect that enables efficient use without using a large-capacity recording device, and can easily find out the occupant of the parked vehicle from the recorded image. Thus, the present invention can be applied to a parked vehicle occupant imaging device that monitors and records parked vehicles and occupants.

本発明の実施の形態1に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図The block diagram which shows schematic structure of the parked vehicle passenger imaging device which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る駐車車両搭乗者撮像装置における広角カメラとパンチルトズーム搭載カメラと監視制御記録装置と車両と該車両の運転手との位置関係の一例を示す図The figure which shows an example of the positional relationship of the wide angle camera, the camera equipped with pan tilt zoom, the monitoring control recording device, the vehicle, and the driver of the vehicle in the parked vehicle occupant imaging device according to Embodiment 1 of the present invention. 本発明の実施の形態1に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図The flowchart for operation | movement description of the parked vehicle passenger imaging device which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図The flowchart for operation | movement description of the parked vehicle passenger imaging device which concerns on Embodiment 1 of this invention. 本発明の実施の形態2に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図The block diagram which shows schematic structure of the parked vehicle passenger imaging device which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図Flow chart for explaining the operation of the parked vehicle occupant imaging device according to the second embodiment of the present invention. 本発明の実施の形態2に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図Flow chart for explaining the operation of the parked vehicle occupant imaging device according to the second embodiment of the present invention. 本発明の実施の形態3に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図The block diagram which shows schematic structure of the parked vehicle passenger imaging device which concerns on Embodiment 3 of this invention. 本発明の実施の形態3に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図The flowchart for operation | movement description of the parked vehicle passenger imaging device which concerns on Embodiment 3 of this invention. 本発明の実施の形態4に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図The block diagram which shows schematic structure of the parked vehicle passenger imaging device which concerns on Embodiment 4 of this invention. 本発明の実施の形態4に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図The flowchart for operation | movement description of the parked vehicle passenger imaging device which concerns on Embodiment 4 of this invention. 本発明の実施の形態5に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図The block diagram which shows schematic structure of the parked vehicle passenger imaging device which concerns on Embodiment 5 of this invention. 本発明の実施の形態5に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図Flowchart for explaining operation of parked vehicle occupant imaging device according to embodiment 5 of the present invention 本発明の実施の形態5に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図Flowchart for explaining operation of parked vehicle occupant imaging device according to embodiment 5 of the present invention 本発明の実施の形態5に係る駐車車両搭乗者撮像装置の動作説明のためのフロー図Flowchart for explaining operation of parked vehicle occupant imaging device according to embodiment 5 of the present invention

符号の説明Explanation of symbols

100、300、500、700、900 駐車車両搭乗者撮像装置
110 広角カメラ
111 パンチルトズーム搭載カメラ
112、113、114、115、116 監視制御記録装置
121 静領域抽出部
122 バッファA
123 バッファB
124、125 背景選別部
126 フレーム差分部
127 特徴量抽出部
128、322 車パターンマッチング部
129 駐車時間判別部
130 カメラ制御部
131 動領域抽出部
132 顔領域抽出部
133 ベストショット判別部
134 画像消去部
150 記録部
321 フレームレート制御部
521 車画像格納部
522 車画像制御部
721 顔データベース
722 顔検索部
723 アラーム出力部
921 動領域抽出部
922 人領域抽出部
923 人物特徴量抽出部
924 人物追尾部
100, 300, 500, 700, 900 Parked vehicle occupant imaging device 110 Wide-angle camera 111 Camera with pan / tilt zoom 112, 113, 114, 115, 116 Monitoring control recording device 121 Static region extraction unit 122 Buffer A
123 Buffer B
124, 125 Background selection unit 126 Frame difference unit 127 Feature amount extraction unit 128, 322 Car pattern matching unit 129 Parking time determination unit 130 Camera control unit 131 Moving region extraction unit 132 Face region extraction unit 133 Best shot determination unit 134 Image erasure unit DESCRIPTION OF SYMBOLS 150 Recording part 321 Frame rate control part 521 Car image storage part 522 Car image control part 721 Face database 722 Face search part 723 Alarm output part 921 Dynamic area extraction part 922 Human area extraction part 923 Person feature-value extraction part 924 Person tracking part

Claims (6)

監視領域に向けて配置される第1の撮像手段と、
外部からの命令に従って撮影範囲を変える第2の撮像手段と、
前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、
前記静領域抽出手段で抽出された前記監視領域映像情報の静領域から背景の変化を検出する背景変化検出手段と、
前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が車両であるかどうか判別し、車両と判断した場合はその車両の位置情報と時刻情報を計算する車パターンマッチング手段と、
前記車パターンマッチング手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者を撮像可能にするカメラ制御手段と、
前記第2の撮像手段からの映像情報から動きのある動領域を抽出する動領域抽出手段と、
画像を記録するための記録手段と、
前記動領域抽出手段で抽出された動領域内から顔領域を抽出して前記記録手段に記録する顔領域抽出手段と、
前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間以上である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像のうち判定基準に最も適合するベストショットを判別し、ベストショットと判別した画像のみを前記記録手段に記録するベストショット判別手段と、
を備える駐車車両搭乗者撮像装置。
First imaging means arranged toward the monitoring area;
A second imaging means for changing the imaging range in accordance with an external command;
A static area extracting means for extracting a static area having no motion in the image from the monitoring area video information from the first imaging means;
Background change detection means for detecting a change in background from the static area of the monitoring area video information extracted by the static area extraction means;
A feature amount extracting means for extracting a feature amount of a region in which the background is changed when a background change is detected by the background change detecting means;
Performs pattern matching between the feature quantity extracted by the feature quantity extraction means and a vehicle template, determines whether the feature quantity is a vehicle, and if it is a vehicle, calculates position information and time information of the vehicle Vehicle pattern matching means,
Camera control means for giving an instruction to the second imaging means based on the position information calculated by the vehicle pattern matching means, and enabling the second imaging means to image a passenger of the vehicle;
Moving area extracting means for extracting a moving area having movement from the video information from the second imaging means;
Recording means for recording an image;
A face area extracting means for extracting a face area from the moving area extracted by the moving area extracting means and recording it in the recording means;
A parking time determination means for calculating time without movement from the position information and time information of the vehicle calculated by the vehicle pattern matching means;
When the time calculated by the parking time determination unit is less than a preset parking time, an image erasing unit that deletes the entire face image captured by the second imaging unit and recorded in the recording unit;
When the time calculated by the parking time determination unit is equal to or more than a preset parking time, the best match among the all face images captured by the second imaging unit and recorded in the recording unit Best shot discriminating means for discriminating the best shot and recording only the image discriminated as the best shot in the recording means;
A parking vehicle occupant imaging device.
監視領域に向けて配置される第1の撮像手段と、
外部からの命令に従って撮影範囲を変える第2の撮像手段と、
前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、
前記静領域抽出手段で抽出された前記監視領域映像の複数の静領域から背景を求める背景変化検出手段と、
前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が車両であるかどうか判別し、車両と判断した場合はその車両の位置情報と時刻情報を計算する車パターンマッチング手段と、
前記監視領域映像情報から画像内の動きのある動領域を抽出する第1の動領域抽出手段と、
前記第1の動領域抽出手段で抽出された動領域内から人領域を抽出し、抽出した人領域の位置情報と時刻情報を計算する人領域抽出手段と、
前記人領域抽出手段で抽出された人領域の特徴量を計算する人物特徴量抽出手段と、
前記人物特徴量抽出手段で計算された特徴量をもつ人が前記監視領域映像情報内に存在するか否かを判別し、存在する場合は位置情報を計算する人物追尾手段と、
前記人物追尾手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者の近傍の映像を撮像可能に制御するカメラ制御手段と、
前記第2の撮像手段からの映像情報から画像内の動きのある動領域を抽出する第2の動領域抽出手段と、
画像を記録するための記録手段と、
前記第2の動領域抽出手段で抽出された動領域内から顔領域を抽出して前記記録手段に記録する顔領域抽出手段と、
前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間以上である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像のうち判定基準に最も適合するベストショットを判別し、ベストショットと判別した画像のみを前記記録手段に記録するベストショット判別手段と、
を備える駐車車両搭乗者撮像装置。
First imaging means arranged toward the monitoring area;
A second imaging means for changing the imaging range in accordance with an external command;
A static area extracting means for extracting a static area having no motion in the image from the monitoring area video information from the first imaging means;
Background change detecting means for obtaining a background from a plurality of static areas of the monitoring area video extracted by the static area extracting means;
A feature amount extracting means for extracting a feature amount of a region in which the background is changed when a background change is detected by the background change detecting means;
Performs pattern matching between the feature quantity extracted by the feature quantity extraction means and a vehicle template, determines whether the feature quantity is a vehicle, and if it is a vehicle, calculates position information and time information of the vehicle Vehicle pattern matching means,
First moving area extracting means for extracting a moving area having movement in an image from the monitoring area video information;
A human area extracting means for extracting a human area from the moving area extracted by the first moving area extracting means and calculating position information and time information of the extracted human area;
Human feature quantity extraction means for calculating the feature quantity of the human area extracted by the human area extraction means;
A person tracking unit that determines whether or not a person having the feature amount calculated by the person feature amount extraction unit exists in the monitoring area video information, and if there is a person tracking unit that calculates position information;
Camera control for giving an instruction to the second imaging unit based on the position information calculated by the person tracking unit and controlling the second imaging unit so that an image of the vicinity of the occupant of the vehicle can be captured. Means,
Second moving area extracting means for extracting a moving area having movement in an image from video information from the second imaging means;
Recording means for recording an image;
A face area extracting means for extracting a face area from the moving area extracted by the second moving area extracting means and recording it in the recording means;
A parking time determination means for calculating time without movement from the position information and time information of the vehicle calculated by the vehicle pattern matching means;
When the time calculated by the parking time determination unit is less than a preset parking time, an image erasing unit that deletes the entire face image captured by the second imaging unit and recorded in the recording unit;
When the time calculated by the parking time determination unit is equal to or more than a preset parking time, the best match among the all face images captured by the second imaging unit and recorded in the recording unit Best shot discriminating means for discriminating the best shot and recording only the image discriminated as the best shot in the recording means;
A parking vehicle occupant imaging device.
前記ベストショット判別手段でベストショット画像が選択された時刻において前記第1の撮像手段にて撮像された駐車領域の画像を前記記録手段に記録する車画像制御手段を備える請求項1又は請求項2に記載の駐車車両搭乗者撮像装置。   The vehicle image control means which records the image of the parking area imaged by the said 1st imaging means in the said recording means at the time when the best shot image was selected by the said best shot discrimination means. The parked vehicle occupant imaging device described in 1. 監視領域に向けて配置される第1の撮像手段と、
外部からの命令に従って撮影範囲を変える第2の撮像手段と、
前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、
前記静領域抽出手段で抽出された前記監視領域映像情報の複数の静領域から背景を求める背景変化検出手段と、
前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、
画像を記録するための記録手段と、
前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が、車両と判断した場合はその車両の位置情報と時刻情報を計算すると共に高フレームレートのフレームレート制御命令を出力し、車両と判断した後、車両と判断できなくなると低フレームレートのフレームレート制御命令を出力する車パターンマッチング手段と、
前記車パターンマッチング手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者の顔画像が撮像可能に制御するカメラ制御手段と、
前記車パターンマッチング手段からのフレームレート設定命令に従う時間間隔で前記第2の撮像手段からの映像データを取り込み前記記録手段に録画するフレームレート制御手段と、
前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、
を備える駐車車両搭乗者撮像装置。
First imaging means arranged toward the monitoring area;
A second imaging means for changing the imaging range in accordance with an external command;
A static area extracting means for extracting a static area having no motion in the image from the monitoring area video information from the first imaging means;
A background change detecting means for obtaining a background from a plurality of static areas of the monitoring area video information extracted by the static area extracting means;
Feature amount extracting means for extracting a feature amount of a region where the background is changed when a background change is detected by the background change detecting means;
Recording means for recording an image;
Pattern matching between the feature quantity extracted by the feature quantity extraction means and a car template is performed, and when the feature quantity is determined to be a vehicle, position information and time information of the vehicle are calculated and a frame with a high frame rate is calculated. Vehicle pattern matching means for outputting a frame rate control command at a low frame rate when it is determined that the vehicle is not available after outputting a rate control command and being a vehicle;
Camera control for giving a command to the second imaging unit based on the position information calculated by the vehicle pattern matching unit and controlling the second imaging unit so that a face image of a passenger of the vehicle can be captured Means,
Frame rate control means for capturing video data from the second imaging means at a time interval according to a frame rate setting command from the vehicle pattern matching means and recording the video data on the recording means;
A parking time determination means for calculating time without movement from the position information and time information of the vehicle calculated by the vehicle pattern matching means;
When the time calculated by the parking time determination unit is less than a preset parking time, an image erasing unit that deletes the entire face image captured by the second imaging unit and recorded in the recording unit;
A parking vehicle occupant imaging device.
複数の顔データを蓄積した顔データ蓄積手段と、
アラームを発報するアラーム出力手段と、
前記顔データ蓄積手段内にある顔と新たに取得した不法駐車搭乗者の顔とのマッチングを行い、適合した場合に前記アラーム出力手段を動作させる顔検索手段と、
を備える請求項1乃至請求項4のいずれかに記載の駐車車両搭乗者撮像装置。
Face data storage means for storing a plurality of face data;
An alarm output means for issuing an alarm;
A face search unit that performs matching between a face in the face data storage unit and a newly acquired illegally parked passenger's face, and activates the alarm output unit when it matches,
The parked vehicle occupant imaging device according to any one of claims 1 to 4.
前記顔検索手段は、前記顔データ蓄積手段内にある顔と新たに取得した不法駐車搭乗者の顔がマッチングした場合にネットワークを介して集中サーバに配信する請求項5に記載の駐車車両搭乗者撮像装置。   6. The parked vehicle occupant according to claim 5, wherein when the face in the face data storage unit matches a newly acquired face of an illegally parked occupant, the face search unit distributes the face to the centralized server via a network. Imaging device.
JP2005325959A 2005-11-10 2005-11-10 Device for imaging person in parked vehicle Withdrawn JP2007134948A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005325959A JP2007134948A (en) 2005-11-10 2005-11-10 Device for imaging person in parked vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005325959A JP2007134948A (en) 2005-11-10 2005-11-10 Device for imaging person in parked vehicle

Publications (1)

Publication Number Publication Date
JP2007134948A true JP2007134948A (en) 2007-05-31

Family

ID=38156251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005325959A Withdrawn JP2007134948A (en) 2005-11-10 2005-11-10 Device for imaging person in parked vehicle

Country Status (1)

Country Link
JP (1) JP2007134948A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1978524A2 (en) 2007-04-04 2008-10-08 Sony Corporation Image recording device, player device, imaging device, player system, method of recording image, and computer program
WO2016009637A1 (en) * 2014-07-17 2016-01-21 パナソニックIpマネジメント株式会社 Recognition data generation device, image recognition device, and recognition data generation method
US9762951B2 (en) 2013-07-30 2017-09-12 Panasonic Intellectual Property Management Co., Ltd. Video reception device, added-information display method, and added-information display system
US9774924B2 (en) 2014-03-26 2017-09-26 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method and additional information display system
US9900650B2 (en) 2013-09-04 2018-02-20 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and additional information display system
US9906843B2 (en) 2013-09-04 2018-02-27 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and display system for providing additional information to be superimposed on displayed image
US9955103B2 (en) 2013-07-26 2018-04-24 Panasonic Intellectual Property Management Co., Ltd. Video receiving device, appended information display method, and appended information display system
CN108856624A (en) * 2018-07-17 2018-11-23 日照德信机械制造有限公司 A kind of die forging hot forging ejection cylinder
US10194216B2 (en) 2014-03-26 2019-01-29 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and additional information display system
US10200765B2 (en) 2014-08-21 2019-02-05 Panasonic Intellectual Property Management Co., Ltd. Content identification apparatus and content identification method
JP2021184535A (en) * 2020-05-21 2021-12-02 株式会社エクサウィザーズ Image capture device
JP2022033234A (en) * 2017-10-06 2022-02-28 パナソニックIpマネジメント株式会社 refrigerator
CN114979463A (en) * 2022-04-12 2022-08-30 北京卡普拉科技有限公司 Intelligent parking recording method and device, storage medium and equipment
JP7459916B2 (en) 2019-03-27 2024-04-02 日本電気株式会社 Object tracking method, object tracking device, and program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1978524A2 (en) 2007-04-04 2008-10-08 Sony Corporation Image recording device, player device, imaging device, player system, method of recording image, and computer program
US9955103B2 (en) 2013-07-26 2018-04-24 Panasonic Intellectual Property Management Co., Ltd. Video receiving device, appended information display method, and appended information display system
US9762951B2 (en) 2013-07-30 2017-09-12 Panasonic Intellectual Property Management Co., Ltd. Video reception device, added-information display method, and added-information display system
US9900650B2 (en) 2013-09-04 2018-02-20 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and additional information display system
US9906843B2 (en) 2013-09-04 2018-02-27 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and display system for providing additional information to be superimposed on displayed image
US9906844B2 (en) 2014-03-26 2018-02-27 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method and additional information display system
US9774924B2 (en) 2014-03-26 2017-09-26 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method and additional information display system
US10194216B2 (en) 2014-03-26 2019-01-29 Panasonic Intellectual Property Management Co., Ltd. Video reception device, video recognition method, and additional information display system
JPWO2016009637A1 (en) * 2014-07-17 2017-04-27 パナソニックIpマネジメント株式会社 Recognition data generation device, image recognition device, and recognition data generation method
CN106233747A (en) * 2014-07-17 2016-12-14 松下知识产权经营株式会社 Identification Data generating means, image identification device and Identification Data generate method
WO2016009637A1 (en) * 2014-07-17 2016-01-21 パナソニックIpマネジメント株式会社 Recognition data generation device, image recognition device, and recognition data generation method
CN106233747B (en) * 2014-07-17 2019-07-09 松下知识产权经营株式会社 Identification Data generating means and method, image identification device and recording medium
US10616613B2 (en) 2014-07-17 2020-04-07 Panasonic Intellectual Property Management Co., Ltd. Recognition data generation device, image recognition device, and recognition data generation method
US10200765B2 (en) 2014-08-21 2019-02-05 Panasonic Intellectual Property Management Co., Ltd. Content identification apparatus and content identification method
JP2022033234A (en) * 2017-10-06 2022-02-28 パナソニックIpマネジメント株式会社 refrigerator
JP7289083B2 (en) 2017-10-06 2023-06-09 パナソニックIpマネジメント株式会社 refrigerator
CN108856624A (en) * 2018-07-17 2018-11-23 日照德信机械制造有限公司 A kind of die forging hot forging ejection cylinder
JP7459916B2 (en) 2019-03-27 2024-04-02 日本電気株式会社 Object tracking method, object tracking device, and program
JP2021184535A (en) * 2020-05-21 2021-12-02 株式会社エクサウィザーズ Image capture device
CN114979463A (en) * 2022-04-12 2022-08-30 北京卡普拉科技有限公司 Intelligent parking recording method and device, storage medium and equipment
CN114979463B (en) * 2022-04-12 2023-08-08 北京卡普拉科技有限公司 Intelligent parking recording method, device, storage medium and equipment

Similar Documents

Publication Publication Date Title
JP2007134948A (en) Device for imaging person in parked vehicle
EP2372654B1 (en) Object tracking apparatus, object tracking method, and control program
EP1894142B1 (en) Target detection and tracking from overhead video streams
JP4568009B2 (en) Monitoring device with camera cooperation
US20160086038A1 (en) Automatic extraction of secondary video streams
EP3043555B1 (en) Image storage method and device thereof
JP5106302B2 (en) Moving object tracking device
JP4996404B2 (en) Human behavior search device
WO2004004320A1 (en) Digital processing of video images
US20200145623A1 (en) Method and System for Initiating a Video Stream
JP6979041B2 (en) Methods and systems for recording privacy-enabled data
CN1656502A (en) Method and apparatus for automatic face blurring
JP2003284053A (en) Monitoring camera system and monitoring camera control device
JP2007249841A (en) Image recognition device
JP6013923B2 (en) System and method for browsing and searching for video episodes
JP4852355B2 (en) Abandoned object detection device and abandoned object detection method
JP2005173787A (en) Image processor detecting/recognizing moving body
JP4618062B2 (en) Monitoring device, monitoring system, and monitoring method
JP4617286B2 (en) Unauthorized passing person detection device and unauthorized passing person recording system using the same
KR101468117B1 (en) Intelligent image monitoring method and apparatus thereof
US20120189161A1 (en) Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
JP5159390B2 (en) Object detection method and apparatus
KR101904425B1 (en) Method for searching object data for analyzing large amounts of CCTV video
JP2008182459A (en) Passage monitoring system
KR20210060275A (en) Parking management system using image analysis based vehicle object recognition and tracking

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071113

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071120

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090203