JP2007134948A - Device for imaging person in parked vehicle - Google Patents
Device for imaging person in parked vehicle Download PDFInfo
- Publication number
- JP2007134948A JP2007134948A JP2005325959A JP2005325959A JP2007134948A JP 2007134948 A JP2007134948 A JP 2007134948A JP 2005325959 A JP2005325959 A JP 2005325959A JP 2005325959 A JP2005325959 A JP 2005325959A JP 2007134948 A JP2007134948 A JP 2007134948A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- area
- unit
- image
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、監視カメラで駐車車両や搭乗者を監視記録する駐車車両搭乗者撮像装置に関する。 The present invention relates to a parked vehicle occupant imaging device that monitors and records parked vehicles and passengers with a surveillance camera.
従来、監視カメラで駐車車両や搭乗者を監視記録する監視記録装置が開発されている(例えば、特許文献1参照)。特許文献1で開示されている監視記録装置は、広角カメラで駐車車両を探し出し、パンチルトズーム搭載カメラで搭乗者を監視するようにしている。
2. Description of the Related Art Conventionally, a monitoring recording device that monitors and records parked vehicles and passengers with a monitoring camera has been developed (see, for example, Patent Document 1). The monitoring and recording apparatus disclosed in
駐車車両は、路肩のどの部分に駐車するか分からないため、まず広角カメラで駐車車両の位置情報を検知し、検知した位置情報からパンチルトズーム搭載カメラを駐車車両近辺にパンチルトズームする。そして、搭乗者が車両に戻ってきたときに、その搭乗者をパンチルトズーム搭載カメラで撮像することにより、より鮮明に搭乗者を撮像することが可能となる。 Since the parked vehicle does not know which part of the road is parked, the position information of the parked vehicle is first detected by the wide-angle camera, and the pan / tilt zoom camera is pan / tilt zoomed to the vicinity of the parked vehicle from the detected position information. When the occupant returns to the vehicle, the occupant can be captured more clearly by capturing the occupant with the pan / tilt / zoom camera.
しかしながら、従来の監視記録装置においては、駐車車両の搭乗者がいつ車両に戻ってくるか分からないため、常に撮像し続けなければならず、HDD(Hard Disk Drive)等の記録装置の資源枯渇が著しく、大容量の記録装置を必要とし、その分、コスト高になる問題がある。また、長時間録画した映像から駐車車両の搭乗者を見つけ出す作業が必要であり、作業効率が悪いという問題もある。 However, in the conventional monitoring and recording device, since it is not known when the passenger of the parked vehicle returns to the vehicle, it is necessary to continuously take an image, and the resource of the recording device such as an HDD (Hard Disk Drive) is depleted. There is a problem that a remarkably large-capacity recording apparatus is required and the cost is increased accordingly. In addition, there is a problem that work efficiency is poor because it is necessary to find a passenger of the parked vehicle from the video recorded for a long time.
本発明は、係る事情に鑑みてなされたものであり、記録装置として大容量のものを使用しなくても効率的な使用を可能とし、更に記録した映像から駐車車両の搭乗者を容易に見つけ出すことができる駐車車両搭乗者撮像装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and enables efficient use without using a large-capacity recording device, and easily finds a occupant of a parked vehicle from the recorded video. It is an object of the present invention to provide a parked vehicle occupant imaging device.
上記目的は下記構成により達成される。
(1) 監視領域に向けて配置される第1の撮像手段と、外部からの命令に従って撮影範囲を変える第2の撮像手段と、前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、前記静領域抽出手段で抽出された前記監視領域映像情報の静領域から背景の変化を検出する背景変化検出手段と、前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が車両であるかどうか判別し、車両と判断した場合はその車両の位置情報と時刻情報を計算する車パターンマッチング手段と、前記車パターンマッチング手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者を撮像可能にするカメラ制御手段と、前記第2の撮像手段からの映像情報から動きのある動領域を抽出する動領域抽出手段と、画像を記録するための記録手段と、前記動領域抽出手段で抽出された動領域内から顔領域を抽出して前記記録手段に記録する顔領域抽出手段と、前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間以上である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像のうち判定基準に最も適合するベストショットを判別し、ベストショットと判別した画像のみを前記記録手段に記録するベストショット判別手段と、を備える。
The above object is achieved by the following configuration.
(1) a first imaging means arranged toward the monitoring area, a second imaging means for changing the imaging range in accordance with an instruction from the outside, and monitoring area video information from the first imaging means, A static region extracting means for extracting a static region having no motion, a background change detecting means for detecting a background change from the static region of the monitoring region video information extracted by the static region extracting means, and a background change detecting means. When a change in the background is detected, a feature amount extraction unit that extracts a feature amount of the region where the background is changing, and a pattern matching between the feature amount extracted by the feature amount extraction unit and the car template To determine whether the feature quantity is a vehicle. If the feature amount is determined to be a vehicle, the vehicle pattern matching means for calculating the position information and time information of the vehicle is calculated by the vehicle pattern matching means. A camera control means for giving a command to the second imaging means based on the position information and enabling the second imaging means to take an image of a vehicle occupant; and from the second imaging means A moving area extracting means for extracting a moving area with motion from video information, a recording means for recording an image, and a face area extracted from the moving area extracted by the moving area extracting means to the recording means A face area extracting means for recording; a parking time determining means for calculating a time without movement from the vehicle position information and time information calculated by the vehicle pattern matching means; and a time calculated by the parking time determining means. When it is less than a preset parking time, an image erasing unit that deletes all face images captured by the second imaging unit and recorded in the recording unit, and a time calculated by the parking time determination unit Preset If it is longer than the parking time, the best shot that best matches the criteria is determined from all the face images captured by the second imaging means and recorded in the recording means. Best shot discriminating means for recording in the recording means.
(2) 監視領域に向けて配置される第1の撮像手段と、外部からの命令に従って撮影範囲を変える第2の撮像手段と、前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、前記静領域抽出手段で抽出された前記監視領域映像の複数の静領域から背景を求める背景変化検出手段と、前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が車両であるかどうか判別し、車両と判断した場合はその車両の位置情報と時刻情報を計算する車パターンマッチング手段と、前記監視領域映像情報から画像内の動きのある動領域を抽出する第1の動領域抽出手段と、前記第1の動領域抽出手段で抽出された動領域内から人領域を抽出し、抽出した人領域の位置情報と時刻情報を計算する人領域抽出手段と、前記人領域抽出手段で抽出された人領域の特徴量を計算する人物特徴量抽出手段と、前記人物特徴量抽出手段で計算された特徴量をもつ人が前記監視領域映像情報内に存在するか否かを判別し、存在する場合は位置情報を計算する人物追尾手段と、前記人物追尾手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者の近傍の映像を撮像可能に制御するカメラ制御手段と、前記第2の撮像手段からの映像情報から画像内の動きのある動領域を抽出する第2の動領域抽出手段と、画像を記録するための記録手段と、前記第2の動領域抽出手段で抽出された動領域内から顔領域を抽出して前記記録手段に記録する顔領域抽出手段と、前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間以上である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像のうち判定基準に最も適合するベストショットを判別し、ベストショットと判別した画像のみを前記記録手段に記録するベストショット判別手段と、を備える。 (2) a first imaging means arranged toward the monitoring area, a second imaging means for changing the imaging range in accordance with an instruction from the outside, and the monitoring area video information from the first imaging means from within the image A static area extracting means for extracting a static area without movement, a background change detecting means for obtaining a background from a plurality of static areas of the monitoring area video extracted by the static area extracting means, and a background by the background change detecting means When a change is detected, a feature amount extraction unit that extracts a feature amount of the area where the background changes, and a pattern matching between the feature amount extracted by the feature amount extraction unit and the car template is performed. Determining whether the feature amount is a vehicle, and if it is determined to be a vehicle, vehicle pattern matching means for calculating position information and time information of the vehicle; A first moving area extracting means for extracting a moving area; and a person who extracts a human area from the moving area extracted by the first moving area extracting means and calculates position information and time information of the extracted human area. An area extracting means; a person feature amount extracting means for calculating a feature amount of the person area extracted by the person area extracting means; and a person having the feature amount calculated by the person feature amount extracting means And if there is a person tracking means for calculating position information, and giving a command to the second imaging means based on the position information calculated by the person tracking means. The camera control means for controlling the second imaging means so as to be able to take an image of the vicinity of the occupant of the vehicle, and a moving region having a motion in the image is extracted from the video information from the second imaging means. Second moving region extracting means and for recording an image Recording means, a face area extracting means for extracting a face area from the moving area extracted by the second moving area extracting means and recording it in the recording means, and the vehicle calculated by the vehicle pattern matching means Parking time determining means for calculating a time without movement from the position information and time information of the vehicle, and when the time calculated by the parking time determining means is less than a preset parking time, the second imaging means When the time calculated by the parking time determination means is equal to or longer than a preset parking time, the second image pickup means deletes the entire face image that has been captured and recorded in the recording means. Best shot discriminating means for discriminating the best shot that best matches the judgment criteria among all the face images that have been picked up and recorded in the recording means, and that records only the image discriminated as the best shot in the recording means , Comprising a.
(3) 上記(1)又は(2)に記載の駐車車両搭乗者撮像装置において、前記ベストショット判別手段でベストショット画像が選択された時刻において前記第1の撮像手段にて撮像された駐車領域の画像を前記記録手段に記録する車画像制御手段を備える。 (3) In the parked vehicle occupant imaging device described in (1) or (2) above, the parking area captured by the first imaging unit at the time when the best shot image is selected by the best shot discrimination unit Vehicle image control means for recording the image in the recording means.
(4) 監視領域に向けて配置される第1の撮像手段と、外部からの命令に従って撮影範囲を変える第2の撮像手段と、前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、前記静領域抽出手段で抽出された前記監視領域映像情報の複数の静領域から背景を求める背景変化検出手段と、前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、画像を記録するための記録手段と、前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が、車両と判断した場合はその車両の位置情報と時刻情報を計算すると共に高フレームレートのフレームレート制御命令を出力し、車両と判断した後、車両と判断できなくなると低フレームレートのフレームレート制御命令を出力する車パターンマッチング手段と、前記車パターンマッチング手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者の顔画像が撮像可能に制御するカメラ制御手段と、前記車パターンマッチング手段からのフレームレート設定命令に従う時間間隔で前記第2の撮像手段からの映像データを取り込み前記記録手段に録画するフレームレート制御手段と、前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、を備える。 (4) a first imaging means arranged toward the monitoring area, a second imaging means for changing the imaging range in accordance with an instruction from the outside, and monitoring area video information from the first imaging means, A static area extracting means for extracting a static area without movement, a background change detecting means for obtaining a background from a plurality of static areas of the monitoring area video information extracted by the static area extracting means, and the background change detecting means When a change in the background is detected, a feature amount extraction unit that extracts a feature amount of the region where the background changes, a recording unit for recording an image, and the feature amount extraction unit that extracts the feature amount Perform pattern matching between the feature quantity and the car template, and if the feature quantity is determined to be a vehicle, calculate the position information and time information of the vehicle and output a frame rate control command with a high frame rate, Vehicle pattern matching means for outputting a frame rate control command at a low frame rate when the vehicle cannot be determined after determining both, and the second imaging means based on the position information calculated by the vehicle pattern matching means The camera control means for controlling the second imaging means so that the face image of the passenger of the vehicle can be taken, and the second imaging means at a time interval according to a frame rate setting command from the vehicle pattern matching means. Frame rate control means for capturing video data from the image pickup means and recording it on the recording means, and parking time determination means for calculating time without motion from the vehicle position information and time information calculated by the vehicle pattern matching means And when the time calculated by the parking time determination means is less than a preset parking time, the second imaging hand Image erasing means for erasing all face images picked up in stages and recorded in the recording means.
(5) 上記(1)乃至(4)のいずれかに記載の駐車車両搭乗者撮像装置において、複数の顔データを蓄積した顔データ蓄積手段と、アラームを発報するアラーム出力手段と、前記顔データ蓄積手段内にある顔と新たに取得した不法駐車搭乗者の顔とのマッチングを行い、適合した場合に前記アラーム出力手段を動作させる顔検索手段と、を備える。 (5) In the parked vehicle occupant imaging device described in any of (1) to (4) above, face data storage means for storing a plurality of face data, alarm output means for issuing an alarm, and the face Face search means for matching the face in the data storage means with the newly acquired face of the illegally parked passenger and operating the alarm output means when the face matches.
(6) 上記(5)に記載の駐車車両搭乗者撮像装置において、前記顔検索手段は、前記顔データ蓄積手段内にある顔と新たに取得した不法駐車搭乗者の顔がマッチングした場合にネットワークを介して集中サーバに配信する。 (6) In the parked vehicle occupant imaging device according to (5), the face search unit is configured to perform networking when a face in the face data storage unit and a newly acquired face of an illegally parked occupant are matched. To the centralized server.
上記(1)に記載の駐車車両搭乗者撮像装置では、駐車車両を認識した場合にのみ記録を行い、しかも駐車車両搭乗者の顔のなかでも判定基準に最も適合するベストショット画像のみ記録するので、駐車車両の搭乗者を監視するためのデータ量の軽減化が図れるとともに、容易に搭乗者を特定することができる。 In the parked vehicle occupant imaging device described in (1) above, recording is performed only when a parked vehicle is recognized, and only the best shot image that best meets the criteria is recorded among the parked vehicle occupant's face. In addition, the amount of data for monitoring the occupants of the parked vehicle can be reduced, and the occupants can be easily identified.
上記(2)に記載の駐車車両搭乗者撮像装置では、車両の搭乗者を追尾し位置情報を取得するので、降車時、乗車時からベストショット顔画像を取得することができ、より鮮明な駐車車両搭乗者のベストショット画像を記録することができる。 In the parked vehicle occupant imaging device described in (2) above, since the vehicle occupant is tracked and position information is acquired, the best shot face image can be acquired from the time of getting off and when the vehicle is boarded. The best shot image of the vehicle occupant can be recorded.
上記(3)に記載の駐車車両搭乗者撮像装置では、駐車車両搭乗者のベストショット画像とその駐車車両を記録することができる。 In the parked vehicle occupant imaging device described in (3) above, the best shot image of the parked vehicle occupant and the parked vehicle can be recorded.
上記(4)に記載の駐車車両搭乗者撮像装置では、駐車車両を認識した場合には第2の撮像手段より得られる動画を高フレームレートで記録し、駐車車両を認識できなくなると低フレームレートで記録するので、駐車車両の搭乗者を監視するためのデータ量の軽減化が図れるとともに、容易に搭乗者を特定することができる。 In the parked vehicle occupant imaging device described in (4) above, when the parked vehicle is recognized, the moving image obtained from the second imaging means is recorded at a high frame rate, and if the parked vehicle cannot be recognized, the low frame rate Therefore, the amount of data for monitoring the occupants of the parked vehicle can be reduced, and the occupants can be easily identified.
上記(5)に記載の駐車車両搭乗者撮像装置では、不法駐車常習者といった顔データ蓄積手段に記録された特定の人物が不法駐車したときに即座にアラームを発報するので、不法駐車常習者の検挙に寄与できる。 In the parked vehicle occupant imaging device described in (5) above, an alarm is issued immediately when a specific person recorded in the face data storage means such as an illegal parking addict is illegally parked. Can contribute to the clearance.
上記(6)に記載の駐車車両搭乗者撮像装置では、不法駐車常習者といった顔データ蓄積手段に記録された特定の人物が不法駐車したときに即座にネットワークを介して集中サーバに配信することができる。 In the parked vehicle occupant imaging device described in (6) above, when a specific person recorded in the face data storage means such as an illegal parking addict parks illegally, it can be immediately delivered to the centralized server via the network. it can.
以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments for carrying out the invention will be described in detail with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図である。同図において、本実施の形態に係る駐車車両搭乗者撮像装置100は、広角カメラ110と、パンチルトズーム搭載カメラ111と、監視制御記録装置112とを備えて構成される。監視制御記録装置112は、静領域抽出部121と、バッファA122及びB123と、背景選別部124及び125と、フレーム差分部126と、特徴量抽出部127と、車パターンマッチング部128と、駐車時間判定部129と、カメラ制御部130と、動領域抽出部131と、顔領域抽出部132と、ベストショット判別部133と、画像消去部134と、記録部150とを備えている。
(Embodiment 1)
FIG. 1 is a block diagram showing a schematic configuration of a parked vehicle occupant imaging device according to
なお、上記広角カメラ110は第1の撮像手段に対応する。また、パンチルトズーム搭載カメラ111は第2の撮像手段に対応する。また、静領域抽出部121は静領域抽出手段に対応する。また、バッファA122及びB123と背景選別部124及び125とフレーム差分部126は背景変化検出手段を構成する。また、特徴量抽出部127は特徴量抽出手段に対応する。また、車パターンマッチング部128は車パターンマッチング手段に対応する。また、駐車時間判定部129は駐車時間判定手段に対応する。また、カメラ制御部130はカメラ制御手段に対応する。また、動領域抽出部131は動領域抽出手段に対応する。また、顔領域抽出部132は顔領域抽出手段に対応する。また、ベストショット判別部133はベストショット判別手段に対応する。また、画像消去部134は画像消去手段に対応する。また、記録部150は記録手段に対応する。
The wide-
広角カメラ110は、監視対象エリア全体を撮像できるように、35ミリ換算値で50mm以下の焦点距離を持つ広角レンズを備える。パンチルトズーム搭載カメラ111は、カメラ本体をパン(水平方向)及びチルト(上下方向)する機構を備えるとともに、レンズの焦点距離変更による光学ズームを備える。図2は、広角カメラ110と、パンチルトズーム搭載カメラ111と、監視制御記録装置112と、車両200と、車両200の運転手210と、車道220との位置関係の一例を示す図である。同図に示すように、広角カメラ110及びパンチルトズーム搭載カメラ111は、それぞれ監視方向に方向付けされ、配置される。この際、パンチルトズーム搭載カメラ111の動作によって、互いに衝突しないように一定の距離隔てて配置することもできる。なお、パンチルトズーム搭載カメラ111は、パンとチルトの動作によって撮影方向を任意に設定できるが、監視対象エリア内の中心に、水平方向の角度及び上下方向の角度の中心が来るように設定するのが望ましい。
The wide-
図1において、静領域抽出部121は、差分法や動きベクトル法を用いて、広角カメラ110からの映像データ(監視領域映像)から画像内の動きのない領域(静領域)を抽出する。例えば、差分法を用いる場合、現在のフレームの映像とその1つ前のフレームの映像との差分を求めて動き領域を抽出して、その動き領域以外を静領域として抽出する。このようにして監視領域から静領域を抽出する。バッファA122及びB123は、フレーム毎に静領域抽出部121で抽出された静領域を一時的に格納するものである。バッファA122とバッファB123には、データ格納サイズの異なるものが用いられる。この理由については、次のフレーム差分部126のところで説明する。
In FIG. 1, a static
背景選別部124は、バッファA122に格納された静領域群から背景画像を選別する。ここで、広角カメラ110で撮像される映像には前景と背景が存在し、前景とは、人、車といった常に動きのあるもので、背景とは、壁、地面といった動きのないものである。静領域には、前景に比べ背景の方が非常に多く、情報が残っていると仮定することができ、バッファA122に格納された静領域群から、例えば任意の個数存在する母集団から最頻値をとる最小二乗メディアン法を用いて、画素毎の最頻値を背景画素として背景画像を作成する。背景選別部125は、背景選別部124と同様の処理を行って、バッファB123に格納された静領域群から背景画像を選別する。
The
フレーム差分部126は、バッファA122に格納された静領域群を基に背景選別部124によって選別された背景画像P1と、バッファB123に格納された静領域群を基に背景選別部125によって選別された背景画像P2のフレーム差分をとる。ここで、上述したように、バッファA122とバッファB123のデータ格納サイズを違えているので、例えば、バッファA122のデータ容量を300秒分の情報に相当するものとし、バッファB123のデータの容量を10秒分の情報に相当するものとし、バッファA122では0〜300秒の情報から背景画像P1が生成されたとし、バッファB123では290〜300秒の情報から背景画像P2が生成されたとすると、289秒に車が停車された場合、バッファA122には停車前の288秒間の情報量が多いため、背景画像P1に車情報は反映されないが、バッファB123には停車後の情報量しか存在しないため、背景画像P2には車情報が反映される。
The
特徴量抽出部127は、フレーム差分部126でフレーム差分をとった結果から静領域がある場合、その静領域を保持し、この静領域から縦横比、サイズ、形状といったマッチングをとるための特徴量を計算する。車パターンマッチング部128は、DP(Dynamic Programming)マッチング法等のマッチングアルゴリズムを用いて、車テンプレートと特徴量抽出部127で計算された静領域の特徴量とのパターンマッチングを行い、車領域があるかどうか判定する。車領域がある場合は、その位置情報と時刻情報を計算し、保持する。
When there is a static region from the result of the frame difference obtained by the
駐車時間判定部129は、車パターンマッチング部128に保持された車領域の位置情報と時刻情報から、その車領域が何分変化していないか計算する。この場合、広角カメラ110からの映像データが、例えば721×240画素で構成されたNTSC(National Television Standards Committee)方式の映像データであれば、監視領域のX座標0〜719及びY座標0〜239における矩形領域の座標データを位置情報として表される。また、時刻情報は、YYYY/MM/DD HH:MM:SSといったように、秒単位での計算が可能なフォーマットで表される。
The parking
画像消去部134は、駐車時間判別部129で計算された時間が、一般的な駐車時間未満である場合、駐車車両でなく停車車両であると判断し、位置情報と時刻情報からその停車車両で撮像された全顔画像を消去するとともに、位置情報と時刻情報を削除する。また、駐車時間判別部129で計算された時間が、一般的な駐車時間以上である場合、駐車車両と判断し、ベストショット判別部133に記録部150に格納された顔画像からベストショット画像を選択する命令を与える。
If the time calculated by the parking
カメラ制御部130は、車パターンマッチング部128に保持した位置情報を基にパンチルトズーム搭載カメラ111を駐車車両近辺にパンチルトズームするため、パン、チルト、ズーム等のカメラ制御を行う。このカメラ制御には撮影を開始する指令も含まれる。
The
動領域抽出部131は、パンチルトズーム搭載カメラ111からの映像データから画像内の動きのある動領域を抽出する。例えば、現在のフレームの映像とその1つ前のフレームの映像との差分を求めて動きのある領域を抽出する。顔領域抽出部132は、動領域抽出部131で抽出された動領域から、楕円ハフといった顔領域を取得するアルゴリズムを用いて顔領域を抽出し、抽出した顔領域を出力する。ベストショット判別部133は、顔領域抽出部132で抽出された顔画像を記録部150に記録し、また画像消去部134からベストショット画像選択命令を受けることで、記録部150に格納された顔画像を所定の判定基準(コントラストが適性、顔のサイズが大きい、顔方向が正面等)に基づいて比較し、最も鮮明に撮像されたベストショット画像を選択する。また、ベストショット画像以外の画像は削除する。
The moving
次に、以上のように構成された駐車車両搭乗者撮像装置100の動作について、図3及び図4のフロー図を用いて説明する。まず、静領域抽出部121が、広角カメラ110からの監視領域の映像データを取り込み(ステップS201)、差分法や動きベクトル法等を用いて、映像データから画像内の動きのない領域即ち静領域を抽出する(ステップS202)。監視領域から静領域を検出した後、該静領域をバッファA122とバッファB123に格納する(ステップS203及びS204)。この場合、バッファA122とバッファB123に静領域を格納できる空メモリがなければ、古い情報から順次上書きをする。例えば1秒間に1枚静領域を抽出し、バッファA122には30枚静領域を格納できるとする。0〜30秒までは全ての時刻の静領域をバッファA122に格納するが、31秒には1秒目に抽出された静領域に対して上書きする。
Next, the operation of the parked vehicle
次に、背景選別部124がバッファA122に格納された静領域群から背景画像P1を作成する(ステップS205)。同様に、背景選別部125がバッファB123に格納された静領域群から背景画像P2を作成する(ステップS206)。次に、フレーム差分部126が背景画像P1と背景画像P2のフレーム差分をとり(ステップS207)、その結果から停止している物体があるかどうか判定する(ステップS208)。背景に物体が存在した場合は、特徴量抽出部127が縦横比、サイズ、形状といったマッチングを行うための特徴量を計算する(ステップS209)。次に、車パターンマッチング部128がDPマッチング法等の縦横比、サイズ、形状といったテンプレート情報を基に任意のパターンを抽出するアルゴリズムを用いて、車パターンマッチング部128に保持した静領域内に車領域が存在するかマッチングを行う(ステップS210)。そして、マッチング結果から車領域があるかどうか判定し(ステップS211)、車領域がある場合(ステップS211でYESの場合)は、その車の位置情報・時刻情報を計算する(ステップS212)。
Next, the
次に、カメラ制御部130が車パターンマッチング部128で算出された位置情報を基にパンチルトズーム搭載カメラ111にパンチルトズーム命令を与える(ステップS213)。これにより、パンチルトズーム搭載カメラ111には車領域の近傍が撮像される。そして、動領域抽出部131がパンチルトズーム搭載カメラ111からの映像データを取込み、差分法や動きベクトル法等用いて、動きのある動領域を検出する(ステップS214)。次に、顔領域抽出部132が例えば楕円ハフアルゴリズムを用いて、動き領域内に顔領域が存在するかマッチングを行う(ステップS215)。マッチングすればその顔画像を記録部150に記録する(ステップS216)。
Next, the
一方、車が発進し、広角カメラ110外に移動したことで車領域がマッチングできなかった場合は、ステップS211の判定がNOとなるので、駐車時間判別部129が車パターンマッチング部128で取得された位置情報と時刻情報からその車が何分動きがないか時間を計算する。そして、駐車車両かどうかを判定する(ステップS217)。計算した時間が一般的な駐車時間未満である場合は、駐車車両でなく停車車両であると判断し、停車車両で撮像された全顔画像を記録部150から消去する(ステップS218)。更に、位置情報と時刻情報を削除する(ステップS219)。
On the other hand, when the vehicle has started and moved out of the wide-
これに対して、計算した時間が一般的な駐車時間以上である場合、駐車車両であると判断し、記録部150に格納された顔画像から、所定の比較基準に基づいて比較してベストショット画像を選択する(ステップS220)。この場合、ベストショットの比較基準において、例えば顔映像のコントラスト、顔映像サイズ及び顔方向情報の3つのベストショットを判別基準とした場合、抽出された顔映像を要素毎にスコア化し、スコア化したものに所定の重み係数を乗じて顔映像の総合スコアを算出する。現在のフレームから抽出した顔画像と過去のフレームで抽出した顔映像とを総合スコアでフレーム毎に順次比較し、総合スコアが最も大きいものをベストショットとする。それ以外の画像は削除する(ステップS221)。
On the other hand, when the calculated time is equal to or longer than the general parking time, it is determined that the vehicle is a parked vehicle, and the best shot is compared from the face image stored in the
このように本実施の形態に係る駐車車両搭乗者撮像装置100によれば、広角カメラ110からの監視領域の映像データから画像内の動きのない領域即ち静領域を抽出できると、その静領域から特徴量を計算し、これにより得られた特徴量と車テンプレートとのパターンマッチングを行い、車領域がある場合はその位置情報と時刻情報を計算し、その車領域が何分動きがないかを判別する一方、位置情報を基にパンチルトズーム搭載カメラ111を制御してパンチルトズーム搭載カメラ111からの映像データを得て、その映像データから画像内の動きのある動領域を抽出し、更に顔領域を抽出して記録部150に記録し、車領域の動きの無い時間が一般的な駐車時間未満であれば、停車車両として判断して記録部150に記録した全顔画像を消去し、車領域の動きの無い時間が一般的な駐車時間以上であれば、駐車車両と判断して記録部150に記録した顔画像からベストショット画像を選択し、残りの顔画像については消去する。したがって、駐車車両と判断した場合、該車両の搭乗者のベストショット画像のみ保存するので、駐車車両の搭乗者を監視するためのデータ量の軽減化が図れるとともに、容易に搭乗者を特定することができる。
As described above, according to the parked vehicle
なお、上記実施の形態において、静領域抽出部121で抽出された静領域を2つのバッファA122とバッファB123に格納するようにしたが、バッファの数は2つに限定されることはなく、2つ以上であってもよい。但し、背景選別部125もそれに合わせて増やす必要がある。
In the above embodiment, the static areas extracted by the static
(実施の形態2)
図5は、本発明の実施の形態2に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図である。なお、図5において図1と共通する部分には同一の符号を付けてその説明を省略する。
(Embodiment 2)
FIG. 5 is a block diagram showing a schematic configuration of the parked vehicle occupant imaging device according to Embodiment 2 of the present invention. 5 that are the same as those in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.
図5において、本実施の形態に係る駐車車両搭乗者撮像装置300は、上述した実施の形態1に係る駐車車両搭乗者撮像装置100の動領域抽出部131、顔領域抽出部132及びベストショット判別部133に代わってフレームレート制御部321を備えている点と、実施の形態1に係る駐車車両搭乗者撮像装置100の車パターンマッチング部128に新たな機能を追加した車パターンマッチング部322を備えている点が異なっている。フレームレート制御部321は、パンチルトズーム搭載カメラ111からの映像データを取り込む間隔を変えて記録部150へ出力する。車パターンマッチング部322は、フレームレート制御部321に任意のフレームレートで撮像するようにフレームレート制御命令を与える。フレームレート制御部321は、フレームレート制御命令に従う時間間隔でパンチルトズーム搭載カメラ111からの映像データを取り込む。なお、フレームレート制御部321はフレームレート制御手段に対応する。
In FIG. 5, the parked vehicle occupant imaging device 300 according to the present embodiment includes a moving
次に、図6及び図7のフロー図を用いて駐車車両搭乗者撮像装置300の動作について説明する。ここで、図6のステップS401〜ステップS413は、前述した図3のステップS201〜ステップS213と同一であるので、説明を省略する。 Next, the operation of the parked vehicle occupant imaging device 300 will be described using the flowcharts of FIGS. 6 and 7. Here, steps S401 to S413 in FIG. 6 are the same as steps S201 to S213 in FIG.
図6及び図7において、ステップS412で車パターンマッチング部128が、静領域を車領域と判断してその車領域の位置情報と時刻情報を計算し、カメラ制御部130にカメラ制御命令を与えた後、フレームレート制御部321に対して高フレームレートで記録部150に動画を録画するようにフレームレート制御命令を与える(ステップS414)。フレームレート制御部321は、フレームレート制御命令が与えられることで、パンチルトズーム搭載カメラ111からの映像データを高フレームレートで記録部150に録画する。
6 and 7, in step S412, the vehicle
一方、車が発進し、広角カメラ110外に移動したことで車領域がマッチングできなくなった場合、ステップS411からステップS415へ移行し、駐車車両かどうか判定する。駐車車両であれば、車パターンマッチング部322がフレームレート制御部321に対して、低フレームレートで録画するようにフレームレート制御命令を入力する(ステップS417)。このフレームレート制御命令が与えられることで、フレームレート制御部321がパンチルトズーム搭載カメラ111からの映像データを低フレームレートで記録部150に録画する。ステップS415の判定において、駐車車両でない即ち停車車両であると判断すると、位置情報と時刻情報からその停車車両を撮像した動画を削除するように画像消去部134に指示する。これにより、画像消去部134が該動画を記録部150から削除する(ステップS416)。
On the other hand, when the vehicle has started and moved out of the wide-
このように本実施の形態に係る駐車車両搭乗者撮像装置300によれば、車テンプレートとのパターンマッチングを行って車領域がある場合は、その位置情報と時刻情報を計算し、その車領域が何分動きがないかを判別する一方、パンチルトズーム搭載カメラ111からの映像データを高フレームレートで記録部150に録画し、車領域があった状態から無くなった状態になると、そのときまで車領域が継続してきた時間が一般的な駐車時間以上であれば、パンチルトズーム搭載カメラ111からの映像データを低フレームレートで記録部150に録画し、車領域が継続してあった時間が一般的な駐車時間未満であれば、記録部150の録画データを消去する。したがって、駐車車両が発生したときのみ高フレームレートで記録することができる。
As described above, according to the parked vehicle occupant imaging device 300 according to the present embodiment, when there is a car area by performing pattern matching with the car template, the position information and time information are calculated, and the car area is While determining whether there is no movement, the video data from the
(実施の形態3)
図8は、本発明の実施の形態3に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図ある。なお、図8において図1と共通する部分には同一の符号を付けてその説明を省略する。
(Embodiment 3)
FIG. 8 is a block diagram showing a schematic configuration of a parked vehicle occupant imaging device according to Embodiment 3 of the present invention. 8 that are the same as those in FIG. 1 are assigned the same reference numerals, and descriptions thereof are omitted.
図8において、本実施の形態に係る駐車車両搭乗者撮像装置500は、上述した実施の形態1に係る駐車車両搭乗者撮像装置100と同一の構成に加えて、車画像格納部521と車画像制御部522を備えている点が異なっている。車画像格納部521は、車パターンマッチング部128がフレーム毎に抽出した車画像を保存する。車画像制御部522は、ベストショット判別部133が判別したベストショット画像が撮像された時刻に車画像格納部521に格納された車画像を取得して記録部150に記録する。そして、車画像格納部521に格納された車画像を消去する。なお、上記車画像格納部521と車画像制御部522は車画像制御手段を構成する。
In FIG. 8, the parked vehicle occupant imaging device 500 according to the present embodiment has the same configuration as that of the parked vehicle
以上のように構成された駐車車両搭乗者撮像装置500の動作について、図9のフロー図を用いて説明する。なお、本実施の形態に係る駐車車両搭乗者撮像装置500は、実施の形態1に係る駐車車両搭乗者撮像装置100に車画像格納部521と車画像制御部522を追加した構成なので、これら以外の構成の説明は省略する。
The operation of the parked vehicle occupant imaging device 500 configured as described above will be described with reference to the flowchart of FIG. The parked vehicle occupant imaging device 500 according to the present embodiment has a configuration in which a vehicle
車画像格納部521が、フレーム毎に抽出した車画像を保存する(ステップS601)。車画像制御部522が、顔画像のベストショットが撮像された時刻を取得し(ステップS602)、次いで顔画像のベストショットが撮像された時刻の車画像を記録部150に記録する(ステップS603)。次いで、車画像格納部521に格納された車画像を消去する(ステップS604)。
The vehicle
このように本実施の形態に係る駐車車両搭乗者撮像装置500によれば、ベストショット画像が得られた時刻の車画像を記録部150に記録するので、駐車車両搭乗者のベストショット画像と駐車車両を共に記録部150に記録することができる。
As described above, according to the parked vehicle occupant imaging device 500 according to the present embodiment, the vehicle image at the time when the best shot image was obtained is recorded in the
(実施の形態4)
図10は、本発明の実施の形態4に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図ある。なお、図10において図1と共通する部分には同一の符号を付けてその説明を省略する。
(Embodiment 4)
FIG. 10 is a block diagram showing a schematic configuration of a parked vehicle occupant imaging device according to Embodiment 4 of the present invention. 10 that are the same as those in FIG. 1 are assigned the same reference numerals, and descriptions thereof are omitted.
図10において、本実施の形態に係る駐車車両搭乗者撮像装置700は、上述した実施の形態1に係る駐車車両搭乗者撮像装置100と同一の構成に加えて、顔データベース721と、顔検索部722と、アラーム出力部723とを備えている点が異なっている。顔データベース721には複数の顔画像が格納されている。顔検索部722は、記録部150に格納された顔画像をキーとして、顔データベース721に格納されている顔画像の検索を行う。アラーム出力部723はアラーム出力を行う。なお、顔データベース721は顔データ蓄積手段に対応する。また、アラーム出力部723はアラーム出力手段に対応する。また、顔検索部722は顔検索手段に対応する。
In FIG. 10, a parked vehicle occupant imaging device 700 according to the present embodiment has the same configuration as that of the parked vehicle
以上のように構成された駐車車両搭乗者撮像装置700の動作について、図11のフロー図を用いて説明する。なお、本実施の形態に係る駐車車両搭乗者撮像装置700は、実施の形態1に係る駐車車両搭乗者撮像装置100に、顔データベース721と顔検索部722とアラーム出力部723とを追加した構成なので、これら以外の構成の説明は省略する。
The operation of the parked vehicle occupant imaging device 700 configured as described above will be described with reference to the flowchart of FIG. The parked vehicle occupant imaging device 700 according to the present embodiment is configured by adding a face database 721, a
まず、顔検索部722が、つい先ほど得られたベストショット画像をキーとして、顔データベース721内に存在する顔情報に対して検索をかける(ステップS801)。検索アルゴリズムは、例えばAdaBoost学習を用いた顔識別検出器によるマッチング手法でよい。また、顔データベース721は例えば不法駐車常習者の顔データベースでもよい。
First, the
そして、取得した顔画像が顔データベース721に存在するか否かを判定し(ステップS802)、存在する場合(ステップS802においてYESとなる場合)は、顔検索部722がアラーム出力部723にアラーム出力命令を与える。これにより、アラーム出力部723がアラーム出力を行う(ステップS803)。なお、アラーム出力部723はブザーを鳴動させるものであってもよいし、駐車車両搭乗者撮像装置700にIP(Internet Protocol)ネットワークといった一般的なネットワークに繋がるI/F(インタフェース)を持たせて、集中サーバもしくは最寄りの派出所に不法駐車情報を伝えるといった手法でもよい。
Then, it is determined whether or not the acquired face image exists in the face database 721 (step S802). If it exists (YES in step S802), the
このように本実施の形態に係る駐車車両搭乗者撮像装置700によれば、ベストショット画像と顔データベース721と顔の検索を行い、ベストショット画像が顔データベース721に存在する場合にアラーム出力を行うので、不法駐車常習者といった顔データベース721に格納された特定の人物が不法駐車したときに即座にアラームを発報することができる。 Thus, according to parked vehicle occupant imaging device 700 according to the present embodiment, the best shot image and face database 721 are searched for a face, and an alarm is output when the best shot image exists in face database 721. Therefore, when a specific person stored in the face database 721, such as an illegal parking addict, parks illegally, an alarm can be issued immediately.
なお、前述した実施の形態2に係る駐車車両搭乗者撮像装置300と実施の形態3に係る駐車車両搭乗者撮像装置500においても、本実施の形態に係る駐車車両搭乗者撮像装置700と同様の手段(即ち、予め登録してある顔データベース内にある顔と新たに取得した不法駐車搭乗者の顔とのマッチングを行い、適合した場合にアラームを発報する手段)を追加しても構わない。 In addition, the parked vehicle occupant imaging device 300 according to the second embodiment and the parked vehicle occupant imaging device 500 according to the third embodiment are the same as the parked vehicle occupant imaging device 700 according to the present embodiment. Means (that is, means for matching the face in the face database registered in advance with the newly acquired face of the illegally parked passenger and issuing an alarm when the face matches) may be added. .
(実施の形態5)
図12は、本発明の実施の形態5に係る駐車車両搭乗者撮像装置の概略構成を示すブロック図ある。なお、図12において図1と共通する部分には同一の符号を付けてその説明を省略する。
(Embodiment 5)
FIG. 12 is a block diagram showing a schematic configuration of a parked vehicle occupant imaging device according to Embodiment 5 of the present invention. 12 that are the same as those in FIG. 1 are assigned the same reference numerals, and descriptions thereof are omitted.
図12において、本実施の形態に係る駐車車両搭乗者撮像装置900は、上述した実施の形態1に係る駐車車両搭乗者撮像装置100と同一の構成に加えて、動領域抽出部921と、人領域抽出部922と、人物特徴量抽出部923と、人物追尾部924とを備えている点が異なっている。
In FIG. 12, the parked vehicle occupant imaging device 900 according to the present embodiment has the same configuration as that of the parked vehicle
動領域抽出部921は、動領域抽出部131と同一の機能を有するものであり、広角カメラ110からの映像データから画像内の動きのある動領域を抽出する。例えば現在のフレームの映像とその1つ前のフレームの映像との差分を求めて動きのある動領域を抽出する。人領域抽出部922は、動領域抽出部921で抽出された動きのある動領域から、DPマッチングアルゴリズムとった、縦横比、サイズ、形状といったテンプレート情報から人領域を取得するアルゴリズムによって人領域を抽出し、そのときの人の位置情報と時刻情報を抽出する。
The moving
人物特徴量抽出部923は、人領域抽出部922によって抽出された人領域の、例えば、身長、体型の縦横比、服装の色といった人毎に区別可能な特徴量を計算する。人物追尾部924は、人物特徴量抽出部923で計算された特徴量をもつ人が広角カメラ110で撮像された画像内に存在するか否かを判別し、存在する場合は位置情報を計算する。カメラ制御部130は、人物追尾部924で計算された位置情報を基にパンチルトズーム搭載カメラ111にパン、チルト、ズーム命令を与えて、パンチルトズーム搭載カメラ111に車両搭乗者の近傍の映像を撮像可能な画角に制御する。
The person feature
なお、上記動領域抽出部131は第2の動領域抽出手段に対応する。また、動領域抽出部921は第1の動領域抽出手段に対応する。また、人領域抽出部922は人領域抽出手段に対応する。また、人物特徴量抽出部923は人物特徴量抽出手段に対応する。また、人物追尾部924は人物追尾手段に対応する。
The moving
以上のように構成された駐車車両搭乗者撮像装置900について、図13〜図15のフロー図を用いて説明する。まず、初期化として搭乗者人数を「0」に設定する(ステップS1000)。次いで、静領域抽出部121が広角カメラ110からの監視領域の映像データを取り込み(ステップS1001)、差分法や動きベクトル法等を用いて、映像データから画像内の動きのない領域即ち静領域を抽出する(ステップS1002)。監視領域から静領域を抽出した後、該静領域をバッファA122とバッファB123に格納する(ステップS1003及びS1004)。この場合、バッファA122とバッファB123に静領域を格納できる空メモリがなければ、古い情報から順次上書きをする。例えば1秒間に1枚静領域を抽出し、バッファA122には30枚静領域を格納できるとする。0〜30秒までは全ての時刻の静領域をバッファA122に格納するが、31秒には1秒目に抽出された静領域に対して上書きする。
The parked vehicle occupant imaging device 900 configured as described above will be described with reference to the flowcharts of FIGS. First, as initialization, the number of passengers is set to “0” (step S1000). Next, the static
次に、背景選別部124がバッファA122に格納された静領域群から背景画像P1を作成する(ステップS1005)。同様に、背景選別部125がバッファB123に格納された静領域群から背景画像P2を作成する(ステップS1006)。次に、フレーム差分部126が背景画像P1と背景画像P2のフレーム差分をとり(ステップS1007)、その結果から停止している物体があるかどうか判定する(ステップS1008)。背景に物体が存在した場合は、特徴量抽出部127が、縦横比、サイズ、形状といったマッチングを行うための特徴量を計算する(ステップS1009)。次に、車パターンマッチング部128が、DPマッチング法等の縦横比、サイズ、形状といったテンプレート情報を基に任意のパターンを抽出するアルゴリズムを用いて、静領域内に車領域が存在するかマッチングを行う(ステップS1010)。そして、マッチング結果から車領域があるかどうか判定し(ステップS1011)、車領域がある場合(YESの場合)は、その車の位置情報と時刻情報を計算する(ステップS1012)。
Next, the
次に、広角カメラ110からの監視領域の映像データを動領域抽出部921が取り込み、差分法や動きベクトル法等を用いて、映像データから画像内の動きのある領域即ち動領域を検出する(ステップS1013)。次に、人領域抽出部922が、例えばDPマッチング法といった、縦横比、サイズ、形状といったテンプレート情報を基に任意のパターンを抽出するアルゴリズムも用いて、動領域内に人領域が存在するかマッチングを行い(ステップS1014)、人領域があるかどうか判定する(ステップS1015)。人領域がある場合は、検知した人領域全てにおいて、身長、体型の縦横比、服装の色といった人毎に区別可能な特徴量を計算する(ステップS1016)。そして、計算した特徴量が、車領域の位置情報周辺から新規に発生した特徴量かどうか判定する(ステップS1017)。新規に発生した特徴量である場合は、この人領域は車から降車した人物であると判断し、搭乗者人数を1増加させ、搭乗者特徴量として保持する(ステップS1018)。
Next, the moving
次に、人物追尾部924が、ステップS1016で計算された特徴量内に同値の搭乗者特徴量が存在するか調べ、同値の値が存在する場合は同値の特徴量が搭乗者であると判断し、位置情報を計算する(ステップS1019)。次いで、カメラ制御部130が、人物追尾部924で計算された位置情報にパンチルトズーム命令をパンチルトズーム搭載カメラ111に送信し(ステップS1020)、パンチルトズーム搭載カメラ111から搭乗者の近傍の映像が撮像される。また、駐車時間判別部129が、車パターンマッチング部128が取得した車領域と位置情報から、その車が何分変化していないか駐車時間情報を計算する。
Next, the
次に、パンチルトズーム搭載カメラ111からの人領域近傍の映像データを動領域抽出部131が取り込み、差分法や動きベクトル法等用いて動きのある動領域が検出される(ステップS1021)。例えば、差分法を用いる場合、動領域抽出部131は、現在のフレームの映像と現在のフレームの1つ前のフレームの映像との差分を求めて、監視領域から動きのある領域を検出する。
Next, the moving
次に、顔領域抽出部132が、例えば楕円ハフアルゴリズムを用いて、動き領域内に顔領域が存在するかマッチングを行う(ステップS1022)。マッチングすれば、顔画像を記録部150に保存する(ステップS1023)。搭乗者特徴量を持った人領域が広角カメラ111の画角外に移動しても駐車車両が移動するまでマッチング、顔画像保存を行う。
Next, the face
車が発進し、広角カメラ110の画角外に移動したことで車領域がマッチングできなかった場合、ステップS1011で車領域なしと判断されるので、駐車時間判別部129が、車パターンマッチング部128で取得した位置情報と時刻情報から、その車が何分変化していないか時間を計算する。駐車時間判別部129が計算した時間が、一般的な駐車時間未満である場合、駐車車両ではなく停車車両であると判断し、ステップS1024からステップS1025に進み、画像消去部134が、位置情報と時刻情報からその停車車両で撮像された全顔画像を削除する。全顔画像の削除後、位置情報と時刻情報を削除する(ステップS1026)。
If the vehicle area cannot be matched because the vehicle has started and moved out of the angle of view of the wide-
これに対して、駐車時間判別部129が計算された時間が一般的な駐車時間以上である場合、駐車車両であると判断されるので、ベストショット判別部133が、記録部150に格納された顔画像から所定の比較基準に基づいて比較し、ベストショット画像を選択する(ステップS1027)。この場合、ベストショットの比較基準において、例えば顔映像のコントラスト、顔映像サイズ及び顔方向情報の3つのベストショットを判別基準とした場合、抽出された顔映像を要素毎にスコア化し、スコア化したものに所定の重み係数を乗じて顔映像の総合スコアを算出する。現在のフレームから抽出した顔画像と、過去のフレームで抽出した顔映像とを総合スコアでフレーム毎に順次比較し、総合スコアが最も大きいものをベストショットとする。それ以外の画像は、画像消去部134が削除する(ステップS1028)。
On the other hand, when the time calculated by the parking
このように本実施の形態に係る駐車車両搭乗者撮像装置900によれば、動領域抽出部921と人領域抽出部922で広角カメラ110内の人領域を抽出し、人物特徴量抽出部923と人物追跡部924で搭乗者を追尾し位置情報を取得するので、降車時、乗車時からベストショット顔画像を取得することができ、より鮮明な駐車車両搭乗者のベストショット画像を記録することができる。
As described above, according to the parked vehicle occupant imaging device 900 according to the present embodiment, the moving
なお、本実施の形態において、上述した実施の形態4に係る駐車車両搭乗者撮像装置700と同様の手段即ち予め登録してある顔データベース内にある顔と新たに取得した不法駐車搭乗者の顔とのマッチングを行い、適合した場合にアラームを発報する手段を追加しても構わない。 In the present embodiment, the same means as in the parked vehicle occupant imaging device 700 according to the above-described fourth embodiment, that is, the face in the face database registered in advance and the newly acquired face of the illegally parked occupant It is also possible to add a means for issuing an alarm when matching is performed.
本発明は、記録装置として大容量のものを使用しなくても効率的な使用を可能とし、更に記録した映像から駐車車両の搭乗者を容易に見つけ出すことができるといった効果を有し、監視カメラで駐車車両や搭乗者を監視記録する駐車車両搭乗者撮像装置などへの適用が可能である。 The present invention has an effect that enables efficient use without using a large-capacity recording device, and can easily find out the occupant of the parked vehicle from the recorded image. Thus, the present invention can be applied to a parked vehicle occupant imaging device that monitors and records parked vehicles and occupants.
100、300、500、700、900 駐車車両搭乗者撮像装置
110 広角カメラ
111 パンチルトズーム搭載カメラ
112、113、114、115、116 監視制御記録装置
121 静領域抽出部
122 バッファA
123 バッファB
124、125 背景選別部
126 フレーム差分部
127 特徴量抽出部
128、322 車パターンマッチング部
129 駐車時間判別部
130 カメラ制御部
131 動領域抽出部
132 顔領域抽出部
133 ベストショット判別部
134 画像消去部
150 記録部
321 フレームレート制御部
521 車画像格納部
522 車画像制御部
721 顔データベース
722 顔検索部
723 アラーム出力部
921 動領域抽出部
922 人領域抽出部
923 人物特徴量抽出部
924 人物追尾部
100, 300, 500, 700, 900 Parked vehicle
123 Buffer B
124, 125
Claims (6)
外部からの命令に従って撮影範囲を変える第2の撮像手段と、
前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、
前記静領域抽出手段で抽出された前記監視領域映像情報の静領域から背景の変化を検出する背景変化検出手段と、
前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が車両であるかどうか判別し、車両と判断した場合はその車両の位置情報と時刻情報を計算する車パターンマッチング手段と、
前記車パターンマッチング手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者を撮像可能にするカメラ制御手段と、
前記第2の撮像手段からの映像情報から動きのある動領域を抽出する動領域抽出手段と、
画像を記録するための記録手段と、
前記動領域抽出手段で抽出された動領域内から顔領域を抽出して前記記録手段に記録する顔領域抽出手段と、
前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間以上である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像のうち判定基準に最も適合するベストショットを判別し、ベストショットと判別した画像のみを前記記録手段に記録するベストショット判別手段と、
を備える駐車車両搭乗者撮像装置。 First imaging means arranged toward the monitoring area;
A second imaging means for changing the imaging range in accordance with an external command;
A static area extracting means for extracting a static area having no motion in the image from the monitoring area video information from the first imaging means;
Background change detection means for detecting a change in background from the static area of the monitoring area video information extracted by the static area extraction means;
A feature amount extracting means for extracting a feature amount of a region in which the background is changed when a background change is detected by the background change detecting means;
Performs pattern matching between the feature quantity extracted by the feature quantity extraction means and a vehicle template, determines whether the feature quantity is a vehicle, and if it is a vehicle, calculates position information and time information of the vehicle Vehicle pattern matching means,
Camera control means for giving an instruction to the second imaging means based on the position information calculated by the vehicle pattern matching means, and enabling the second imaging means to image a passenger of the vehicle;
Moving area extracting means for extracting a moving area having movement from the video information from the second imaging means;
Recording means for recording an image;
A face area extracting means for extracting a face area from the moving area extracted by the moving area extracting means and recording it in the recording means;
A parking time determination means for calculating time without movement from the position information and time information of the vehicle calculated by the vehicle pattern matching means;
When the time calculated by the parking time determination unit is less than a preset parking time, an image erasing unit that deletes the entire face image captured by the second imaging unit and recorded in the recording unit;
When the time calculated by the parking time determination unit is equal to or more than a preset parking time, the best match among the all face images captured by the second imaging unit and recorded in the recording unit Best shot discriminating means for discriminating the best shot and recording only the image discriminated as the best shot in the recording means;
A parking vehicle occupant imaging device.
外部からの命令に従って撮影範囲を変える第2の撮像手段と、
前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、
前記静領域抽出手段で抽出された前記監視領域映像の複数の静領域から背景を求める背景変化検出手段と、
前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、
前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が車両であるかどうか判別し、車両と判断した場合はその車両の位置情報と時刻情報を計算する車パターンマッチング手段と、
前記監視領域映像情報から画像内の動きのある動領域を抽出する第1の動領域抽出手段と、
前記第1の動領域抽出手段で抽出された動領域内から人領域を抽出し、抽出した人領域の位置情報と時刻情報を計算する人領域抽出手段と、
前記人領域抽出手段で抽出された人領域の特徴量を計算する人物特徴量抽出手段と、
前記人物特徴量抽出手段で計算された特徴量をもつ人が前記監視領域映像情報内に存在するか否かを判別し、存在する場合は位置情報を計算する人物追尾手段と、
前記人物追尾手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者の近傍の映像を撮像可能に制御するカメラ制御手段と、
前記第2の撮像手段からの映像情報から画像内の動きのある動領域を抽出する第2の動領域抽出手段と、
画像を記録するための記録手段と、
前記第2の動領域抽出手段で抽出された動領域内から顔領域を抽出して前記記録手段に記録する顔領域抽出手段と、
前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間以上である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像のうち判定基準に最も適合するベストショットを判別し、ベストショットと判別した画像のみを前記記録手段に記録するベストショット判別手段と、
を備える駐車車両搭乗者撮像装置。 First imaging means arranged toward the monitoring area;
A second imaging means for changing the imaging range in accordance with an external command;
A static area extracting means for extracting a static area having no motion in the image from the monitoring area video information from the first imaging means;
Background change detecting means for obtaining a background from a plurality of static areas of the monitoring area video extracted by the static area extracting means;
A feature amount extracting means for extracting a feature amount of a region in which the background is changed when a background change is detected by the background change detecting means;
Performs pattern matching between the feature quantity extracted by the feature quantity extraction means and a vehicle template, determines whether the feature quantity is a vehicle, and if it is a vehicle, calculates position information and time information of the vehicle Vehicle pattern matching means,
First moving area extracting means for extracting a moving area having movement in an image from the monitoring area video information;
A human area extracting means for extracting a human area from the moving area extracted by the first moving area extracting means and calculating position information and time information of the extracted human area;
Human feature quantity extraction means for calculating the feature quantity of the human area extracted by the human area extraction means;
A person tracking unit that determines whether or not a person having the feature amount calculated by the person feature amount extraction unit exists in the monitoring area video information, and if there is a person tracking unit that calculates position information;
Camera control for giving an instruction to the second imaging unit based on the position information calculated by the person tracking unit and controlling the second imaging unit so that an image of the vicinity of the occupant of the vehicle can be captured. Means,
Second moving area extracting means for extracting a moving area having movement in an image from video information from the second imaging means;
Recording means for recording an image;
A face area extracting means for extracting a face area from the moving area extracted by the second moving area extracting means and recording it in the recording means;
A parking time determination means for calculating time without movement from the position information and time information of the vehicle calculated by the vehicle pattern matching means;
When the time calculated by the parking time determination unit is less than a preset parking time, an image erasing unit that deletes the entire face image captured by the second imaging unit and recorded in the recording unit;
When the time calculated by the parking time determination unit is equal to or more than a preset parking time, the best match among the all face images captured by the second imaging unit and recorded in the recording unit Best shot discriminating means for discriminating the best shot and recording only the image discriminated as the best shot in the recording means;
A parking vehicle occupant imaging device.
外部からの命令に従って撮影範囲を変える第2の撮像手段と、
前記第1の撮像手段からの監視領域映像情報から画像内の動きのない静領域を抽出する静領域抽出手段と、
前記静領域抽出手段で抽出された前記監視領域映像情報の複数の静領域から背景を求める背景変化検出手段と、
前記背景変化検出手段にて背景の変化が検出された場合に、前記背景の変化している領域の特徴量を抽出する特徴量抽出手段と、
画像を記録するための記録手段と、
前記特徴量抽出手段で抽出された前記特徴量と車テンプレートとのパターンマッチングを行い、前記特徴量が、車両と判断した場合はその車両の位置情報と時刻情報を計算すると共に高フレームレートのフレームレート制御命令を出力し、車両と判断した後、車両と判断できなくなると低フレームレートのフレームレート制御命令を出力する車パターンマッチング手段と、
前記車パターンマッチング手段で計算された前記位置情報を基に前記第2の撮像手段に命令を与えて、前記第2の撮像手段に前記車両の搭乗者の顔画像が撮像可能に制御するカメラ制御手段と、
前記車パターンマッチング手段からのフレームレート設定命令に従う時間間隔で前記第2の撮像手段からの映像データを取り込み前記記録手段に録画するフレームレート制御手段と、
前記車パターンマッチング手段で計算された前記車両の位置情報と時刻情報から動きのない時間を計算する駐車時間判定手段と、
前記駐車時間判定手段で計算された時間が予め設定された駐車時間未満である場合に、前記第2の撮像手段で撮像され前記記録手段に記録された全顔画像を削除する画像消去手段と、
を備える駐車車両搭乗者撮像装置。 First imaging means arranged toward the monitoring area;
A second imaging means for changing the imaging range in accordance with an external command;
A static area extracting means for extracting a static area having no motion in the image from the monitoring area video information from the first imaging means;
A background change detecting means for obtaining a background from a plurality of static areas of the monitoring area video information extracted by the static area extracting means;
Feature amount extracting means for extracting a feature amount of a region where the background is changed when a background change is detected by the background change detecting means;
Recording means for recording an image;
Pattern matching between the feature quantity extracted by the feature quantity extraction means and a car template is performed, and when the feature quantity is determined to be a vehicle, position information and time information of the vehicle are calculated and a frame with a high frame rate is calculated. Vehicle pattern matching means for outputting a frame rate control command at a low frame rate when it is determined that the vehicle is not available after outputting a rate control command and being a vehicle;
Camera control for giving a command to the second imaging unit based on the position information calculated by the vehicle pattern matching unit and controlling the second imaging unit so that a face image of a passenger of the vehicle can be captured Means,
Frame rate control means for capturing video data from the second imaging means at a time interval according to a frame rate setting command from the vehicle pattern matching means and recording the video data on the recording means;
A parking time determination means for calculating time without movement from the position information and time information of the vehicle calculated by the vehicle pattern matching means;
When the time calculated by the parking time determination unit is less than a preset parking time, an image erasing unit that deletes the entire face image captured by the second imaging unit and recorded in the recording unit;
A parking vehicle occupant imaging device.
アラームを発報するアラーム出力手段と、
前記顔データ蓄積手段内にある顔と新たに取得した不法駐車搭乗者の顔とのマッチングを行い、適合した場合に前記アラーム出力手段を動作させる顔検索手段と、
を備える請求項1乃至請求項4のいずれかに記載の駐車車両搭乗者撮像装置。 Face data storage means for storing a plurality of face data;
An alarm output means for issuing an alarm;
A face search unit that performs matching between a face in the face data storage unit and a newly acquired illegally parked passenger's face, and activates the alarm output unit when it matches,
The parked vehicle occupant imaging device according to any one of claims 1 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005325959A JP2007134948A (en) | 2005-11-10 | 2005-11-10 | Device for imaging person in parked vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005325959A JP2007134948A (en) | 2005-11-10 | 2005-11-10 | Device for imaging person in parked vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007134948A true JP2007134948A (en) | 2007-05-31 |
Family
ID=38156251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005325959A Withdrawn JP2007134948A (en) | 2005-11-10 | 2005-11-10 | Device for imaging person in parked vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007134948A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1978524A2 (en) | 2007-04-04 | 2008-10-08 | Sony Corporation | Image recording device, player device, imaging device, player system, method of recording image, and computer program |
WO2016009637A1 (en) * | 2014-07-17 | 2016-01-21 | パナソニックIpマネジメント株式会社 | Recognition data generation device, image recognition device, and recognition data generation method |
US9762951B2 (en) | 2013-07-30 | 2017-09-12 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, added-information display method, and added-information display system |
US9774924B2 (en) | 2014-03-26 | 2017-09-26 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method and additional information display system |
US9900650B2 (en) | 2013-09-04 | 2018-02-20 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method, and additional information display system |
US9906843B2 (en) | 2013-09-04 | 2018-02-27 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method, and display system for providing additional information to be superimposed on displayed image |
US9955103B2 (en) | 2013-07-26 | 2018-04-24 | Panasonic Intellectual Property Management Co., Ltd. | Video receiving device, appended information display method, and appended information display system |
CN108856624A (en) * | 2018-07-17 | 2018-11-23 | 日照德信机械制造有限公司 | A kind of die forging hot forging ejection cylinder |
US10194216B2 (en) | 2014-03-26 | 2019-01-29 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method, and additional information display system |
US10200765B2 (en) | 2014-08-21 | 2019-02-05 | Panasonic Intellectual Property Management Co., Ltd. | Content identification apparatus and content identification method |
JP2021184535A (en) * | 2020-05-21 | 2021-12-02 | 株式会社エクサウィザーズ | Image capture device |
JP2022033234A (en) * | 2017-10-06 | 2022-02-28 | パナソニックIpマネジメント株式会社 | refrigerator |
CN114979463A (en) * | 2022-04-12 | 2022-08-30 | 北京卡普拉科技有限公司 | Intelligent parking recording method and device, storage medium and equipment |
JP7459916B2 (en) | 2019-03-27 | 2024-04-02 | 日本電気株式会社 | Object tracking method, object tracking device, and program |
-
2005
- 2005-11-10 JP JP2005325959A patent/JP2007134948A/en not_active Withdrawn
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1978524A2 (en) | 2007-04-04 | 2008-10-08 | Sony Corporation | Image recording device, player device, imaging device, player system, method of recording image, and computer program |
US9955103B2 (en) | 2013-07-26 | 2018-04-24 | Panasonic Intellectual Property Management Co., Ltd. | Video receiving device, appended information display method, and appended information display system |
US9762951B2 (en) | 2013-07-30 | 2017-09-12 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, added-information display method, and added-information display system |
US9900650B2 (en) | 2013-09-04 | 2018-02-20 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method, and additional information display system |
US9906843B2 (en) | 2013-09-04 | 2018-02-27 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method, and display system for providing additional information to be superimposed on displayed image |
US9906844B2 (en) | 2014-03-26 | 2018-02-27 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method and additional information display system |
US9774924B2 (en) | 2014-03-26 | 2017-09-26 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method and additional information display system |
US10194216B2 (en) | 2014-03-26 | 2019-01-29 | Panasonic Intellectual Property Management Co., Ltd. | Video reception device, video recognition method, and additional information display system |
JPWO2016009637A1 (en) * | 2014-07-17 | 2017-04-27 | パナソニックIpマネジメント株式会社 | Recognition data generation device, image recognition device, and recognition data generation method |
CN106233747A (en) * | 2014-07-17 | 2016-12-14 | 松下知识产权经营株式会社 | Identification Data generating means, image identification device and Identification Data generate method |
WO2016009637A1 (en) * | 2014-07-17 | 2016-01-21 | パナソニックIpマネジメント株式会社 | Recognition data generation device, image recognition device, and recognition data generation method |
CN106233747B (en) * | 2014-07-17 | 2019-07-09 | 松下知识产权经营株式会社 | Identification Data generating means and method, image identification device and recording medium |
US10616613B2 (en) | 2014-07-17 | 2020-04-07 | Panasonic Intellectual Property Management Co., Ltd. | Recognition data generation device, image recognition device, and recognition data generation method |
US10200765B2 (en) | 2014-08-21 | 2019-02-05 | Panasonic Intellectual Property Management Co., Ltd. | Content identification apparatus and content identification method |
JP2022033234A (en) * | 2017-10-06 | 2022-02-28 | パナソニックIpマネジメント株式会社 | refrigerator |
JP7289083B2 (en) | 2017-10-06 | 2023-06-09 | パナソニックIpマネジメント株式会社 | refrigerator |
CN108856624A (en) * | 2018-07-17 | 2018-11-23 | 日照德信机械制造有限公司 | A kind of die forging hot forging ejection cylinder |
JP7459916B2 (en) | 2019-03-27 | 2024-04-02 | 日本電気株式会社 | Object tracking method, object tracking device, and program |
JP2021184535A (en) * | 2020-05-21 | 2021-12-02 | 株式会社エクサウィザーズ | Image capture device |
CN114979463A (en) * | 2022-04-12 | 2022-08-30 | 北京卡普拉科技有限公司 | Intelligent parking recording method and device, storage medium and equipment |
CN114979463B (en) * | 2022-04-12 | 2023-08-08 | 北京卡普拉科技有限公司 | Intelligent parking recording method, device, storage medium and equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007134948A (en) | Device for imaging person in parked vehicle | |
EP2372654B1 (en) | Object tracking apparatus, object tracking method, and control program | |
EP1894142B1 (en) | Target detection and tracking from overhead video streams | |
JP4568009B2 (en) | Monitoring device with camera cooperation | |
US20160086038A1 (en) | Automatic extraction of secondary video streams | |
EP3043555B1 (en) | Image storage method and device thereof | |
JP5106302B2 (en) | Moving object tracking device | |
JP4996404B2 (en) | Human behavior search device | |
WO2004004320A1 (en) | Digital processing of video images | |
US20200145623A1 (en) | Method and System for Initiating a Video Stream | |
JP6979041B2 (en) | Methods and systems for recording privacy-enabled data | |
CN1656502A (en) | Method and apparatus for automatic face blurring | |
JP2003284053A (en) | Monitoring camera system and monitoring camera control device | |
JP2007249841A (en) | Image recognition device | |
JP6013923B2 (en) | System and method for browsing and searching for video episodes | |
JP4852355B2 (en) | Abandoned object detection device and abandoned object detection method | |
JP2005173787A (en) | Image processor detecting/recognizing moving body | |
JP4618062B2 (en) | Monitoring device, monitoring system, and monitoring method | |
JP4617286B2 (en) | Unauthorized passing person detection device and unauthorized passing person recording system using the same | |
KR101468117B1 (en) | Intelligent image monitoring method and apparatus thereof | |
US20120189161A1 (en) | Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus | |
JP5159390B2 (en) | Object detection method and apparatus | |
KR101904425B1 (en) | Method for searching object data for analyzing large amounts of CCTV video | |
JP2008182459A (en) | Passage monitoring system | |
KR20210060275A (en) | Parking management system using image analysis based vehicle object recognition and tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071113 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071120 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090203 |