JP7193355B2 - 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム - Google Patents

撮影装置、撮影方法、識別装置、識別方法、および識別プログラム Download PDF

Info

Publication number
JP7193355B2
JP7193355B2 JP2019005080A JP2019005080A JP7193355B2 JP 7193355 B2 JP7193355 B2 JP 7193355B2 JP 2019005080 A JP2019005080 A JP 2019005080A JP 2019005080 A JP2019005080 A JP 2019005080A JP 7193355 B2 JP7193355 B2 JP 7193355B2
Authority
JP
Japan
Prior art keywords
image
occupant
face
vehicle
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019005080A
Other languages
English (en)
Other versions
JP2020113940A (ja
Inventor
祐二 有馬
悠馬 小林
敏正 舟木
竜太郎 千
秀明 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
I Pro Co Ltd
Original Assignee
I Pro Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by I Pro Co Ltd filed Critical I Pro Co Ltd
Priority to JP2019005080A priority Critical patent/JP7193355B2/ja
Priority to US16/743,487 priority patent/US11164018B2/en
Publication of JP2020113940A publication Critical patent/JP2020113940A/ja
Application granted granted Critical
Publication of JP7193355B2 publication Critical patent/JP7193355B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本開示は、撮影装置、撮影方法、識別装置、識別方法、および識別プログラムに関する。
カメラが装着された監視車両により運行または駐停車中である被監視車両の情報を獲得し、データベースを通してその車両に問題があるがどうかを把握し、不審な車両を初期に処理できるようにする、監視車両を利用した被監視車両の車両番号自動認識システムが提案されている(特許文献1)。
特表2004-536410号公報
一方、不特定多数の人物を撮影対象とする撮影装置の増加に伴い、プライバシ侵害の懸念が増加している。そこで、プライバシ侵害に配慮した、移動体の乗員の識別装置が求められている。
本開示の一実施例は、移動体の乗員の識別に用いられる、改善された撮影装置、撮影方法、識別装置、識別方法、および識別プログラムの提供に資する。
本開示の一実施例に係る識別装置は、監視装置により撮影された移動体の乗員の顔が含まれない部分の第1の映像と前記監視装置により撮影された前記移動体の前記乗員の顔が含まれる第2の映像とを蓄積する蓄積部と、前記第1の映像を用いて前記乗員の顔が識別対象であるか否かを判定する判定部と、前記判定の結果が前記乗員の顔が前記識別対象であることを示す場合に、前記蓄積部から前記第2の映像を取得し、前記第2の映像を用いて、前記乗員の顔を識別する識別部と、を備える構成を採る。
本開示の一実施例に係る識別方法は、監視装置により撮影された前記移動体の乗員の顔が含まれない部分の第1の映像と前記監視装置により撮影された前記移動体の前記乗員の顔が含まれる第2の映像とを蓄積し、前記第1の映像を用いて前記乗員の顔が識別対象であるか否かを判定し、前記判定の結果が前記乗員の顔が前記識別対象であることを示す場合に前記第2の映像を取得し、前記第2の映像を用いて、前記乗員の顔を識別する構成を採る。
本開示の一実施例に係る識別プログラムは、識別装置に、監視装置により撮影された移動体の乗員の顔が含まれない部分の第1の映像と前記監視装置により撮影された前記移動体の前記乗員の顔が含まれる第2の映像とを蓄積する処理と、前記第1の映像を用いて前記乗員の顔が識別対象であるか否かを判定する処理と、前記判定の結果が前記乗員の顔が前記識別対象であることを示す場合に前記第2の映像を取得する処理と、前記第2の映像を用いて、前記乗員の顔を識別する処理と、を実行させるための構成を採る。
なお、これらの包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム、または、記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の一実施例によれば、移動体の乗員の識別に用いられる、改善された撮影装置、撮影方法、識別装置、識別方法、および識別プログラムを提供できる。
本開示の一実施例における更なる利点および効果は、明細書および図面から明らかにされる。かかる利点および/または効果は、いくつかの実施形態並びに明細書および図面に記載された特徴によってそれぞれ提供されるが、1つまたはそれ以上の同一の特徴を得るために必ずしも全てが提供される必要はない。
実施の形態1に係る監視システムの構成の一例を示す図 実施の形態1に係る撮影部の構成の一例を示す図 実施の形態1に係る撮影部の撮影動作の一例を説明するフローチャート 実施の形態1に係る撮影部のストリーミング動作 の一例を説明するフローチャート 実施の形態1に係る撮影部の駆動動作の一例を説明するフローチャート 実施の形態1に係る監視システムの動作の一例を説明するシーケンス図 実施の形態1に係る監視システムの動作の他の一例を説明するシーケンス図 実施の形態1に係る監視システムの動作の他の一例を説明するシーケンス図 変形例1に係る撮影部の構成の一例を示す図 変形例1に係る撮影部のストリーミング動作の一例を示すフローチャート 実施の形態2に係る監視システムの構成の一例を示す図 実施の形態3に係る監視システムの構成の一例を示す図 実施の形態3に係る監視システムの動作の一例を説明するシーケンス図 実施の形態4に係る監視システムの構成の一例を示す図 実施の形態4に係る監視システムの動作の一例を説明するシーケンス図
近年、画像センサの低価格化および高性能化に伴い、不特定多数の人物を撮影対象とする撮影装置の設置が増加している。例えば、犯罪行為後の逃走行為に乗用車が使用されることが多い。したがって、走行中または停車中の乗用車の乗員を識別することは、犯罪行為の抑止や捜査に有用である。
一方、本人の与り知らないところで人物が撮影される機会が増加している。さらに、近年の画像処理技術の発展に伴い、本人の与り知らないところで本人の画像が分類され利用される機会も増加している。そこで、本人の画像の目的外利用を抑制できる識別システムが求められている。
以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、以下に説明する実施の形態は一例であり、本開示は以下の実施の形態により限定されるものではない。また、以下において、車両(乗用車)を移動体の一例にとって本開示を説明するが、移動体は、車両に限定されない。
(実施の形態1)
図1は、実施の形態1に係る監視システム1の構成の一例を示す図である。
監視システム1は、監視装置(撮影装置)10と、映像蓄積解析装置(識別装置)20と、端末装置30と、を備える。
監視装置10は、監視対象範囲を撮影し、映像データを出力する。監視対象範囲は、例えば、車両の乗員の顔が含まれる範囲と、顔が含まれない範囲と、の2つの範囲を含む。顔が含まれない範囲は、車両の一部が含まれる範囲を含む。一例において、車両の一部は、ナンバープレートを含む。一例において、車両の一部は、ヘッドライト、エンブレム、フロントマスク、タイヤ、ホイール、および車両の塗装部分の少なくとも1つを含む。映像データは、乗員の顔が含まれる範囲を撮影して生成された乗員顔映像データと、車両の一部を含む範囲を撮影して生成された車両映像データと、を含む。乗員顔映像データおよび車両映像データは、例えば、それぞれ、独立の映像ストリーム(乗員顔映像ストリームおよび車両映像ストリーム)の形式で出力される。監視装置10は、例えば、道路の脇または上方、或いは店舗の駐車場といった、車両および乗員の顔が撮影できる場所に設置される。
監視装置10は、監視対象範囲を撮影する撮影部12(または撮影部12a)を備える。撮影部12および撮影部12aの構成の詳細については、それぞれ、図2および図9を参照して後述する。
映像蓄積解析装置20は、監視装置10から受け取った映像データを解析し、解析した結果を端末装置30に送信する。映像蓄積解析装置20は、例えば、ネットワークNを介して映像データを監視装置10から受け取る。ネットワークNは、例えば、インターネット、イントラネット、またはLAN(Local Area Network)である。映像蓄積解析装置20は、映像蓄積部22と、ナンバー解析部24と、車両特徴解析部26と、乗員顔解析部28と、を備える。映像蓄積解析装置20は、例えば、プロセッサとメモリとを備える、PC(Personal Computer)またはワークステーションといったコンピュータ(情報処理装置)であり、メモリが記憶するプログラムをプロセッサが実行することにより、各構成要素の機能を実現する。プロセッサは、例えば、CPU(Central Processing Unit)およびGPU(Graphical Processing Unit)の少なくとも1つである。プロセッサは、ASIC(Application Specific Integrated Circuit)またはFPGA(Field-Programmable Gate Array)であってもよい。解析部は、コアまたはエンジンとも称される。
映像蓄積部22は、監視装置10から受け取った映像データを一時的に蓄積する。次いで、映像蓄積部22は、他の装置または構成要素からの読み出し要求に応じて、蓄積した映像データを出力する。映像蓄積部22は、例えば、RAM(Random Access Memory)、フラッシュメモリ、またはハードディスクである。
ナンバー解析部24は、車両映像データを解析し、車両のナンバーが登録済みの車両のナンバーと一致したか否かを示す検索の結果(解析の結果)を取得する。ここで、車両映像データの解析は、車両映像データから、映像に映っているナンバープレートの画像を抽出することと、ナンバーを認識することと、認識したナンバーを登録済みのナンバーリストの中から検索することと、を含む。ナンバー解析部24は、例えば、パターンマッチングまたはディープラーニングを用いて、ナンバーを認識する。また、ナンバーが一致するとは、登録済みのナンバーリストの中に、ナンバー解析部24が認識したナンバーに一致するナンバーが含まれることをいう。
ナンバー解析部24は、検索の結果を乗員顔解析部28に通知(出力)する。一例において、ナンバー解析部24は、検索の結果を端末装置30に通知(出力)する。
車両特徴解析部26は車両映像データを解析し、車両の特徴が登録済みの車両の特徴と一致したか否かを示す検出の結果(解析の結果)を取得する。ここで、車両映像データの解析は、車両映像データから、映像に映っている車両の一部の画像を抽出することと、車両の特徴を検出することと、検出した車両の特徴を登録済みの車両の特徴リストの中から検索することと、を含む。検出する車両の特徴は、例えば、車両の塗装部分の色および/または車種である。車両特徴解析部26は、例えば、パターンマッチングまたはディープラーニングを用いて、抽出した画像に映っているナンバープレートの周囲のヘッドライトの形状、エンブレム、フロントマスク、タイヤ、および/またはホイールに基づいて、車種を検出する。また、車両の特徴が一致するとは、登録済みの車両の特徴リストの中に、車両特徴解析部26が検出した車両の特徴に一致する車両の特徴が含まれることをいう。
車両特徴解析部26は、検出の結果を乗員顔解析部28に通知(出力)する。一例において、車両特徴解析部26は、検出の結果を端末装置30に通知(出力)する。
乗員顔解析部28は、乗員の顔を解析し、解析の結果を取得する。ここで、乗員の顔(または乗員顔映像データ)の解析は、ナンバー解析部24および/または車両特徴解析部26が顔画像解析対象であると判定した乗員顔映像データから、映像に映っている乗員の顔画像を抽出することと、抽出した顔画像と登録済みの顔画像とを照合することと、を含む。顔画像の照合は、例えば、特徴点を用いたパターンマッチングまたはディープラーニングを用いて行ってもよい。乗員の顔(または乗員顔映像データ)の解析は、さらに、顔画像の照合の結果に基づき、映像に映っている乗員を識別することを含む。
一例において、乗員顔解析部28は、登録済みの顔画像と、顔画像に対応する乗員に関する個人情報を関連付けて記憶する記憶部(図示せず)を備える。個人情報は、例えば、氏名、住所、および年齢の少なくとも1つである。他の一例において、監視システム1は、登録済みの顔画像と、顔画像に対応する乗員に関する個人情報を関連付けて記憶する記憶装置(図示せず)を備え、乗員顔解析部28は、記憶装置にアクセスして、登録済み顔画像および個人情報を取得する。
一例において、乗員顔解析部28は、乗員顔映像データに含まれる乗員の顔の周辺部分(例えば、乗員が着用する服装の色)を解析する。例えば、乗員顔解析部28は、解析した服装の色に応じて、乗員の顔を解析するか否かを判定する。
次いで、乗員顔解析部28は、乗員顔映像データの識別の結果を端末装置30に通知(出力)する。識別の結果は、撮影部12または撮影部12aが撮影した時刻と、撮影した場所と、監視対象範囲の画像または映像と、ナンバー解析部24が認識したナンバーと、車両特徴解析部26が解析した車両の特徴と、および乗員顔解析部28が識別した乗員の顔画像と、乗員に関連する情報と、の少なくとも1つを含む。
端末装置30は、ナンバーの検索の結果、車両の特徴の検出の結果、および乗員の識別の結果の少なくとも1つを表示する。端末装置30は、例えば、ディスプレイ装置を備えるクライアントPCである。一例において、それぞれ異なる場所に設置された複数の監視装置10により、それぞれ、異なる時刻において撮影され、乗員顔解析部28によって同一であると識別された乗員について、端末装置30は、乗員の車両の移動経路を地図上に表示する。撮影部12は、例えば、GPS(Global Positioning Satellite)端末を備え、GPS端末が測位した位置情報を、端末装置30に送信する。端末装置は、撮影部12から受信した位置情報に基づいて、乗員の車両の移動経路を地図上に表示する。
図2は、実施の形態1に係る撮影部12の構成の一例を示す図である。
撮影部12は、監視対象範囲を撮影する。監視対象範囲は、例えば、車両の乗員の顔が含まれる範囲と、車両の一部が含まれる範囲と、の2つの範囲を含む。撮影部12は、前面フィルタモジュール102と、レンズモジュール104と、撮影素子106と、照度検出部108と、制御部110と、前面フィルタ駆動部112と、レンズ駆動部114と、照明駆動部116と、照明部118と、記憶部120と、を備える。
前面フィルタモジュール102は、レンズモジュール104に入射する光を調節するためのフィルタを備える。フィルタは、例えば、偏光フィルタおよびバンドパスフィルタである。
レンズモジュール104は、レンズと、レンズ内フィルタと、を備える。レンズモジュール104のレンズは、監視対象範囲から前面フィルタモジュール102を介して入射する光を撮影素子106に集光する。レンズ内フィルタは、例えば、IR(Infra-Red:赤外線)遮光フィルタおよび素ガラスである。
撮影素子106は、レンズが集光した光を電気信号に変換する。撮影素子106は、例えば、CMOS(Complementary Metal-Oxide-Semiconductor)画像センサ、CCD(charge-coupled device)画像センサといった、画像センサである。
照度検出部108は、周囲の照度を検出する。照度検出部108は、例えば、フォトトランジスタまたはフォトダイオードである。
制御部110は、撮影素子106と、前面フィルタ駆動部112と、レンズ駆動部114と、照明駆動部116と、記憶部120との動作を、例えば、電気信号を送信することにより制御し、撮影部12の機能を実現する。制御部110は、撮影素子106から電気信号を入力し、乗員顔映像ストリームと車両映像ストリームとを出力する。制御部は、例えば、LSI(Large-Scale Integrated circuit)、CPUといった集積回路を1チップにまとめた、SoC(System on Chip)である。
前面フィルタ駆動部112は、制御部110による制御に応じて、前面フィルタモジュール102のフィルタを切り替える。前面フィルタ駆動部112は、例えば、モータを備える。
レンズ駆動部114は、制御部110による制御に応じて、レンズモジュール104のレンズ内フィルタを切り替える。レンズ駆動部114は、例えば、モータを備える。
照明駆動部116は、制御部110による制御に応じて、照明部118を駆動する。照明部118の駆動は、例えば、照明部118が備える夜間用短波長照明の点灯および消灯である。
照明部118は、照明駆動部116による駆動に応じて点灯および消灯する。照明部118は、例えば、LED(Light Emitting Diode)である。
記憶部120は、映像データを一時的に記憶する。一例において、記憶部120は、シャッター駆動設定を示す情報を、一時的に記憶する。記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリカードといった、データを記憶する少なくとも1つのストレージデバイスである。
図3は、実施の形態1に係る撮影部12の撮影動作の一例を説明するフローチャートである。
ステップS101において、制御部110は、撮影素子106のシャッター駆動を設定する。シャッター駆動の設定は、露光時間の長短を含む。一例において、制御部110は、繰り返し実行されるステップS101において、露光時間の長短を交互に切り替える。
ステップS103において、制御部110は、撮影素子106から映像データを取得する。映像データは、車両の乗員の顔が含まれる範囲の映像データと、車両の一部が含まれる範囲の映像データを含む。
ステップS105において、制御部110は、映像データを信号処理する。信号処理は、例えば、ノイズ除去、明度補正、およびクリッピングの少なくとも1つである。
ステップS107において、制御部110は、ステップS105において信号処理された映像データとステップS101において設定されたシャッター駆動の設定情報とを記憶部120に記憶させる。設定情報は、例えば、露光時間の長短を示す1ビットの値を含む。
ステップS109において、制御部110は、監視システム1による監視を継続するか否かを判定する。制御部110は、例えば、監視システム1の稼働中は、監視システム1による監視を継続すると判定し、シャットダウンの際に、監視システム1による監視を継続しないと判定する。
監視を継続する場合(ステップS109:Yes)、制御部110は、ステップS101以降を繰り返す。一方、監視を継続しない場合(ステップS109:No)、制御部110は、処理を終了する。
図4は、実施の形態1に係る撮影部12のストリーミング動作の一例を説明するフローチャートである。
ステップS201において、制御部110は、図3のステップS107において記憶部120に記憶させた映像データとシャッター駆動設定とを取得する。
ステップS203において、制御部110は、シャッター駆動設定の露光時間が短いか長いかを判定する。判定は、例えば、シャッター駆動設定の露光時間の長短を示す1ビットの値に基づいて行われる。
露光時間が短い場合(ステップS203:Yes)、ステップS205において、制御部110は、乗員顔映像データをストリーム形式にエンコード処理する。ストリーム形式は、例えば、MPEG-1、MPEG-2、MPEG-4、H.264、H.265、またはJPEGである。
次いで、ステップS207において、制御部110は、エンコード処理した乗員顔映像データを、第1のストリーム(ストリーム1)に配信(または、分配、割り当て、振り分け)し、処理は、ステップS213に進む。
一方、露光時間が長い場合(ステップS203:No)、ステップS209において、制御部110は、車両映像データをストリーム形式にエンコード処理する。
次いで、ステップS211において、制御部110は、エンコード処理した車両映像データを第2のストリーム(ストリーム2)に配信(または、分配、割り当て、振り分け)し、処理がステップS213に進む。
ステップS213において、制御部110は、監視システム1による監視を継続するか否かを判定する。制御部110は、例えば、監視システム1の稼働中は、監視システム1による監視を継続すると判定し、シャットダウンの際に、監視システム1による監視を継続しないと判定する。
監視を継続する場合(ステップS213:Yes)、制御部110は、ステップS201以降を繰り返す。一方、監視を継続しない場合(ステップS213:No)、制御部110は、処理を終了する。
図5は、実施の形態1に係る撮影部12の駆動動作の一例を説明するフローチャートである。
ステップS301において、照度検出部108は、照度を検出する。
ステップS303において、制御部110は、照度検出部108が検出した照度に基づいて、昼モードで動作するか夜モードで動作するかを決定する。例えば、制御部110は、照度検出部108が検出した照度が、第1の閾値よりも大きい場合、昼モードで動作すると決定する。また、制御部110は、照度検出部108が検出した照度が、第2の閾値よりも小さい場合、夜モードで動作すると決定する。第1の閾値と第2の閾値とは、値が等しくても異なってもよい。
昼モードで動作する場合(ステップS303:Yes)、ステップS305において、前面フィルタ駆動部112は、前面フィルタモジュール102の前面フィルタを偏光フィルタに切り替える。
次いで、ステップS307において、レンズ駆動部114は、レンズモジュール104が備えるレンズ内フィルタをIR遮光フィルタに切り替える。
次いで、ステップS309において、照明駆動部116は、照明部118を消灯し、ステップS317に進む。
一方、夜モードで動作する場合(ステップS303:No)、ステップS311において、前面フィルタ駆動部112は、前面フィルタモジュール102の前面フィルタをバンドパスフィルタに切り替える。
次いで、ステップS313において、レンズ駆動部114は、レンズ内フィルタを素ガラスに切り替える。
次いで、ステップS315において、照明駆動部116は、照明部118を点灯し、処理は、ステップS317に進む。
ステップS317において、制御部110は、監視システム1による監視を継続するか否かを決定する。制御部110は、例えば、監視システム1の稼働中は、監視システム1による監視を継続すると決定し、シャットダウンの際に、監視システム1による監視を継続しないと判定する。
監視を継続する場合(ステップS317:Yes)、ステップS301以降を繰り返す。一方、監視を継続しない場合(ステップS317:No)、処理は、終了する。
図6は、実施の形態1に係る監視システム1の動作の一例を説明するシーケンス図である。図6に示される動作においては、映像蓄積解析装置20が、映像データをナンバー解析部24、車両特徴解析部26、または乗員顔解析部28に送信(例えば、プッシュ送信)する。
ステップS501において、監視装置10は、監視対象範囲に含まれる車両の乗員の顔および車両の一部を撮影する。
ステップS503において、監視装置10は、映像蓄積解析装置20に、ネットワークNを介して映像データを送信(配信)する。
ステップS505において、映像蓄積解析装置20は、車両映像データをナンバー解析部24に渡す。
ステップS507において、ナンバー解析部24は、車両映像データに映っているナンバーを認識し、認識したナンバーを登録済みのナンバーリストの中から検索する。
ステップS509において、ナンバー解析部24は、ナンバーが一致したか否かを示す検索の結果を映像蓄積解析装置20に通知する。
ステップS511において、映像蓄積解析装置20は、車両特徴解析部26に車両映像データを渡す。一例において、映像蓄積解析装置20は、ナンバーが一致した場合に、車両特徴解析部26に車両映像データを渡す。他の一例において、映像蓄積解析装置20は、ナンバーが一致していない場合であっても、車両特徴解析部26に車両映像データを渡す。
ステップS513において、車両特徴解析部26は、車両映像データに基づいて、車両の特徴を検出する。
ステップS515において、車両特徴解析部26は、車両の特徴が一致したか否かを示す検出の結果を映像蓄積解析装置20に通知する。
ステップS517において、映像蓄積解析装置20は、乗員顔解析部28に乗員顔映像データを渡す。一例において、映像蓄積解析装置20は、ナンバーが一致した場合に、乗員顔解析部28に乗員顔映像データを渡す。他の一例において、映像蓄積解析装置20は、車両の特徴が一致した場合に、乗員顔解析部28に乗員顔映像データを渡す。他の一例において、映像蓄積解析装置20は、ナンバーおよび車両の特徴がそれぞれ一致した場合に、乗員顔解析部28に乗員顔映像データを渡す。
ステップS519において、乗員顔解析部28は、乗員顔映像データに基づいて、映像に映っている乗員を識別する。
ステップS521において、乗員顔解析部28は、乗員を識別したか否かを示す識別の結果を映像蓄積解析装置20に渡す。
ステップS523において、映像蓄積解析装置20は、検索の結果、検出の結果、識別の結果、およびワンショットを集約する。ここで、ワンショットとは、例えば、乗員顔映像データに含まれる画像のうち、乗員の顔の識別に成功した画像の1つである。また、集約するとは、検索の結果、検出の結果、識別の結果、およびワンショットを、例えば、タイムスタンプやフレーム番号といった、時間を示す情報に基づいて、時間が一致するものを関連付けることである。
ステップS525において、映像蓄積解析装置20は、集約した検索の結果、検出の結果、識別の結果、およびワンショットを端末装置30に送信する。
ステップS527において、端末装置30は、集約した検索の結果、検出の結果、識別の結果、およびワンショットを表示し、処理は、終了する。
なお、ステップS505~S509とステップS511~S515とが実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。この場合、ステップS505において、一例において、映像蓄積解析装置20は、車両の特徴が一致した場合に、ナンバー解析部24に車両映像データを渡す。他の一例において、映像蓄積解析装置20は、車両の特徴が一致していない場合であっても、ナンバー解析部24に車両映像データを渡す。
図6に示される動作によれば、乗員の顔が識別対象でない場合、乗員顔解析部28が、乗員顔映像データを受け取ることがない。つまり、乗員顔解析部28は、車両映像データに映っているナンバーが登録済みナンバーリストのナンバーに一致すること、および車両映像データに映っている車両の特徴に一致すること、の両方または一方を満たさない限り、乗員の顔の照合を行わない。したがって、乗員顔解析部28によるプライバシ侵害の可能性をより低減できる。
図7は、実施の形態1に係る監視システム1の動作の他の一例を説明するシーケンス図である。図7に示される動作においては、ナンバー解析部24と車両特徴解析部26と乗員顔解析部28との間で直接、映像データの受け渡しが行われる。
ステップS601において、監視装置10は、監視対象範囲に含まれる車両の乗員の顔および車両の一部を撮影する。
ステップS603において、監視装置10は、映像蓄積解析装置20に、ネットワークNを介して映像データを送信(配信)する。
ステップS605において、映像蓄積解析装置20は、車両映像データおよび乗員顔映像データをナンバー解析部24に渡す。
ステップS607において、ナンバー解析部24は、ナンバーを認識し、認識したナンバーを登録済みのナンバーリストの中から検索する。
ステップS609において、ナンバー解析部24は、ナンバーが一致したか否かを示す検索の結果を映像蓄積解析装置20に通知する。
ステップS611において、ナンバー解析部24は、ナンバーが一致した場合に、ナンバーが一致したことを示す通知および車両映像データの撮影時間を示す情報とともに、車両映像データを車両特徴解析部26に渡す。
ステップS613において、ナンバー解析部24は、ナンバーが一致した場合に、ナンバーが一致したことを示す通知と、車両映像データの撮影時間を示す情報とともに、乗員顔映像データを乗員顔解析部28に渡す。なお、ステップS611およびステップS613が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS615において、車両特徴解析部26は、車両映像データに基づいて、車両の特徴を検出する。
ステップS617において、車両特徴解析部26は、車両の特徴が一致したか否かを示す検出の結果を映像蓄積解析装置20に通知する。
ステップS619において、乗員顔解析部28は、乗員顔映像データに基づいて、映像に映っている乗員を識別する。なお、ステップS615およびステップS619が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS621において、乗員顔解析部28は、乗員を識別したか否かを示す識別の結果を映像蓄積解析装置20に渡す。なお、ステップS617およびステップS621が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS623において、映像蓄積解析装置20は、検索の結果、検出の結果、識別の結果、およびワンショットを集約する。
ステップS625において、映像蓄積解析装置20は、集約した検索の結果、検出の結果、識別の結果、およびワンショットを端末装置30に送信する。
ステップS627において、端末装置30は、集約した検索の結果、検出の結果、識別の結果、およびワンショットを表示する。
図7に示される動作によれば、ナンバー解析部24と車両特徴解析部26と乗員顔解析部28との間で直接、映像データの受け渡しが行われる。したがって、映像データの受け渡し処理の負荷を低減でき、ナンバー解析部24と車両特徴解析部26と乗員顔解析部28の並列動作もより容易になる。
図8は、実施の形態1に係る監視システム1の動作の他の一例を説明するシーケンス図である。図8に示される動作においては、映像蓄積解析装置20は、ナンバー解析部24、車両特徴解析部26、または乗員顔解析部28からの要求に応じて、映像データを送信する。
ステップS701において、監視装置10は、監視対象範囲に含まれる車両の乗員の顔および車両の一部を撮影する。
ステップS703において、監視装置10は、映像蓄積解析装置20に、ネットワークNを介して映像データを送信(配信)する。
ステップS705において、映像蓄積解析装置20は、車両映像データおよび乗員顔映像データをナンバー解析部24に渡す。
ステップS707において、ナンバー解析部24は、ナンバーを認識し、認識したナンバーを登録済みのナンバーリストの中から検索する。
ステップS709において、ナンバー解析部24は、ナンバーが一致したか否かを示す検索の結果を映像蓄積解析装置20に通知する。
ステップS711において、ナンバー解析部24は、ナンバーが一致した場合に、ナンバーが一致したことを示す通知とともに、車両映像データの撮影時間を示す情報を車両特徴解析部26に渡す。
ステップS713において、ナンバー解析部24は、ナンバーが一致した場合に、ナンバーが一致したことを示す通知とともに、車両映像データの撮影時間を示す情報を乗員顔解析部28に渡す。なお、ステップS711およびステップS713が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS715において、車両特徴解析部26は、車両映像データを映像蓄積解析装置20に要求する。
ステップS717において、乗員顔解析部28は、乗員顔映像データを映像蓄積解析装置20に要求する。なお、ステップS715およびステップS717が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS719において、映像蓄積解析装置20は、要求された車両映像データを車両特徴解析部26に渡す。
ステップS721において、映像蓄積解析装置20は、ナンバーが一致した場合に、乗員顔映像データを乗員顔解析部28に渡す。なお、ステップS719およびステップS721が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS723において、車両特徴解析部26は、車両映像データに基づいて、車両の特徴を検出する。
ステップS725において、車両特徴解析部26は、車両の特徴が一致したか否かを示す検出の結果を映像蓄積解析装置20に通知する。
ステップS727において、乗員顔解析部28は、乗員顔映像データに基づいて、映像に映っている乗員を識別する。なお、ステップS723およびステップS727が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS729において、乗員顔解析部28は、乗員を識別したか否かを示す識別の結果を映像蓄積解析装置20に渡す。なお、ステップS725およびステップS729が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS731において、映像蓄積解析装置20は、検索の結果、検出の結果、識別の結果、およびワンショットを集約する。一例において、映像蓄積解析装置20は、ナンバーが一致した場合に、ステップS731を実行する。他の一例において、映像蓄積解析装置20は、車両の特徴が一致した場合に、ステップS731を実行する。他の一例において、映像蓄積解析装置20は、ナンバーおよび車両の特徴がそれぞれ一致した場合に、ステップS731を実行する。
ステップS733において、映像蓄積解析装置20は、集約した検索の結果、検出の結果、識別の結果、およびワンショットを端末装置30に送信する。
ステップS735において、端末装置30は、集約した検索の結果、検出の結果、識別の結果、およびワンショットを表示する。
図8に示される動作によれば、映像蓄積解析装置20は、ナンバー解析部24、車両特徴解析部26、または乗員顔解析部28からの要求に応じて、映像データを送信する。したがって、ナンバー解析部24、車両特徴解析部26、または乗員顔解析部28が、それぞれの負荷の状態に応じて処理タイミングを調整することがより容易になる。
実施の形態1に係る監視システム1によれば、乗員の顔が識別対象であることが、ナンバー解析部24または車両特徴解析部26による解析結果によって示されない限り、乗員顔解析部28は、乗員顔映像データを解析せず、乗員の顔を識別しない。したがって、監視システム1は、全ての乗員の乗員顔映像データを解析する場合と比較して、乗員のプライバシ保護がより容易になる。
また、実施の形態1に係る撮影部12によれば、露光時間の異なる2つの映像ストリームが得られるので、異なる露光時間に応じた映像ストリームを解析対象に応じて適切に使い分けることができる。例えば、比較的明るいナンバープレートの解析に用いる映像ストリームの露光時間を短く設定し、比較的暗い車中にいる乗員の顔の解析に用いる映像ストリームの露光時間を長く設定することにより、映像ストリームの解析の精度を向上できる。さらに、撮影部12は、撮影素子106を1つ有し、撮影素子を複数有する場合と比較して、コストを節約できる。
(変形例1)
実施の形態1に係る撮影部12は、撮影素子106を1つ有する。これに対して、複数の撮影素子を用いる変形例1も考えられる。
図9は、変形例1に係る撮影部12aの構成の一例を示す図である。
撮影部12aは、監視対象範囲を撮影する。監視装置10は、前面フィルタモジュール102と、レンズモジュール104aと、レンズモジュール104bと、撮影素子106aと、レンズモジュール104bと、照度検出部108と、制御部110と、前面フィルタ駆動部112と、レンズ駆動部114と、照明駆動部116と、照明部118と、記憶部120と、を備える。撮影部12aは、レンズモジュール104aと、レンズモジュール104bと、撮影素子106aと、レンズモジュール104bと、を備える点において撮影部12と異なる。撮影部12と撮影部12aとにおいて共通する点については、説明を省略する。
レンズモジュール104aは、レンズと、レンズ内フィルタと、を備える。レンズモジュール104aのレンズは、監視対象範囲から前面フィルタモジュール102を介して入射する光を撮影素子106に集光する。監視対象範囲は、例えば、車両の乗員の顔が含まれる範囲である。レンズ内フィルタは、例えば、IR遮光フィルタおよび素ガラスである。
レンズモジュール104bは、レンズと、レンズ内フィルタと、を備える。レンズモジュール104bのレンズは、監視対象範囲から前面フィルタモジュール102を介して入射する光を撮影素子106に集光する。監視対象範囲は、例えば、車両の一部が含まれる範囲である。レンズ内フィルタは、例えば、IR遮光フィルタおよび素ガラスである。
撮影素子106a,106bは、レンズが集光した光を電気信号に変換する。撮影素子106は、例えば、CMOS画像センサ、CCD画像センサといった、画像センサである。
図10は、変形例1に係る撮影部12aのストリーミング動作の一例を示すフローチャートである。
ステップS401において、制御部110は、図3のステップS107において記憶部120に記憶させた映像データを取得する。
ステップS403において、制御部110は、車両映像データおよび車両映像データを、それぞれ、ストリーム形式にエンコード処理する。ストリーム形式は、例えば、MPEG-1、MPEG-2、MPEG-4、H.264、H.265、またはJPEGである。
次いで、ステップS405において、制御部110は、エンコード処理された乗員顔映像データおよび車両映像データを、それぞれ、第1のストリーム(ストリーム1)および第2のストリーム(ストリーム2)に配信(または、分配、割り当て、振り分け)する。
ステップS407において、制御部110は、監視システム1による監視を継続するか否かを判定する。制御部110は、例えば、監視システム1の稼働中は、監視システム1による監視を継続すると判定し、シャットダウンの際に、監視システム1による監視を継続しないと判定する。
監視を継続する場合(ステップS407:Yes)、ステップS401以降を繰り返す。一方、監視を継続しない場合(ステップS407:No)、処理は、終了する。
なお、図3に示される撮影動作のフローは、ステップS107においてシャッター駆動設定を記憶させる点を除いて、変形例1にも適用できる。また、図5に示される駆動動作のフローも、変形例1に適用できる。
変形例1に係る撮影部12aは、複数の撮影素子106a,106bを有し、撮影素子が1つである場合と比較して、フレームレートを高めることができ、より高速走行する車両に対しても適用できる。
(変形例2)
実施の形態1に係る撮影部12または変形例1に係る撮影部12aは、それぞれ、2つの映像ストリームを出力する。これに対して、複数の撮影部または撮影装置(図示せず)が、それぞれ、1つの映像ストリームを出力する変形例2も考えられる。複数の撮影部または撮像装置は、ネットワークNを介して映像蓄積解析装置20に接続されてもよい。例えば、店舗外および店舗内に、1つずつ撮影装置を設け、店舗外に設けられた撮影装置(例えば、屋外用防犯カメラ)が、車両映像ストリームを出力し、店舗内に設けられた撮影装置(例えば、屋内用防犯カメラ)が、乗員顔映像ストリーム(顔映像ストリーム)を出力する。変形例2によれば、店舗を訪れた客および車両の乗員のプライバシ侵害に配慮しつつ、店舗内の明るい環境下で撮影された顔映像ストリームを用いて、乗員顔映像データ(顔映像データ)を解析できる。
(実施の形態2)
図11は、実施の形態2に係る監視システム1aの構成の一例を示す図である。
監視システム1aは、監視装置(撮影装置)10と、端末装置30と、映像蓄積装置40と、ナンバー解析装置50と、車両特徴解析装置60と、乗員顔解析装置(識別装置)70と、を備える。
監視システム1aは、端末装置30と、映像蓄積装置40と、ナンバー解析装置50と、車両特徴解析装置60と、乗員顔解析装置70と、を個別に備える点において監視システム1と異なる。監視システム1と監視システム1aとにおいて共通する点については、説明を省略する。
映像蓄積装置40は、監視装置10から受け取った映像データを一時的に蓄積する。次いで、映像蓄積装置40は、蓄積した映像データを、ナンバー解析装置50と、車両特徴解析装置60と、乗員顔解析装置70と、に出力する。映像蓄積装置40は、映像蓄積部22を備える。映像蓄積部22は、実施の形態1に係る監視システム1の映像蓄積部22と同等の構成を備える。映像蓄積装置40は、例えば、NAS(Network Attached Storage)である。
ナンバー解析装置50は、車両映像データに基づいて、乗員顔映像データが顔画像解析対象であるか否かを判定する。ナンバー解析装置50は、ナンバー解析部24を備える。ナンバー解析部24は、実施の形態1に係る監視システム1のナンバー解析部24と同等の構成を備える。
車両特徴解析装置60は、車両映像データに基づいて、乗員顔映像データが顔画像解析対象であるか否かを判定する。車両特徴解析装置60は、車両特徴解析部26を備える。車両特徴解析部26は、実施の形態1に係る監視システム1の車両特徴解析部26と同等の構成を備える。
乗員顔解析装置70は、ナンバー解析装置50および/または車両特徴解析装置60が顔画像解析対象であると判定した乗員顔映像データを解析する。乗員顔解析装置70は、乗員顔解析部28を備える。乗員顔解析部28は、実施の形態1に係る監視システム1の乗員顔解析部28と同等の構成を備える。
映像蓄積装置40と、ナンバー解析装置50と、車両特徴解析装置60と、乗員顔解析装置70と、は、いずれも、例えば、CPUまたはGPUとメモリとを備える、PC(Personal Computer)またはワークステーションといったサーバコンピュータであり、メモリが記憶するプログラムをCPUまたはGPUが実行することにより、各構成要素の機能を実現する。
実施の形態2においても、実施の形態1に係る映像蓄積解析装置20の動作を、例えば、乗員顔解析装置70が実行することにより、監視システム1bの各構成要素は、図6~図8を参照して上述したシーケンス図に沿って動作できる。
実施の形態2によれば、ナンバーの解析と車両の特徴の解析と乗員の顔の解析とが、それぞれ別体に設けられた装置で行われる。したがって、各装置を構成するプロセッサおよびメモリの構成を、それぞれの解析動作に合わせて最適化できる。なお、監視システム1aは、端末装置30と、映像蓄積装置40と、ナンバー解析装置50と、車両特徴解析装置60と、乗員顔解析装置70と、を個別に備えるが、これらのうちの少なくとも2つが、共通の装置であってもよい。
(実施の形態3)
図12は、実施の形態3に係る監視システム1bの構成の一例を示す図である。
監視システム1bは、監視装置(撮影装置)10aと、映像蓄積解析装置(識別装置)20aと、端末装置30と、を備える。監視システム1bは、監視装置10aと、映像蓄積解析装置20aと、を備える点において監視システム1と異なる。監視システム1と監視システム1bとにおいて共通する点については、説明を省略する。
監視装置10aは、監視対象範囲を撮影し、映像データを出力する。さらに、監視装置10aは、車両映像データに基づいて、顔映像データが顔画像解析対象であるか否かを判定する。監視装置10aは、判定の結果を映像蓄積解析装置20aに通知する。
監視装置10aは、撮影部12(または撮影部12a)と、ナンバー解析部32と、を備える。監視装置10aの撮影部12(または撮影部12a)およびナンバー解析部24は、それぞれ、実施の形態1に係る監視装置10の撮影部12(または撮影部12a)およびナンバー解析部24と同等の構成を備える。
映像蓄積解析装置20aは、映像蓄積部22と、車両特徴解析部26と、乗員顔解析部28と、を備える。映像蓄積解析装置20aの映像蓄積部22と乗員顔解析部28と車両特徴解析部26とは、それぞれ、実施の形態1に係る映像蓄積解析装置20の映像蓄積部22と乗員顔解析部28と車両特徴解析部26と同等の構成を備える。
図13は、実施の形態3に係る監視システム1bの動作の一例を説明するシーケンス図である。
ステップS801において、監視装置10aは、監視対象範囲に含まれる車両の乗員の顔および車両の一部を撮影する。
ステップS803において、監視装置10aは、映像蓄積解析装置20aに、ネットワークNを介して映像データを送信(配信)する。
ステップS805において、映像蓄積解析装置20aは、車両映像データを車両特徴解析部26に渡す。ここで、図13に示されているように、車両特徴解析部26は、ナンバーが一致したことを示す通知(ナンバー一致通知)を受け取っていない場合、受け取った車両映像データを破棄する。
ステップS807において、映像蓄積解析装置20aは、乗員顔映像データを乗員顔解析部28に渡す。ここで、図13に示されているように、乗員顔解析部28は、車両の特徴が一致したことを示す通知(車両特徴一致通知)またはナンバー一致通知を受け取っていない場合、受け取った乗員顔映像データを破棄する。なお、ステップS805およびステップS807が実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。
ステップS809において、監視装置10aのナンバー解析部32は、ナンバーを認識し、認識したナンバーを登録済みのナンバーリストの中から検索する。
ステップS811において、監視装置10aのナンバー解析部32は、ナンバーが一致したか否かを示す検索の結果を映像蓄積解析装置20aに通知する。
ステップS813において、ナンバーが一致することを検索の結果が示す場合、ナンバー一致通知を車両特徴解析部26に通知する。
ステップS815において、車両特徴解析部26は、車両映像データに基づいて、車両の特徴を検出する。
ステップS817において、車両特徴解析部26は、車両の特徴が一致したか否かを示す検出の結果を映像蓄積解析装置20aに通知する。
ステップS819において、車両の特徴が一致することを検出の結果が示す場合、車両特徴一致通知を乗員顔解析部28に通知する。
ステップS821において、乗員顔解析部28は、乗員顔映像データに基づいて、映像に映っている乗員を識別する。
ステップS823において、乗員顔解析部28は、乗員を識別したか否かを示す識別の結果を映像蓄積解析装置20aに渡す。
ステップS825において、映像蓄積解析装置20aは、検索の結果、検出の結果、識別の結果、およびワンショットを集約する。
ステップS827において、映像蓄積解析装置20aは、集約した検索の結果、検出の結果、識別の結果、およびワンショットを端末装置30に送信する。
ステップS829において、端末装置30は、集約した検索の結果、検出の結果、識別の結果、およびワンショットを表示する。
実施の形態3によれば、監視装置10aと映像解析装置20aとが別体として設けられ、ネットワークNを介して接続されている。したがって、実施の形態1および2と比較して、映像解析装置20aを多数の監視装置10aとより容易に接続できる。
(実施の形態4)
図14は、実施の形態4に係る監視システム1cの構成の一例を示す図である。
監視システム1cは、監視装置(撮影装置、識別装置)10bと、端末装置30と、映像蓄積装置40と、を備える。監視システム1cは、監視装置10bと、映像蓄積装置40と、を備える点において監視システム1と異なる。監視システム1と監視システム1cとにおいて共通する点については、説明を省略する。
監視装置10bは、監視対象範囲を撮影し、車両映像データおよび顔映像データを生成する。次いで、監視装置10bは、車両映像データに基づいて、乗員顔映像データが顔画像解析対象であるか否かを判定する。次いで、監視装置10bは、顔画像解析対象であると判定した乗員顔映像データを解析し、映像に映っている乗員を識別する。次いで、監視装置10bは、識別の結果を端末装置30に通知する。
監視装置10bは、撮影部12(または撮影部12a)と、ナンバー解析部24と、車両特徴解析部26と、乗員顔解析部28と、を備える。監視装置10bの撮影部12(または撮影部12a)と、ナンバー解析部24と、車両特徴解析部26と、乗員顔解析部28とは、それぞれ、実施の形態1に係る監視システム1の撮影部12(または撮影部12a)と、ナンバー解析部24と、車両特徴解析部26と、乗員顔解析部28と同等の構成を備える。監視装置10bは、例えば、CPUおよびメモリを備える、PC(Personal Computer)またはワークステーションといったサーバコンピュータであり、メモリが記憶するプログラムをCPUが実行することにより、各構成要素の機能を実現する。
映像蓄積装置40は、監視装置10から受け取った映像データを一時的に蓄積する。映像蓄積装置40は、映像蓄積部22を備える。映像蓄積部22は、実施の形態1に係る監視システム1の映像蓄積部22と同等の構成を備える。
図15は、実施の形態4に係る監視システム1cの動作の一例を説明するシーケンス図である。
ステップS901において、撮影部12または撮影部12aは、監視対象範囲に含まれる車両の乗員の顔および車両の一部を撮影する。
ステップS903において、撮影部12または撮影部12aは、映像データを監視装置10bに渡す。
ステップS905において、監視装置10bは、車両映像データをナンバー解析部24に渡す。
ステップS907において、ナンバー解析部24は、ナンバーを認識し、認識したナンバーを登録済みのナンバーリストの中から検索する。
ステップS909において、ナンバー解析部24は、ナンバーが一致したか否かを示す検索の結果を監視装置10bに通知する。
ステップS911において、監視装置10bは、車両特徴解析部26に車両映像データを渡す。一例において、監視装置10bは、ナンバーが一致した場合に、車両特徴解析部26に車両映像データを渡す。他の一例において、監視装置10bは、ナンバーが一致していない場合であっても、車両特徴解析部26に車両映像データを渡す。
ステップS913において、車両特徴解析部26は、車両映像データに基づいて、車両の特徴を検出する。
ステップS915において、車両特徴解析部26は、車両の特徴が一致したか否かを示す検出の結果を監視装置10bに通知する。
ステップS917において、監視装置10bは、乗員顔解析部28に乗員顔映像データを渡す。一例において、監視装置10bは、ナンバーが一致した場合に、乗員顔解析部28に乗員顔映像データを渡す。他の一例において、監視装置10bは、車両の特徴が一致した場合に、乗員顔解析部28に乗員顔映像データを渡す。他の一例において、監視装置10bは、ナンバーおよび車両の特徴がそれぞれ一致した場合に、乗員顔解析部28に乗員顔映像データを渡す。
ステップS919において、乗員顔解析部28は、乗員顔映像データに基づいて、映像に映っている乗員を識別する。
ステップS921において、乗員顔解析部28は、乗員を識別したか否かを示す識別の結果を監視装置10bに渡す。
ステップS923において、監視装置10bは、検索の結果、検出の結果、識別の結果、およびワンショットを集約する。
ステップS925において、監視装置10bは、集約した検索の結果、検出の結果、識別の結果、およびワンショットを、ネットワークNを介して端末装置30に通知する。
ステップS927において、端末装置30は、集約した検索の結果、検出の結果、識別の結果、およびワンショットを表示する。
なお、ステップS905~S909とステップS911~S915とが実行される順序は、逆であってもよく、または、同時(並列実行)であってもよい。この場合、ステップS905において、一例において、映像蓄積解析装置20は、車両の特徴が一致した場合に、ナンバー解析部24に車両映像データを渡す。他の一例において、映像蓄積解析装置20は、車両の特徴が一致していない場合であっても、ナンバー解析部24に車両映像データを渡す。
実施の形態4によれば、監視装置10bの乗員顔解析部28が、乗員の識別を実行する。したがって、実施の形態1から3と比較して、乗員の識別を、より容易に分散処理できる。
上述の実施の形態においては、各構成要素に用いる「・・・部」という表記は、「・・・回路(circuitry)」、「・・・デバイス」、「・・・ユニット」、又は、「・・・モジュール」といった他の表記に置換されてもよい。
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、開示の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
本開示はソフトウェア、ハードウェア、又は、ハードウェアと連携したソフトウェアで実現することが可能である。上記実施の形態の説明に用いた各機能ブロックは、部分的に又は全体的に、集積回路であるLSIとして実現され、上記実施の形態で説明した各プロセスは、部分的に又は全体的に、一つのLSI又はLSIの組み合わせによって制御されてもよい。LSIは個々のチップから構成されてもよいし、機能ブロックの一部または全てを含むように一つのチップから構成されてもよい。LSIはデータの入力と出力を備えてもよい。LSIは、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。集積回路化の手法はLSIに限るものではなく、専用回路、汎用プロセッサ又は専用プロセッサで実現してもよい。また、LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。本開示は、デジタル処理又はアナログ処理として実現されてもよい。さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集化を行ってもよい。バイオ技術の適用等が可能性としてありえる。
本開示は、通信機能を持つあらゆる種類の装置、デバイス、システム(通信装置と総称)において実施可能である。通信装置の、非限定的な例としては、電話機(携帯電話、スマートフォン等)、タブレット、パーソナル・コンピューター(PC)(ラップトップ、デスクトップ、ノートブック等)、カメラ(デジタル・スチル/ビデオ・カメラ等)、デジタル・プレーヤー(デジタル・オーディオ/ビデオ・プレーヤー等)、着用可能なデバイス(ウェアラブル・カメラ、スマートウオッチ、トラッキングデバイス等)、ゲーム・コンソール、デジタル・ブック・リーダー、テレヘルス・テレメディシン(遠隔ヘルスケア・メディシン処方)デバイス、通信機能付きの乗り物又は移動輸送機関(自動車、飛行機、船等)、及び上述の各種装置の組み合わせがあげられる。
通信装置は、持ち運び可能又は移動可能なものに限定されず、持ち運びできない又は固定されている、あらゆる種類の装置、デバイス、システム、例えば、スマート・ホーム・デバイス(家電機器、照明機器、スマートメーター又は計測機器、コントロール・パネル等)、自動販売機、その他IoT(Internet of Things)ネットワーク上に存在し得るあらゆる「モノ(Things)」をも含む。
通信には、セルラーシステム、無線LANシステム、通信衛星システム等によるデータ通信に加え、これらの組み合わせによるデータ通信も含まれる。また、通信装置には、本開示に記載される通信機能を実行する通信デバイスに接続又は連結される、コントローラやセンサ等のデバイスも含まれる。例えば、通信装置の通信機能を実行する通信デバイスが使用する制御信号やデータ信号を生成するような、コントローラやセンサが含まれる。
また、通信装置には、上記の非限定的な各種装置と通信を行う、あるいはこれら各種装置を制御する、インフラストラクチャ設備、例えば、基地局、アクセスポイント、その他あらゆる装置、デバイス、システムが含まれる。
本開示に係る撮影装置は、撮影素子と、前記撮影素子の出力から得られる画像フレームにおける前記撮影素子の露光時間に応じて、前記画像フレームを異なる映像ストリームに割り当てるプロセッサと、を備える。
本開示に係る撮影装置において、前記プロセッサは、連続する複数の前記画像フレームにおける前記撮影素子の露光時間を、第1の露光時間と前記第1の露光時間より短い第2の露光時間とに交互に設定する。
本開示に係る撮影装置において、
前記複数の映像ストリームは、第1の映像ストリームと第2の映像ストリームであり、前記プロセッサは、移動体の乗員の顔を含む前記乗員の一部を前記第1の露光時間で前記撮影素子が撮影した画像フレームを前記第1のストリームに割り当て、前記移動体の一部を前記第2の露光時間で前記撮影素子が撮影した画像フレームを前記第2の映像ストリームに割り当てる。
本開示に係る撮影方法は、撮像素子の出力から画像フレームを取得し、前記画像フレームにおける前記撮影素子の露光時間に応じて、前記画像フレームを異なる映像ストリームに割り当てる。
本開示に係る識別装置は、移動体を撮影した画像において前記移動体の乗員の顔が含まれない部分に基づいて前記乗員が識別対象であるか否かを判定した結果を取得し、前記結果が前記識別対象であることを示す場合に、前記乗員の顔が含まれる画像に基づいて、前記乗員の顔を識別する。
本開示に係る識別装置において、前記移動体の乗員の顔が含まれない部分は、ナンバープレートの画像を含み、前記識別対象であるか否かの判定は、前記ナンバープレートが示すナンバーに基づく。
本開示に係る識別装置において、前記移動体は、車両であり、前記移動体の乗員の顔が含まれない部分は、車両のエンブレム、前記車両のヘッドライト、前記車両のフロントマスク、前記車両のタイヤ、前記車両のホイール、および前記車両の塗装部分の少なくとも1つの画像を含み、前記識別対象であるか否かの判定は、前記エンブレム、前記ヘッドライト、前記フロントマスク、前記車両のタイヤ、前記車両のホイール、および前記塗装部分の色の少なくとも1つに基づく。
本開示に係る識別装置において、前記移動体の乗員の顔が含まれない部分は、前記乗員が着用する服装の少なくとも一部の画像を含み、前記識別対象であるか否かの判定は、前記服装の色に基づく。
本開示に係る識別方法は、移動体を撮影した画像において前記移動体の乗員の顔が含まれない部分に基づいて前記乗員が識別対象であるか否かを判定した結果を取得し、前記結果が前記識別対象であることを示す場合に、前記乗員の顔が含まれる画像に基づいて、前記乗員の顔を識別する。
本開示に係る識別プログラムは、実行されると、プロセッサに、移動体を撮影した画像において前記移動体の乗員の顔が含まれない部分に基づいて前記乗員が識別対象であるか否かを判定した結果を取得させ、前記結果が前記識別対象であることを示す場合に、前記乗員の顔が含まれる画像に基づいて、前記乗員の顔を識別させる。
本開示は、走行車両の乗員を監視する監視システムに有用である。
1,1a,1b,1c 監視システム
10,10a,10b 監視装置
12,12a 撮影部
20,20a 映像蓄積解析装置
22 映像蓄積部
24,32 ナンバー解析部
26 車両特徴解析部
28 乗員顔解析部
30 端末装置
40 映像蓄積装置
50 ナンバー解析装置
60 車両特徴解析装置
70 乗員顔解析装置
102,102a,102b 前面フィルタモジュール
104 レンズモジュール
106,106a,106b 撮影素子
108 照度検出部
110 制御部
112 前面フィルタ駆動部
114 レンズ駆動部
116 照明駆動部
118 照明部
120 記憶部

Claims (12)

  1. 監視装置により撮影された移動体の乗員の顔が含まれない部分の第1の映像と前記監視装置により撮影された前記移動体の前記乗員の顔が含まれる第2の映像とを蓄積する蓄積部と、
    前記第1の映像を用いて前記乗員の顔が識別対象であるか否かを判定する判定部と
    前記判定の結果が前記乗員の顔が前記識別対象であることを示す場合に前記蓄積部から前記第2の映像を取得し、前記第2の映像を用いて、前記乗員の顔を識別する識別部とを備える、
    識別装置。
  2. 前記第1の映像を撮影するための前記監視装置の露光時間と前記第2の映像を撮影するための前記監視装置の露光時間とは異なる、
    請求項1に記載の識別装置。
  3. 前記第1の映像は、前記移動体である車両のナンバープレートの画像を含み、
    前記判定部は前記第1の映像からナンバープレートを抽出し、抽出された前記ナンバープレートからナンバーを認識し、前記ナンバーが登録済みの車両のナンバーリストに含まれるか否かを判定した第1の結果を用いて前記乗員の顔が前記識別対象であるか否かを判定する
    請求項1に記載の識別装置。
  4. 前記第1の映像は、前記移動体である車両の特徴を含み、
    前記判定部は、前記第1の映像から前記車両の特徴を抽出し、前記特徴が登録済みの車両の特徴リストに含まれるか否かを判定した第2の結果を用いて前記乗員の顔が前記識別対象であるか否かを判定する、
    請求項3に記載の識別装置。
  5. 前記判定部は、前記第1の結果と前記第2の結果との少なくとも1つを用いて前記乗員の顔が前記識別対象であるか否かを判定し、
    前記識別部は、前記判定の結果が前記乗員の顔が前記識別対象であると判定された場合に前記蓄積部から前記第2の映像を取得し、前記第2の映像を用いて、前記乗員の顔を識別する、
    請求項4に記載の識別装置。
  6. 前記移動体は、車両であり、前記移動体の前記乗員の顔が含まれない部分は、前記車両のエンブレム、前記車両のヘッドライト、前記車両のフロントマスク、前記車両のタイヤ、前記車両のホイール、および前記車両の塗装部分の少なくとも1つの画像を含み、
    前記判定部は、前記エンブレム、前記ヘッドライト、前記フロントマスク、前記車両のタイヤ、前記車両のホイール、および前記塗装部分の色の少なくとも1つに基づいて前記乗員の顔を前記識別対象であるか否かを判定する
    請求項1、3または4のうち少なくとも1項に記載の識別装置。
  7. 前記移動体の乗員の顔が含まれない部分は、前記乗員が着用する服装の少なくとも一部の画像を含み、
    前記判定部は、前記服装の色に基づいて前記乗員の顔が前記識別対象であるか否かを判定する
    請求項1、3または4のうち少なくとも1項に記載の識別装置。
  8. 監視装置により撮影された移動体の乗員の顔が含まれない部分の第1の映像と前記監視装置により撮影された前記移動体の前記乗員の顔が含まれる第2の映像とを蓄積し、
    前記第1の映像を用いて前記乗員の顔が識別対象であるか否かを判定し、
    前記判定の結果が前記乗員の顔が前記識別対象であることを示す場合に前記第2の映像を取得し
    前記第2の映像を用いて、前記乗員の顔を識別する、
    識別方法。
  9. 識別装置に、
    監視装置により撮影された移動体の乗員の顔が含まれない部分の第1の映像と前記監視装置により撮影された前記移動体の前記乗員の顔が含まれる第2の映像とを蓄積する処理と、
    前記第1の映像を用いて前記乗員の顔が識別対象であるか否かを判定する処理と、
    前記判定の結果が前記乗員の顔が前記識別対象であることを示す場合に前記第2の映像を取得する処理と
    前記第2の映像を用いて、前記乗員の顔を識別する処理と、を実行させるための、
    識別プログラム。
  10. 監視装置と、
    前記監視装置と通信可能に接続された識別装置と、を備え、
    前記識別装置は、
    前記監視装置により撮影された移動体の乗員の顔が含まれない部分の第1の映像と前記監視装置により撮影された前記移動体の前記乗員の顔が含まれる第2の映像とを蓄積する蓄積部と、
    前記第1の映像を用いて前記乗員の顔が識別対象であるか否かを判定する判定部と、
    前記判定の結果が前記乗員の顔が前記識別対象であることを示す場合に前記蓄積部から前記第2の映像を取得し、前記第2の映像を用いて、前記乗員の顔を識別する識別部と、を備え、
    前記監視装置は、前記第1の映像と前記第2の映像とを異なる露光時間で撮影する、
    監視システム。
  11. 前記監視装置は、前記第1の映像を撮影するための第1の露光時間と、前記第1の露光時間より短く前記第2の映像を撮影するための第2の露光時間と、を交互に設定する、
    請求項10に記載の監視システム。
  12. 前記監視装置は、前記第1の映像を前記第1の露光時間で撮影し、前記第2の映像を前記第2の露光時間で撮影する、
    請求項11に記載の監視システム。
JP2019005080A 2019-01-16 2019-01-16 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム Active JP7193355B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019005080A JP7193355B2 (ja) 2019-01-16 2019-01-16 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム
US16/743,487 US11164018B2 (en) 2019-01-16 2020-01-15 Identification device, vehicle monitoring system, and vehicle monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019005080A JP7193355B2 (ja) 2019-01-16 2019-01-16 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム

Publications (2)

Publication Number Publication Date
JP2020113940A JP2020113940A (ja) 2020-07-27
JP7193355B2 true JP7193355B2 (ja) 2022-12-20

Family

ID=71516362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019005080A Active JP7193355B2 (ja) 2019-01-16 2019-01-16 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム

Country Status (2)

Country Link
US (1) US11164018B2 (ja)
JP (1) JP7193355B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147882A (ja) 2008-12-19 2010-07-01 Panasonic Electric Works Co Ltd 車両撮影装置
JP2013084130A (ja) 2011-10-11 2013-05-09 Fujitsu Ltd 画像認識システムおよび画像認識方法
WO2014091667A1 (ja) 2012-12-10 2014-06-19 日本電気株式会社 解析制御システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1423833A4 (en) 2001-07-18 2008-07-02 Hyunjae Tech Co Ltd SYSTEM FOR THE AUTOMATIC RECOGNITION OF IDENTIFICATION OF OTHER VEHICLES ON OBSERVATIVES AND METHOD THEREFOR
US20060030985A1 (en) * 2003-10-24 2006-02-09 Active Recognition Technologies Inc., Vehicle recognition using multiple metrics
GB0723861D0 (en) 2007-12-06 2008-01-23 Liquavista Bv Transflective electrowetting display device
DE102011053052B3 (de) * 2011-08-26 2013-02-28 Jenoptik Robot Gmbh Verfahren und Vorrichtung zur Identifikation von Kraftfahrzeugen zur Verkehrsüberwachung
US20150125042A1 (en) * 2013-10-08 2015-05-07 Smartlanes Technologies, Llc Method and system for data collection using processed image data
US9953210B1 (en) * 2017-05-30 2018-04-24 Gatekeeper Inc. Apparatus, systems and methods for improved facial detection and recognition in vehicle inspection security systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147882A (ja) 2008-12-19 2010-07-01 Panasonic Electric Works Co Ltd 車両撮影装置
JP2013084130A (ja) 2011-10-11 2013-05-09 Fujitsu Ltd 画像認識システムおよび画像認識方法
WO2014091667A1 (ja) 2012-12-10 2014-06-19 日本電気株式会社 解析制御システム

Also Published As

Publication number Publication date
US11164018B2 (en) 2021-11-02
US20200226394A1 (en) 2020-07-16
JP2020113940A (ja) 2020-07-27

Similar Documents

Publication Publication Date Title
JP6633216B2 (ja) 撮像装置、及び、電子機器
CN109571468B (zh) 安防巡检机器人及安防巡检方法
US9560323B2 (en) Method and system for metadata extraction from master-slave cameras tracking system
US11308777B2 (en) Image capturing apparatus with variable event detecting condition
JP6814673B2 (ja) 移動経路予測装置、及び移動経路予測方法
GB2519277B (en) Method for performing facial recognition
US20210142055A1 (en) Surveillance camera system looking at passing cars
US20150116501A1 (en) System and method for tracking objects
CN105474222A (zh) 用于虹膜成像的多种模式图像获取
CN111183430B (zh) 识别处理装置、识别处理方法以及记录介质
AU2023100087B4 (en) Infringement detection method, device and system
CN111656411A (zh) 记录控制装置、记录控制系统、记录控制方法以及记录控制程序
KR101795798B1 (ko) 지능형 영상감시 시스템
Shi et al. Smart cameras: a review
JP7193355B2 (ja) 撮影装置、撮影方法、識別装置、識別方法、および識別プログラム
JP2020129369A (ja) モバイル機器を使用する画像処理のためのシステムおよび方法
WO2020105301A1 (ja) 固体撮像素子、および、撮像装置
US20240027604A1 (en) Extrinsic parameter calibration for 4d millimeter-wave radar and camera based on adaptive projection error
KR101666003B1 (ko) 입출차 사고 확인 시스템
US11945404B2 (en) Tracking and video information for detecting vehicle break-in
KR101700532B1 (ko) 선택 이미지 캡쳐링 장치
Garcia et al. AI Smart Security Camera for Person Detection, Face Recognition, Tracking and Logging
US11843847B2 (en) Device, information processing apparatus, control method therefor, and computer-readable storage medium
JP2015080048A (ja) カメラ装置、監視システム、これに用いるプログラム、及び撮像方法
WO2020044646A1 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190731

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190902

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190910

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191205

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221208

R150 Certificate of patent or registration of utility model

Ref document number: 7193355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150