JP2007036748A - 監視システム、監視装置、監視方法、及びプログラム - Google Patents

監視システム、監視装置、監視方法、及びプログラム Download PDF

Info

Publication number
JP2007036748A
JP2007036748A JP2005217933A JP2005217933A JP2007036748A JP 2007036748 A JP2007036748 A JP 2007036748A JP 2005217933 A JP2005217933 A JP 2005217933A JP 2005217933 A JP2005217933 A JP 2005217933A JP 2007036748 A JP2007036748 A JP 2007036748A
Authority
JP
Japan
Prior art keywords
image
unit
monitoring
imaging
imaging unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005217933A
Other languages
English (en)
Other versions
JP4794938B2 (ja
Inventor
Satoshi Nakamura
敏 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005217933A priority Critical patent/JP4794938B2/ja
Priority to US11/489,601 priority patent/US20070024710A1/en
Publication of JP2007036748A publication Critical patent/JP2007036748A/ja
Application granted granted Critical
Publication of JP4794938B2 publication Critical patent/JP4794938B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】重要な監視領域を低コストで監視することができる監視システムを提供すること。
【解決手段】本発明に係る監視システムは、第1監視領域の動画を撮像する第1撮像部と、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部と、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、第1撮像部及び第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部と、合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部とを備える。
【選択図】図2

Description

本発明は、監視システム、監視装置、監視方法、及びプログラムに関する。特に本発明は、監視領域の動画を撮像する監視システム、監視装置、及び監視方法、並びに、監視システム用のプログラムに関する。
撮影対象の平常時の状態を基準画像として記憶しておき、撮影画像と基準画像を対応する画素毎に比較し、比較処理の結果、撮影画像に変化が生じていることが確認されたら、画像圧縮処理における圧縮比率を相対的に低く設定して記録媒体に記録し、撮影画像に変化が生じていないことが確認されたら、画像圧縮処理における圧縮比率を相対的に高く設定して記録媒体に記録するシステムが知られている(例えば、特許文献1参照。)。
特開2002−335492号公報
特許文献1に記載されたシステムのように、監視領域の撮影画像を撮影するシステムにおいては、撮影対象の範囲を拡大するにつれて撮影画像の解像度が低下し、撮影画像の解像度が低下するにつれて、例えば撮影画像に写った人物が不審人物であるか否かを特定しにくくなってしまう。一方で、高解像度の撮影装置を使用すると、システムのコスト高をまねいてしまう。
そこで本発明は、上記の課題を解決することができる監視システム、監視装置、監視方法、及びプログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。
本発明の第1の形態における監視システムは、第1監視領域の動画を撮像する第1撮像部と、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部と、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、第1撮像部及び第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部と、合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部とを備える。
第1撮像部が撮像した第1フレーム画像と、第1撮像部が第1フレーム画像を撮像すると同時に第2撮像部が撮像した第2フレーム画像とをマッチングすることによって、第1撮像部の第1監視領域と第2撮像部の第2監視領域とが重複する領域である重複監視領域を特定する重複監視領域特定部と、重複監視領域特定部が特定した重複監視領域に基づいて、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係を算出する監視領域位置算出部とをさらに備え、合成画像生成部は、監視領域位置算出部が算出した第1監視領域と第2監視領域との相対的な位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成してよい。
合成画像生成部が生成した合成画像を、第1撮像部又は第2撮像部が撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出するトリミング部をさらに備え、動画格納部は、トリミング部が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納してよい。
合成画像生成部が生成した合成画像を、外部の画像再生装置が再生する動画を構成するフレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出するトリミング部をさらに備え、動画格納部は、トリミング部が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納してよい。
トリミング部が抽出した複数の部分監視領域画像を、動画を構成するフレーム画像として動画圧縮する動画圧縮部をさらに備え、動画格納部は、動画圧縮部が圧縮した複数の部分監視領域画像を、部分監視領域の動画を構成するフレーム画像として格納してよい。
第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とに交互に画像処理を施してメモリに格納する画像処理部をさらに備えてよい。
画像処理部は、第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とを交互にデジタルデータに変換するAD変換部を有し、合成画像生成部は、AD変換部によってデジタルデータに変換された第1フレーム画像と、AD変換部によってデジタルデータに変換された第2フレーム画像との合成位置を調整して合成画像を生成してよい。
画像処理部は、第1撮像部が有する複数の受光素子から読み出された第1フレーム画像の画像データと、第2撮像部が有する複数の受光素子から読み出された第2フレーム画像の画像データとを交互に表示用画像データに変換する画像データ変換部を有し、合成画像生成部は、画像データ変換部によって表示用画像データに変換された第1フレーム画像と、画像データ変換部によって表示用画像データに変換された第2フレーム画像との合成位置を調整して合成画像を生成してよい。
本発明の第2の形態における監視装置は、第1監視領域の動画を撮像する第1撮像部と、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部と、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、第1撮像部及び第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部と、合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部とを備える。
本発明の第3の形態における監視方法は、第1監視領域の動画を撮像する第1撮像段階と、第1撮像段階における第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像段階と、第1撮像において撮像される第1監視領域と、第2撮像において撮像される第2監視領域との相対的な位置関係に基づいて、第1撮像段階及び第2撮像段階においてそれぞれ撮像された動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成段階と、合成画像生成において生成された合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納段階とを備えてよい。
本発明の第4の形態によると、動画を撮像する監視システム用のプログラムであって、当該監視システムを、第1監視領域の動画を撮像する第1撮像部、第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部、第1撮像部が撮像する第1監視領域と、第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、第1撮像部及び第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部、合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部として機能させる。
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた発明となりうる。
本発明によれば、重要な監視領域を低コストで監視することができる監視システムを提供することができる。
以下、発明の実施形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本発明の一実施形態に係る監視システム100の利用環境の一例を示す。監視システム100は、監視装置110、画像再生装置120、及び携帯端末130を備える。監視装置110は、監視領域170を撮像して動画のフレーム画像を生成して、監視センター等に設けられた画像再生装置120、監視領域170の管理人が所持する携帯端末130等に送信する。監視装置110は、監視領域170の動画を撮像する複数のカメラ112a及び112b(以後、112と総称する)、並びに、カメラ112a及び112bからの撮像データを順次受け取って画像データに変換する画像生成装置111を有している。
カメラ112a及び112bは、撮像監視領域170の異なる撮像範囲を撮像する。カメラ112a及び112bの、少なくとも一部の撮像領域は重複していてよい。そして、画像生成装置111は、カメラ112aとカメラ112bが重複して撮像する重複撮像領域を特定して、カメラ112bにおける重複撮像領域以外の画像領域と、カメラ112aで撮像された画像とを合成して合成画像を生成する。そして、画像生成装置111は、合成された合成画像から、人物を含む画像領域、動きのある被写体が写った画像領域等をトリミングすることによって一のフレーム画像を生成して、画像再生装置120に送信する。このとき、監視装置110は、カメラ112a又は112bによって撮像されるアスペクト比、若しくは、画像再生装置120がモニタ等の表示装置121に表示させるべき画像のアスペクト比でトリミングする。
なお、カメラ112a及び112bによって撮像されたフレーム画像から、人物が含まれる部分領域、動く物体が含まれる部分領域等の、監視対象として重要な部分領域を撮像するカメラ112aの撮像条件に、他方のカメラ112bの撮像条件を一致させてフレーム画像を撮像してよい。
なお、監視装置110は、以上説明したような、複数のカメラ112からの画像を合成して得られた合成画像から、重要な部分領域を切り出してフレーム画像を生成する動作モードであるトリミングモードの他に、監視装置110は、複数のカメラ112によって撮像されたそれぞれのフレーム画像から、監視対象として重要な複数の部分領域をトリミングして、トリミングした部分領域を一のフレーム画像として連結して一のフレーム画像を生成する動作モードである連結モードを有してもよい。なお、連結モードにおいても、トリミングモードでフレーム画像と同一のアスペクト比のフレーム画像を生成してよい。
以上説明した監視システム100によると、高解像度カメラを使用せずに、より低解像度で安価なカメラ112を複数使用することによって、広い範囲の監視領域を効率的に監視することができる。例えば、横長の監視領域を監視する必要がある場合は、カメラ112を横方向に複数並べることによって、個々の監視領域毎に適切な解像度の監視画像を得ることができる。また、複数のカメラによる撮像データを共用の画像生成装置111が処理するので、カメラ112のそれぞれが画像を処理する場合に比べて、より低いコストで動画を生成することができる。
なお、監視装置110は、インターネット等の通信回線180を介して、画像再生装置120又は携帯端末130に撮像画像を送信してよい。また、画像再生装置120は、コンピュータ等の、動画を受信して再生することができる装置であってよい。また、携帯端末130は、携帯電話、PDA等の携帯情報端末であってよい。画像再生装置120は、監視領域170の遠方の監視センター等に位置してよく、監視領域170の近傍に位置してもよい。
図2は、監視装置110がトリミングモードで動作する場合の動作ブロックの一例を示す。監視システム100は、第1撮像部210a、第2撮像部210b、画像処理部220、重複監視領域特定部230、監視領域位置算出部232、監視領域位置格納部234、合成画像生成部240、顔領域抽出部250、顔領域明るさ判断部252、動画圧縮部260、特徴領域特定部270、撮像条件決定部272、撮像制御部274、トリミング部280、及び動画格納部290を備える。画像処理部220は、利得制御部222、AD変換部224、画像データ変換部226、及びメモリ228を有する。なお、図1で説明したカメラ112a及び112bは、それぞれ第1撮像部210a及び第2撮像部210bとして機能してよく、図1で説明した画像生成装置111は、画像処理部220、重複監視領域特定部230、監視領域位置算出部232、監視領域位置格納部234、合成画像生成部240、顔領域抽出部250、顔領域明るさ判断部252、動画圧縮部260、特徴領域特定部270、撮像条件決定部272、撮像制御部274、トリミング部280、及び動画格納部290として機能してよい。
第1撮像部210aは、第1監視領域の動画を撮像する。また、第2撮像部210bは、第1撮像部210aによる第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する。例えば、第2撮像部210bは、第1撮像部210aの撮像動作と同じタイミングで第2監視領域を撮像する。なお、第1撮像部210a及び第2撮像部210bは、具体的には、被写体からの光をCCD等の複数の受光素子で受光して、それぞれ動画の第1フレーム画像及び第2フレーム画像を生成してよい。
具体的には、監視領域位置格納部234は、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を格納している。そして、合成画像生成部240は、監視領域位置格納部234が格納した第1監視領域と第2監視領域との相対的な位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。
合成画像生成部240は、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係に基づいて、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。そして、動画格納部290は、合成画像生成部240が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する。これにより、複数の撮像装置によって広範囲の監視領域170を監視することができる。
重複監視領域特定部230は、第1撮像部210aが撮像した第1フレーム画像と、第1撮像部210aが第1フレーム画像を撮像すると同時に第2撮像部210bが撮像した第2フレーム画像とをマッチングすることによって、第1撮像部210aの第1監視領域と第2撮像部210bの第2監視領域とが重複する領域である重複監視領域を特定する。監視領域位置算出部232は、重複監視領域特定部230が特定した重複監視領域に基づいて、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を算出する。そして、監視領域位置格納部234は、監視領域位置算出部232が算出した第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を格納する。
そして、合成画像生成部240は、監視領域位置算出部232が算出した第1監視領域と第2監視領域との相対的な位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。具体的には、合成画像生成部240は、監視領域位置格納部234が格納する、監視領域位置算出部232が算出した第1監視領域と第2監視領域との相対的な位置関係に基づいて、合成画像を生成する。
なお、監視領域位置格納部234は、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を予め格納してもよい。また、重複監視領域特定部230は、第1撮像部210aが撮像した第1フレーム画像と、第2撮像部210bが撮像した第2フレーム画像とに基づいて、重複監視領域を定期的に特定してよい。そして、監視領域位置算出部232は、重複監視領域特定部230によって定期的に算出された重複監視領域に基づいて、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係を定期的に算出して、監視領域位置格納部234に格納してよい。
トリミング部280は、合成画像生成部240が生成した合成画像を、第1撮像部210a又は第2撮像部210bが撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出する。なお、トリミング部280は、合成画像生成部240が生成した合成画像を、外部の画像再生装置120が再生する動画を構成するフレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出してもよい。
そして、動画格納部290は、トリミング部280が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納する。動画圧縮部260は、トリミング部280が抽出した複数の部分監視領域画像を、動画を構成するフレーム画像として動画圧縮する。例えば、動画圧縮部260は、MPEG規格に基づいて、複数の部分監視領域画像を動画圧縮する。そして、動画格納部290は、動画圧縮部260が圧縮した複数の部分監視領域画像を、部分監視領域の動画を構成するフレーム画像として格納する。以上説明したように、監視装置110は、複数の撮像装置で撮像された広い監視画像の中から、監視対象として重要な被写体を含む部分領域の動画を生成することができる。
なお、合成画像生成部240は、実際に合成画像を生成するのではなく、仮想的な合成画像を生成してよい。具体的には、合成画像生成部240は、監視領域位置算出部232が算出した第1監視領域と第2監視領域との相対的な位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して、調整された合成位置の情報と第1フレーム画像及び第2フレーム画像とが対応づけられた仮想合成画像情報を生成してよい。そして、トリミング部280は、合成画像生成部240が生成した仮想合成画像情報に基づいて、第1フレーム画像及び第2フレーム画像の少なくとも一方からトリミングして部分監視領域画像を抽出してもよい。
画像処理部220は、第1撮像部210aが有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部210bが有する複数の受光素子から読み出された第2フレーム画像とに交互に画像処理を施してメモリ228に格納する。利得制御部222は、例えばAGC(Automatic Gain Control)であってよく、第1撮像部210a及び第2撮像部210bから入力された信号を、後段の信号処理のために適切な信号レベルになるように変換する。そして、AD変換部224は、第1撮像部210aが有する複数の受光素子から読み出された第1フレーム画像と、第2撮像部210bが有する複数の受光素子から読み出された第2フレーム画像とを交互にデジタルデータに変換する。具体的には、利得制御部222によって適切な信号レベルに変換された信号を、デジタルデータに変換する。そして、合成画像生成部240は、AD変換部224によってデジタルデータに変換された第1フレーム画像と、AD変換部224によってデジタルデータに変換された第2フレーム画像との合成位置を調整して合成画像を生成する。
また、画像データ変換部226は、第1撮像部210aが有する複数の受光素子から読み出された第1フレーム画像の画像データと、第2撮像部210bが有する複数の受光素子から読み出された第2フレーム画像の画像データとを交互に表示用画像データに変換する。例えば、画像データ変換部226は、AD変換部224によってデジタルデータに変換されたCCD等の受光量に対して、ガンマ補正等の変換処理を施すことによって、表示用画像データに変換する。そして、合成画像生成部240は、画像データ変換部226によって表示用画像データに変換された第1フレーム画像と、画像データ変換部226によって表示用画像データに変換された第2フレーム画像との合成位置を調整して合成画像を生成する。
以上説明したように、第1撮像部210a及び第2撮像部210bが撮像した撮像データを共用の画像処理部220で処理することによって、撮像装置のそれぞれが画像処理を行う場合に比べて監視装置110のコストを削減することができる。
特徴領域特定部270は、合成画像生成部240が生成した合成画像を解析することによって、合成画像の中の特徴領域を特定する。そして、トリミング部280は、合成画像生成部240が生成した合成画像から、特徴領域特定部270が特定した特徴領域の画像である特徴領域画像をトリミングして抽出する。そして、動画格納部290は、トリミング部280が抽出した特徴領域画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する。
具体的には、特徴領域特定部270は、合成画像生成部240が生成した連続する複数の合成画像を解析することによって、合成画像の中の動きがある領域である動き領域を特定する。例えば、前に撮像されたフレーム画像から動き領域を特定してよい。そして、トリミング部280は、合成画像生成部240が生成した合成画像から、特徴領域特定部270が特定した動き領域の画像である動き領域画像をトリミングして抽出する。そして、動画格納部290は、トリミング部280が抽出した動き領域画像を、部分監視領域の動画を構成するフレーム画像として格納する。このため、監視装置110は、動きのある被写体を含む画像領域を、重要な監視対象領域として適切に監視することができる。
他にも、特徴領域特定部270は、合成画像生成部240が生成した合成画像を解析することによって、合成画像の中の人物が存在する領域である人物領域を特定する。そして、トリミング部280は、合成画像生成部240が生成した合成画像から、特徴領域特定部270が特定した人物領域の画像である人物領域画像をトリミングして抽出する。そして、動画格納部290は、トリミング部280が抽出した人物領域画像を、部分監視領域の動画を構成するフレーム画像として格納する。このため、監視装置110は、人物を含む画像領域を、重要な監視対象領域として適切に監視することができる。
なお、トリミング部280は、第1撮像部210a又は第2撮像部210bが撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比、若しくは、外部の画像再生装置120が再生する動画を構成するフレーム画像と同一のアスペクト比の特徴領域画像をトリミングを抽出してよい。そして、動画格納部290は、トリミング部280が抽出した特徴領域画像を特徴領域の動画を構成するフレーム画像として格納する。このため、監視装置110は、重要な監視対象領域を撮像した、監視に適した適切なアスペクト比のフレーム画像を記録することができる。
また、動画圧縮部260は、トリミング部280が抽出した複数の特徴領域画像を、動画を構成するフレーム画像として動画圧縮してよい。動画格納部290は、動画圧縮部260が圧縮した複数の特徴領域画像を特徴領域の動画を構成するフレーム画像として格納してよい。
撮像制御部274は、第1撮像部210aの撮像条件と第2撮像部210bの撮像条件とを一致させる。そして、合成画像生成部240は、第1撮像部210aが撮像する第1監視領域と、第2撮像部210bが撮像する第2監視領域との相対的な位置関係に基づいて、撮像制御部274によって制御された同一の撮像条件で第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。なお、合成画像生成部240は、上述のとおり、第1監視領域と第2監視領域位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、第1監視領域及び第2監視領域を含む全体監視領域170の中の特徴領域を特定する。そして、撮像条件決定部272は、特徴領域特定部270が特定した特徴領域の画像に基づいて、第1撮像部210a及び第2撮像部210bの撮像条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した撮像条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。
より具体的には、特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、動きがある領域である動き領域を特徴領域として特定する。なお、特徴領域特定部270は、全体監視領域170に複数の動き領域が存在する場合には、動きが最も大きい動き領域を特定してよい。
そして、撮像条件決定部272は、特徴領域特定部270が特定した動き領域が含まれる第1撮像部210aが第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部210a及び第2撮像部210bの露出条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した露出条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定してよい。そして、撮像条件決定部272は、特徴領域特定部270が特定した人物領域が含まれる第1撮像部210aが第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部210a及び第2撮像部210bの露出条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した露出条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。
特徴領域特定部270は、全体監視領域170に複数の人物領域が存在する場合には、全体監視領域170に対する人物の面積が最も大きい人物領域を特定する。そして、撮像条件決定部272は、特徴領域特定部270が特定した人物領域が含まれる第1撮像部210aが第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部210a及び第2撮像部210bの露出条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した露出条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。このため、監視装置110は、監視領域170への侵入者等の人物を適切に監視することができる。
顔領域抽出部250は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、全体監視領域170の中の人物の顔の領域である顔領域を抽出する。そして、顔領域明るさ判断部252は、顔領域抽出部250が抽出した顔領域の明るさを判断する。なお、特徴領域特定部270は、全体監視領域170に複数の人物領域が存在する場合には、顔領域明るさ判断部252が判断した明るさが予め定められた範囲内の明るさである人物の人物領域を特定する。また、特徴領域特定部270は、全体監視領域170に複数の人物領域が存在する場合には、顔領域明るさ判断部252が判断した明るさが最も大きい明るさである人物の人物領域を特定してもよい。
そして、撮像条件決定部272は、特徴領域特定部270が特定した人物領域が含まれる第1撮像部210aが第1監視領域が撮像した第1フレーム画像に基づいて、第1撮像部210a及び第2撮像部210bの露出条件を決定する。そして、撮像制御部274は、撮像条件決定部272が決定した露出条件で第1撮像部210a及び第2撮像部210bに動画を撮像させる。なお、露出条件とは、第1撮像部210a及び第2撮像部210bの絞り又は露光時間の少なくとも一方を含んでよい。
以上説明したように、監視装置110は、監視対象として重要性の高い被写体を適切に撮像することができるカメラの撮像条件に他のカメラ112の撮像条件を合わせるので、見た目に統一感のあるフレーム画像を生成することができる。
図3は、監視装置110による監視領域の撮像過程の一例を示す。監視装置110は、所定のフレーム周期Tfでフレーム画像を取得する。このとき、撮像部210a及び第2撮像部210bは、所定の露光時間Teで露光されて、例えば光量に応じた電荷が蓄積される。そして、撮像部210a及び第2撮像部210bは、露光期間終了後に、蓄積された電荷を画像処理部220の利得制御部222に順次転送する。そして、画像処理部220は、第1撮像部210aから転送された電荷に基づいて第1監視領域の第1フレーム画像312を生成してメモリ228に記憶した後に、第2撮像部210bから転送された電荷に基づいて第2監視領域の第2フレーム画像313を生成してメモリ228に記憶する。なお、画像処理部220は、第1撮像部210aから利得制御部222に転送されたデータをAD変換部224においてデジタルデータに変換され時点で一旦記憶させ、その後、第1撮像部210aからのデータに対して画像データ変換部226等において画像変換処理が施される前に、第2撮像部210bから利得制御部222へのデータ転送を開始させてよい。
そして、重複監視領域特定部230は、第1フレーム画像312及び第2フレーム画像313について、第2フレーム画像313を第1フレーム画像312に対してずらした位置において、各フレーム画像が重なり合う画像領域における画像の一致度を算出する。そして、重複監視領域特定部230は、所定のずらし量毎における画像の一致度を算出する。
例えば、重複監視領域特定部230は、第1フレーム画像312の長手方向において、第2フレーム画像312を、フレーム画像313の端部から長手方向にずらしていく。そして、重複監視領域特定部230は、重なり合う画像領域において画像をマッチングさせ、画像のマッチング度を、フレーム画像の一致度として算出する。なお、画像のマッチング度とは、各フレーム画像が重なり合う画像領域に含まれるオブジェクトがマッチングしている部分の面積の、当該画像領域の面積に対する割合を指標とした値であってもよい。他にも、画像のマッチング度とは、フレーム画像が重なり合う画像領域の差分画像における、各画素の輝度の平均値を指標とした値であってもよい。
そして、重複監視領域特定部230は、一致度が最大となるずらし量Lを算出する。そして、重複監視領域特定部230は、画像をずらした方向とずらし量Lとに基づいて、重複監視領域を特定する。なお、以上の説明においては、説明を簡略化するために、第1フレーム画像の長手方向にずらせていくことによって重複監視領域を特定する動作の一例について説明したが、第2フレーム画像をずらせていく方向は長手方向に限られないのは言うまでもない。例えば、重複監視領域特定部230は、第1フレーム画像の縦方向又は横方向等、任意の方向に沿って、所定のずらし量毎に第2フレーム画像をずらしていって、重複監視領域を算出してもよい。また、被写体位置変化算出部204は、第1フレーム画像の縦方向及び横方向等、互いに異なる二方向において、所定のずらし量を同時に各々変化させていくことによって、重複画像領域を特定してもよい。
そして、監視領域位置算出部232は、重複監視領域特定部230が算出した重複監視領域に基づいて、第1フレーム画像312における撮像領域の中心座標と第2フレーム画像313における撮像領域の中心座標との相対座標値を、第1監視領域と第2監視領域との相対的な位置関係として算出する。その他、監視領域位置算出部232は、第1フレーム画像312において撮像される撮像領域の矩形の対角の座標と第2フレーム画像313において撮像される撮像領域の矩形の対角の座標とのそれぞれの相対座標値を、第1監視領域と第2監視領域との相対的な位置関係として算出してもよい。
そして、監視領域位置格納部234は、監視領域位置算出部232が算出した第1監視領域と第2監視領域との相対的な位置関係を格納する。なお、以上説明した相対位置算出過程は、各フレーム画像が撮像される度に行ってもよいし、予め定められた周期で定期的になされてもよい。他にも、当該相対位置算出過程は、監視装置110が設置されたときになされてもよい。また、監視装置110は、撮像される各フレーム画像に基づいて、予め定められた周期で定期的に第1監視領域と第2監視領域の相対的な位置関係を算出して、算出した位置関係と、監視領域位置格納部234が格納する第1監視領域と第2監視領域の相対的な位置関係とを比較してもよい。そして、監視装置110は、算出した位置関係と監視領域位置格納部234が格納する位置関係との間に、予め定められた一致度より低い一致度が存在する場合に、監視領域位置格納部234が格納する位置関係に実際の位置関係と差がある旨のメッセージを発してもよい。
そして、合成画像生成部240は、監視領域位置格納部234が格納する位置関係に基づいて、重複監視領域が写された画像領域が重ならないように、第1フレーム画像312及び第2フレーム画像313の合成位置を調整して、合成画像320を生成する。以上説明したようにして、監視システム100では、複数のカメラ112からの画像を適切に合成することができる。
図4は、合成画像からトリミング部280が特徴領域画像をトリミングする処理の一例を示す。特徴領域特定部270は、合成画像401、402、403、及び404から、例えば、動きのある人物を含む画像領域411、412、413、及び414を特徴領域として特定する。そして、トリミング部280は、特徴領域411、412、413、及び414を含む動画の一フレーム画像の大きさの範囲の特徴領域画像421、422、423、及び424を、それぞれ部分監視領域画像としてトリミングする。そして、動画格納部290は、トリミングしたそれぞれの部分監視領域画像を、画像再生装置120に送信すべき動画のフレーム画像431、432、433、及び434として格納する。
なお、特徴領域特定部270は、フレーム画像に対してエッジ抽出等の画像処理によって被写体の輪郭を抽出して、抽出した被写体の輪郭と、予め定められた人物のパターンとのパターンマッチング等の手法によって、人物を含む画像領域を特定してよい。また、特徴領域特定部270は、連続して撮像された複数のフレーム画像に含まれる被写体の画像上の位置に基づいて、被写体の動きを算出してよい。
なお、トリミング部280は、監視領域170のうちの予め定められた重点監視領域が含まれるよう合成画像から部分監視領域画像をトリミングしてよい。また、トリミング部280は、特徴領域特定部270が動く被写体を特徴領域として特定した場合に、当該被写体が動く方向の画像領域が部分監視領域画像に含まれるよう、トリミングの範囲を決定してよい。他にも、トリミング部280は、部分監視領域画像の大きさがフレーム画像の大きさを超える場合に、トリミングした部分監視領域画像に対してアフィン変換等の画像処理を施すことによって、部分監視領域画像の大きさをフレーム画像の大きさの範囲内に収めてもよい。
図5は、第1撮像部210a及び第2撮像部210bの撮像条件を一致させる処理の一例を示す。第1撮像部210aは第1フレーム画像501、502、503を撮像しており、それぞれの第1フレーム画像が撮像されたタイミングと同じタイミングで、第2撮像部210bが第2フレーム画像551、552、553をそれぞれ撮像している。このとき、特徴領域特定部270は、第1撮像部210aが連続的に撮像した第1フレーム画像501及び502から、例えば、動きのある人物を含む画像領域511及び512を、特徴領域として特定する。また、特徴領域特定部270は、第2撮像部210bが連続的に撮像した第2フレーム画像551及び552から、例えば、動きのある人物を含む画像領域561及び562を、特徴領域として特定する。
そして撮像条件決定部272は、第1フレーム画像503及び第2フレーム画像553を撮像させる場合に、各フレーム画像を撮像する前のタイミングで撮像された第1フレーム画像502及び第2フレーム画像552のうちの、最も面積の大きい特徴領域512を含むフレーム画像502を撮像した第1撮像部210aがフレーム画像503を撮像する撮像条件に第2撮像部210bの撮像条件を合致させて、第2フレーム画像553を取得する。
なお、特徴領域特定部270は、人物を含む特徴領域512及び562を特定した場合に、顔領域抽出部250は、特徴領域の中において、例えば肌色の領域を抽出することによって、顔領域522及び572を特定する。そして、顔領域明るさ判断部252は、顔領域522及び572における画像の各画素の輝度の平均値等に基づいて、顔領域522及び572の画像の明るさを算出する。そして、特徴領域特定部270は、最も大きい明るさが算出された顔領域(例えば、顔領域522)を含むフレーム画像(例えば、第1フレーム画像502)を撮像した第1撮像部210aの撮像条件に、第2撮像部210bの撮像条件を合致させる。このとき、撮像条件決定部272は、顔領域522の被写体を第1撮像部210aが適切に撮像することができる露出条件を含む当該撮像条件を設定してよい。
また、撮像条件決定部272は、フレーム画像503及び553を撮像させる場合に、当該フレーム画像を撮像する前に撮像された複数のフレーム画像(例えば、第1フレーム画像501及び551、並びに、第2フレーム画像502及び552)のうちの、より動きが大きい特徴領域511及び512を特定されたフレーム画像502を撮像した第1撮像部210aがフレーム画像503を撮像する撮像条件に、第2撮像部210bの撮像条件を合致さして、第2撮像部210bにフレーム画像553を撮像させる。
なお、撮像条件決定部272は、最も早いタイミングで特徴領域として特定された領域に含まれる被写体の形状等の被写体特徴情報を、当該被写体が撮像されたタイミングである特徴領域撮像タイミングに対応づけて記憶しておき、最も早い特徴領域撮像タイミングに対応づけて記憶された被写体特徴情報と一致する被写体を撮像した第1撮像部210aの撮像条件に、第2撮像部210bの撮像条件を合致させてもよい。これにより、監視システム100では、例えば監視領域170に最初に侵入してきた人物を適切に撮像することができる撮像条件で監視装置110が撮像することによって、当該人物を適切に監視することができる。
図6は、監視装置110が連結モードにおいて動作する場合の動作ブロックの一例を示す。本例における連結モードにおいては、監視装置110は、第1撮像部210a、第2撮像部210b、画像処理部220、合成画像生成部240、動画圧縮部260、特徴領域特定部270、トリミング部280、及び動画格納部290を備える。画像処理部220は、利得制御部222、AD変換部224、画像データ変換部226及びメモリ228を有する。なお、第1撮像部210a及び第2撮像部210b、並びに画像処理部220が有する各構成要素は、図2において同一の符号を付した構成要素と同一の動作及び機能を有するので、説明を省略する。なお、本連結モードでフレーム画像を生成する場合には、第1撮像部210a及び第2撮像部210bが撮像する撮像条件は、各撮像部毎に設定されてよい。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、第1監視領域及び第2監視領域を含む全体監視領域170の中の特徴領域を特定する。具体的には、特徴領域特定部270は、AD変換部224によってデジタルデータに変換された第1フレーム画像及び第2フレーム画像に基づいて特徴領域を特定する。より具体的には、特徴領域特定部270は、画像データ変換部226によって表示用画像データに変換された第1フレーム画像及び第2フレーム画像に基づいて特徴領域を特定する。
そして、トリミング部280は、特徴領域特定部270が特定した複数の特徴領域をそれぞれ含む複数の特徴領域画像を、第1撮像部210a又は第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出する。そして、合成画像生成部240は、トリミング部280が抽出した複数の特徴領域画像を合成した合成画像を生成する。
そして、動画格納部290は、合成画像生成部240が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する。このため、例えば、第1撮像部210aによる第1監視領域以外の領域にも重要な監視対象が存在している場合でも、複数の監視対象を一のフレーム画像に収めて画像再生装置120に送信することができる。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、動きがある領域である動き領域を特徴領域として特定する。そして、トリミング部280は、特徴領域特定部270が特定した複数の動き領域を含む画像である動き領域画像を、第1撮像部210a又は第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出する。
特徴領域特定部270は、第1撮像部210a及び第2撮像部210bがそれぞれ撮像した動画に基づいて、人物が存在する領域である人物領域を特徴領域として特定する。そして、トリミング部280は、特徴領域特定部270が特定した複数の人物領域を含む画像である人物領域画像を、第1撮像部210a又は第2撮像部210bがそれぞれ撮像した動画を構成する第1フレーム画像又は第2フレーム画像からトリミングして抽出する。
トリミング部280は、合成画像生成部240によって生成される合成画像が第1撮像部210a又は第2撮像部210bが撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比になるように、特徴領域特定部270が特定した特徴領域を含む特徴領域画像をトリミングして抽出する。トリミング部280は、合成画像生成部240によって生成される合成画像が外部の画像再生装置120が再生する動画を構成するフレーム画像と同一のアスペクト比になるように、特徴領域特定部270が特定した特徴領域を含む特徴領域画像をトリミングして抽出してもよい。そして、動画格納部290は、トリミング部280が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納する。
動画圧縮部260は、トリミング部280が抽出した複数の特徴領域画像を、動画を構成するフレーム画像として動画圧縮する。例えば、動画圧縮部260は、MPEG規格に基づいて、複数の部分監視領域画像を動画圧縮する。そして、動画格納部290は、動画圧縮部260が圧縮した複数の特長領域画像を部分監視領域の動画を構成するフレーム画像として格納する。
なお、トリミング部280は、監視装置110が連結モードでフレーム画像を生成する場合においても、トリミングモードにおいて合成画像からフレーム画像がトリミングされる場合のアスペクト比と同じアスペクト比でトリミングしてよい。これにより、トリミングモードと連結モードとの間でフレーム画像を生成する動作モードが時間的に遷移された場合でも、アスペクト比が変わって監視者にとって監視画像が見にくくなってなってしまうことを防ぐことができる。
図7は、監視装置110が連結モードにおいて生成されるフレーム画像の一例を示す。特徴領域特定部270は、第1撮像部210aが撮像した第1フレーム画像711、712、及び713から、それぞれの特徴領域721、722、及び723を特定する。また、特徴領域特定部270は、第2撮像部210bが撮像した第2フレーム画像751、752、及び753から、それぞれの特徴領域761、762、及び763を特定する。なお、特徴領域特定部270が特徴領域を特定する手法としては、例えば図4に関連して説明した方法と同じ手法を用いることができるので、説明を省略する。
そして、トリミング部280は、第1フレーム画像711に含まれる特徴領域721と、第2フレーム画像751に含まれる特徴領域761を含む特徴領域画像731及び771をトリミングする。このとき、トリミング部280は、画像再生装置120が表示する動画のアスペクト比と同一のアスペクト比となるように、特徴領域画像731及び771をトリミングしてよい。なお、トリミング部280は、特徴領域の面積がより大きい場合に、特徴領域を含むより大きい画像領域をトリミングしてもよい。また、トリミング部280は、特徴領域特定部270が動く被写体を特徴領域として特定した場合には、当該被写体が動く方向の監視領域を含む画像領域をトリミングしてよい。また、トリミング部280は、特徴領域特定部270が動く被写体を特徴領域として特定した場合には、動く速さがより大きい場合に、特徴領域を含むより大きい画像領域をトリミングしてもよい。また、トリミング部280は、特徴領域特定部270が動く被写体を特徴領域として特定した場合には、被写体が、被写体の大きさに対してより大きい速さで動いている場合に、特徴領域を含むより大きい画像領域をトリミングしてもよい。
なお、トリミング部280は、複数の特徴領域画像を連結して得られる画像の大きさが、画像再生装置120が再生する動画の大きさを超えてしまう場合には、当該範囲に収まるよう、トリミングされたそれぞれの特徴領域画像にアフィン変換等の画像処理を施してよい。
以上説明したように、監視装置110が連結モードによってフレーム画像を生成することによって、例えば金庫等、予め定められた監視対象領域と、監視領域170への侵入者とを同一フレーム画像に収めることができる。したがって、監視システム100においては、監視装置110から送信されてくる動画のデータ量を削減することができる。
図8は、監視装置110がフレーム画像を生成する動作モードを選択する処理フローの一例を示す。特徴領域特定部270は、第1撮像部210a及び第2撮像部210bが同じタイミングで撮像したそれぞれの画像から、特徴領域を特定する(S810)。そして、監視装置110は、特徴領域特定部270が特徴領域を複数特定したか否かを判断する(S820)。S820において、特徴領域特定部270が特徴領域を複数特定した場合には、監視装置110は、特徴領域特定部270が特定した複数の特徴領域がトリミング部280によってトリミングされるアスペクト比の部分監視画像の範囲内に収めることができるか否かを判断する(S830)。
S830において、特徴領域特定部270が特定した複数の特徴領域がトリミング部280によってトリミングされるアスペクト比の部分監視画像の範囲内に収めることができる場合には、連結モードで合成画像を生成する(S840)。S820において、特徴領域特定部270が特徴領域を複数特定していない場合、又は、特徴領域特定部270が特定した複数の特徴領域がトリミング部280によってトリミングされるアスペクト比の部分監視画像の範囲内に収めることができない場合には、トリミングモードで合成画像を生成する(S850)。以上説明したように、監視装置110は、監視領域170における重要な監視対象の存在位置、存在範囲等に応じて、トリミングモードと連結モードとを適切に選択することができる。
図9は、本実施形態に係る監視装置110のハードウェア構成の一例を示す。監視装置110は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有するレガシー入出力部とを備える。
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、監視装置110が起動時に実行するブート・プログラムや、監視装置110のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550や、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。
CPU1505により実行されるプログラムは、監視装置110を、図1から図8に関連して説明した第1撮像部210a、第2撮像部210b、並びに、画像処理部220、重複監視領域特定部230、監視領域位置算出部232、監視領域位置格納部234、合成画像生成部240、顔領域抽出部250、顔領域明るさ判断部252、動画圧縮部260、特徴領域特定部270、撮像条件決定部272、撮像制御部274、トリミング部280、及び動画格納部290として機能させる。また、CPU1505により実行されるプログラムは、画像処理部220を、図1から図8に関連して説明した利得制御部222、AD変換部224、画像データ変換部226、及びメモリ228として機能させる。
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDやPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムを監視装置110に提供してもよい。
以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に、多様な変更又は改良を加えることができる。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
監視システム100の利用環境の一例を示す図である。 トリミングモードにおける動作ブロックの一例を示す図である。 監視領域の撮像過程の一例を示す図である。 合成画像から特徴領域画像をトリミングする処理の一例を示す図である。 撮像条件を一致させる処理の一例を示す図である。 連結モードにおける動作ブロックの一例を示す図である。 連結モードにおいて生成されるフレーム画像の一例を示す図である。 フレーム画像を生成する動作モードを選択する処理フローの一例を示す図である。 監視装置110のハードウェア構成の一例を示す図である。
符号の説明
100 監視システム
110 監視装置
111 画像生成装置
112 カメラ
120 画像再生装置
130 携帯端末
170 監視領域
180 通信回線
210 撮像部
220 画像処理部
222 利得制御部
224 AD変換部
226 画像データ変換部
230 重複監視領域特定部
232 監視領域位置算出部
234 監視領域位置格納部
240 合成画像生成部
250 顔領域抽出部
252 顔領域明るさ判断部
260 動画圧縮部
270 特徴領域特定部
272 撮像条件決定部
274 撮像制御部
280 トリミング部
290 動画格納部

Claims (11)

  1. 第1監視領域の動画を撮像する第1撮像部と、
    前記第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部と、
    前記第1撮像部が撮像する第1監視領域と、前記第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部と、
    前記合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部と
    を備える監視システム。
  2. 前記第1撮像部が撮像した第1フレーム画像と、前記第1撮像部が第1フレーム画像を撮像すると同時に前記第2撮像部が撮像した第2フレーム画像とをマッチングすることによって、前記第1撮像部の第1監視領域と前記第2撮像部の第2監視領域とが重複する領域である重複監視領域を特定する重複監視領域特定部と、
    前記重複監視領域特定部が特定した重複監視領域に基づいて、前記第1撮像部が撮像する第1監視領域と、前記第2撮像部が撮像する第2監視領域との相対的な位置関係を算出する監視領域位置算出部と
    をさらに備え、
    前記合成画像生成部は、前記監視領域位置算出部が算出した第1監視領域と第2監視領域との相対的な位置関係に基づいて、第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する
    請求項1に記載の監視システム。
  3. 前記合成画像生成部が生成した合成画像を、前記第1撮像部又は前記第2撮像部が撮像する第1フレーム画像又は第2フレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出するトリミング部
    をさらに備え、
    前記動画格納部は、前記トリミング部が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納する
    請求項1に記載の監視システム。
  4. 前記合成画像生成部が生成した合成画像を、外部の画像再生装置が再生する動画を構成するフレーム画像と同一のアスペクト比にトリミングして部分監視領域画像を抽出するトリミング部
    をさらに備え、
    前記動画格納部は、前記トリミング部が抽出した部分監視領域画像を部分監視領域の動画を構成するフレーム画像として格納する
    請求項1に記載の監視システム。
  5. 前記トリミング部が抽出した複数の部分監視領域画像を、動画を構成するフレーム画像として動画圧縮する動画圧縮部
    をさらに備え、
    前記動画格納部は、前記動画圧縮部が圧縮した複数の部分監視領域画像を、部分監視領域の動画を構成するフレーム画像として格納する
    請求項3又は4に記載の監視システム。
  6. 前記第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、前記第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とに交互に画像処理を施してメモリに格納する画像処理部
    をさらに備える請求項1に記載の監視システム。
  7. 前記画像処理部は、
    前記第1撮像部が有する複数の受光素子から読み出された第1フレーム画像と、前記第2撮像部が有する複数の受光素子から読み出された第2フレーム画像とを交互にデジタルデータに変換するAD変換部
    を有し、
    前記合成画像生成部は、前記AD変換部によってデジタルデータに変換された第1フレーム画像と、前記AD変換部によってデジタルデータに変換された第2フレーム画像との合成位置を調整して合成画像を生成する
    請求項6に記載の監視システム。
  8. 前記画像処理部は、
    前記第1撮像部が有する複数の受光素子から読み出された第1フレーム画像の画像データと、前記第2撮像部が有する複数の受光素子から読み出された第2フレーム画像の画像データとを交互に表示用画像データに変換する画像データ変換部
    を有し、
    前記合成画像生成部は、前記画像データ変換部によって表示用画像データに変換された第1フレーム画像と、前記画像データ変換部によって表示用画像データに変換された第2フレーム画像との合成位置を調整して合成画像を生成する
    請求項6に記載の監視システム。
  9. 第1監視領域の動画を撮像する第1撮像部と、
    前記第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部と、
    前記第1撮像部が撮像する第1監視領域と、前記第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部と、
    前記合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部と
    を備える監視装置。
  10. 第1監視領域の動画を撮像する第1撮像段階と、
    前記第1撮像段階における第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像段階と、
    前記第1撮像において撮像される第1監視領域と、前記第2撮像において撮像される第2監視領域との相対的な位置関係に基づいて、前記第1撮像段階及び前記第2撮像段階においてそれぞれ撮像された動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成段階と、
    前記合成画像生成において生成された合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納段階と
    を備える監視方法。
  11. 動画を撮像する監視システム用のプログラムであって、当該監視システムを、
    第1監視領域の動画を撮像する第1撮像部、
    前記第1撮像部による第1監視領域の撮像動作に同期して、第1監視領域に隣接する第2監視領域の動画を撮像する第2撮像部、
    前記第1撮像部が撮像する第1監視領域と、前記第2撮像部が撮像する第2監視領域との相対的な位置関係に基づいて、前記第1撮像部及び前記第2撮像部がそれぞれ撮像した動画を構成する第1フレーム画像及び第2フレーム画像の合成位置を調整して合成画像を生成する合成画像生成部、
    前記合成画像生成部が生成した合成画像を、第1監視領域及び第2監視領域の少なくとも一部を含む部分監視領域の動画を構成するフレーム画像として格納する動画格納部
    として機能させるプログラム。
JP2005217933A 2005-07-27 2005-07-27 監視システム、監視装置、監視方法、及びプログラム Expired - Fee Related JP4794938B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005217933A JP4794938B2 (ja) 2005-07-27 2005-07-27 監視システム、監視装置、監視方法、及びプログラム
US11/489,601 US20070024710A1 (en) 2005-07-27 2006-07-20 Monitoring system, monitoring apparatus, monitoring method and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005217933A JP4794938B2 (ja) 2005-07-27 2005-07-27 監視システム、監視装置、監視方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2007036748A true JP2007036748A (ja) 2007-02-08
JP4794938B2 JP4794938B2 (ja) 2011-10-19

Family

ID=37693863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005217933A Expired - Fee Related JP4794938B2 (ja) 2005-07-27 2005-07-27 監視システム、監視装置、監視方法、及びプログラム

Country Status (2)

Country Link
US (1) US20070024710A1 (ja)
JP (1) JP4794938B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199505A (ja) * 2007-02-15 2008-08-28 Mitsubishi Electric Corp 映像監視装置
KR101558419B1 (ko) * 2015-06-11 2015-10-07 (주)프로브디지털 복수의 카메라를 이용한 영상처리장치 및 제어방법
JP2015179432A (ja) * 2014-03-19 2015-10-08 三菱電機株式会社 投影位置決定装置及び投影位置決定プログラム
JP2017211939A (ja) * 2016-05-27 2017-11-30 ヤフー株式会社 生成装置、生成方法、及び生成プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8212877B2 (en) * 2007-03-02 2012-07-03 Fujifilm Corporation Image capturing system, image capturing method, and computer program product at which an image is captured at a predetermined time
JP5247356B2 (ja) * 2008-10-29 2013-07-24 キヤノン株式会社 情報処理装置およびその制御方法
JP5483863B2 (ja) * 2008-11-12 2014-05-07 キヤノン株式会社 情報処理装置およびその制御方法
US20100186234A1 (en) 2009-01-28 2010-07-29 Yehuda Binder Electric shaver with imaging capability
JP5553141B2 (ja) * 2009-11-11 2014-07-16 ソニー株式会社 画像処理システム、画像処理装置、画像処理方法、およびプログラム
US9270899B1 (en) * 2012-06-27 2016-02-23 Amazon Technologies, Inc. Segmentation approaches for object recognition
US20150373408A1 (en) * 2014-06-24 2015-12-24 Comcast Cable Communications, Llc Command source user identification

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217184A (ja) * 1993-01-14 1994-08-05 Canon Inc 複眼撮像装置
JPH0962861A (ja) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd パノラマ映像装置
JPH11164292A (ja) * 1997-12-01 1999-06-18 Nippon Lsi Card Co Ltd 画像生成装置,画像呈示装置,画像生成方法及び画像合成方法
JPH11308608A (ja) * 1998-02-19 1999-11-05 Nippon Lsi Card Co Ltd 動画像生成方法,動画像生成装置及び動画像呈示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649032A (en) * 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
JP2002077526A (ja) * 2000-08-23 2002-03-15 Fuji Photo Film Co Ltd 画像形成装置
JP4187704B2 (ja) * 2004-08-31 2008-11-26 三洋電機株式会社 手ぶれ補正装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06217184A (ja) * 1993-01-14 1994-08-05 Canon Inc 複眼撮像装置
JPH0962861A (ja) * 1995-08-21 1997-03-07 Matsushita Electric Ind Co Ltd パノラマ映像装置
JPH11164292A (ja) * 1997-12-01 1999-06-18 Nippon Lsi Card Co Ltd 画像生成装置,画像呈示装置,画像生成方法及び画像合成方法
JPH11308608A (ja) * 1998-02-19 1999-11-05 Nippon Lsi Card Co Ltd 動画像生成方法,動画像生成装置及び動画像呈示装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008199505A (ja) * 2007-02-15 2008-08-28 Mitsubishi Electric Corp 映像監視装置
JP2015179432A (ja) * 2014-03-19 2015-10-08 三菱電機株式会社 投影位置決定装置及び投影位置決定プログラム
KR101558419B1 (ko) * 2015-06-11 2015-10-07 (주)프로브디지털 복수의 카메라를 이용한 영상처리장치 및 제어방법
JP2017211939A (ja) * 2016-05-27 2017-11-30 ヤフー株式会社 生成装置、生成方法、及び生成プログラム

Also Published As

Publication number Publication date
JP4794938B2 (ja) 2011-10-19
US20070024710A1 (en) 2007-02-01

Similar Documents

Publication Publication Date Title
JP4464360B2 (ja) 監視装置、監視方法、及びプログラム
JP4794938B2 (ja) 監視システム、監視装置、監視方法、及びプログラム
US7573505B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
US8817134B2 (en) Imaging control device, subject detection method, and program
US6704042B2 (en) Video processing apparatus, control method therefor, and storage medium
EP2153641B1 (en) Digital cinema camera system for recording, editing and visualizing images
JP4292891B2 (ja) 撮像装置、画像記録装置および画像記録方法
US8000558B2 (en) Thumbnail generating apparatus and image shooting apparatus
US8681239B2 (en) Image capturing device, image capturing method, program, and integrated circuit
WO2023160285A9 (zh) 视频处理方法和装置
JP2003324649A (ja) 通信機能付電子カメラおよびその電子カメラシステムにおける撮影方法
JP2015053741A (ja) 画像再生装置
JP2008125059A (ja) 動画像記録再生装置
JP2007336411A (ja) 撮像装置、オートブラケティング撮影方法、およびプログラム
KR101665175B1 (ko) 화상 취득 장치, 화상 취득 방법 및 기록매체
JP2013074572A (ja) 画像処理装置、画像処理方法及びプログラム
JP4527028B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2008172395A (ja) 撮像装置、画像処理装置、方法およびプログラム
US20240221139A1 (en) Image processing apparatus, image processing method, and program
CN105530426A (zh) 摄像装置及其控制方法
JP5332668B2 (ja) 撮像装置および被写体検出プログラム
JP6564295B2 (ja) 合成画像作成装置
JP2011119934A (ja) 画像撮影装置及び画像撮影方法
JP3538324B2 (ja) 電子スチルカメラ、電子スチルカメラの動画撮影方法、およびコンピュータが実行可能なプログラムを格納した記録媒体
JP2021002803A (ja) 画像処理装置、その制御方法、プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110727

R150 Certificate of patent or registration of utility model

Ref document number: 4794938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees