JP2014143551A - Image processing apparatus, imaging apparatus, and image processing program - Google Patents
Image processing apparatus, imaging apparatus, and image processing program Download PDFInfo
- Publication number
- JP2014143551A JP2014143551A JP2013010436A JP2013010436A JP2014143551A JP 2014143551 A JP2014143551 A JP 2014143551A JP 2013010436 A JP2013010436 A JP 2013010436A JP 2013010436 A JP2013010436 A JP 2013010436A JP 2014143551 A JP2014143551 A JP 2014143551A
- Authority
- JP
- Japan
- Prior art keywords
- background information
- imaging range
- change
- imaging
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、いわゆる背景差分法により撮像により生成された映像中の物体情報を検出する画像処理技術に関する。 The present invention relates to an image processing technique for detecting object information in a video generated by imaging using a so-called background difference method.
監視カメラ等の撮像装置によって生成された映像中において背景以外の物体が存在する領域の位置や大きさを示す物体情報(以下、単に物体ともいう)をリアルタイムに検出する画像処理技術として、背景差分法が知られている。例えば、特許文献1には、背景差分法を用いて映像から物体を正確に抽出する方法が開示されている。 Background subtraction as an image processing technique for detecting in real time object information (hereinafter also simply referred to as an object) indicating the position and size of an area where an object other than the background exists in an image generated by an imaging device such as a surveillance camera The law is known. For example, Patent Document 1 discloses a method of accurately extracting an object from a video using a background difference method.
ただし、背景差分法では、撮像装置によって撮像される被写界の範囲である撮像範囲が一定の状態で生成された背景画像(背景情報)と、背景内に物体が入り込んだ様子の撮像により生成された入力画像との差分から該物体を検出する。このため、物体検出の際の撮像範囲が撮像装置のズーミング、パンニングおよびチルティングによって背景画像を生成したときの撮像範囲に対して大きく変更されると、既に作成された背景画像は無意味となり、背景情報を新規に作り直す必要がある。そして、新規背景情報を作り直すのに必要な期間の間は物体検出(つまりは監視)ができなくなる。 However, in the background subtraction method, a background image (background information) generated in a state where the imaging range, which is the range of the object field imaged by the imaging device, is fixed, and generated by imaging an object entering the background The object is detected from the difference from the input image. For this reason, if the imaging range at the time of object detection is greatly changed with respect to the imaging range when the background image is generated by zooming, panning and tilting of the imaging device, the already created background image becomes meaningless, It is necessary to create new background information. In addition, object detection (that is, monitoring) cannot be performed during a period necessary to recreate new background information.
この背景情報の作り直しによる物体検出不能期間の発生を回避するために、特許文献2には、予めズーミング、パンニングおよびチルティングによる撮像範囲の変更先を予め設定し、該変更先の撮像範囲に対応する背景情報をメモリに記憶する方法が開示されている。 In order to avoid the occurrence of an object non-detectable period due to the re-creation of the background information, Patent Document 2 previously sets a change destination of an imaging range by zooming, panning, and tilting, and corresponds to the imaging range of the change destination. A method for storing background information to be stored in a memory is disclosed.
しかしながら、特許文献2にて開示された方法では、予め決められた変更先以外の撮像範囲にズーミング、パンニングおよびチルティングがなされたときに背景情報の作り直しが必要となり、その結果、物体検出不能期間が発生してしまう。 However, in the method disclosed in Patent Document 2, it is necessary to recreate background information when zooming, panning, and tilting are performed in an imaging range other than a predetermined change destination. Will occur.
本発明は、撮像範囲が任意に変更された場合でも、物体検出不能期間をほとんど発生させることなく物体検出を行うことができるようにした画像処理装置、撮像装置および画像処理プログラムを提供する。 The present invention provides an image processing apparatus, an imaging apparatus, and an image processing program capable of performing object detection with almost no object detection impossible period even when the imaging range is arbitrarily changed.
本発明の一側面としての画像処理装置は、撮像範囲内の被写界を撮像する撮像装置により生成された映像に対して処理を行う。該画像処理装置は、撮像装置により生成された基準映像から背景情報を作成する背景情報作成手段と、背景情報と撮像装置により生成された入力映像との差分から該入力映像中の物体情報を検出する物体検出手段と、背景情報を保存する記憶手段とを有する。そして、背景情報作成手段は、撮像範囲が変更された場合に、該変更後に生成された基準映像から新規背景情報を作成し直すとともに、該撮像範囲の変更の前後に生成された基準映像のうち共通領域に対応する暫定背景情報を、撮像範囲の変更前に作成されて記憶手段に保存された変更前背景情報を用いて作成する。さらに、物体検出手段は、撮像範囲の変更後に生成された入力映像中の物体情報の検出において、新規背景情報の作成が完了するまでは、上記差分として暫定背景情報と該入力画像との差分を用いることを特徴とする。 An image processing apparatus according to an aspect of the present invention performs processing on a video generated by an imaging apparatus that captures an object scene within an imaging range. The image processing device detects background information from the reference image generated by the imaging device, and background information generating means, and detects object information in the input video from the difference between the background information and the input video generated by the imaging device. An object detecting means for storing and a storage means for storing background information. And when the imaging range is changed, the background information creation means recreates new background information from the reference video generated after the change, and among the reference videos generated before and after the change of the imaging range Provisional background information corresponding to the common area is created using the pre-change background information created before the change of the imaging range and stored in the storage unit. Further, the object detection means detects the difference between the provisional background information and the input image as the difference until the creation of new background information is completed in the detection of the object information in the input video generated after the change of the imaging range. It is characterized by using.
なお、撮像範囲内の被写界を撮像する撮像手段と、撮像範囲を変更する撮像範囲変更手段と、上記画像処理装置とを有する撮像装置も、本発明の他の一側面を構成する。 Note that an image pickup apparatus including an image pickup unit that picks up an object scene in an image pickup range, an image pickup range change unit that changes the image pickup range, and the image processing apparatus also constitute another aspect of the present invention.
また、本発明の他の一側面としての画像処理プログラムは、撮像範囲内の被写界を撮像する撮像装置により生成された映像に対する処理をコンピュータに実行させるコンピュータプログラムである。該画像処理プログラムは、コンピュータに、撮像装置により生成された基準映像から背景情報を作成する背景情報作成処理と、背景情報と撮像装置により生成された入力映像との差分から該入力映像中の物体情報を検出する物体検出処理と、背景情報を記憶手段に保存する処理とを行わせる。そして、該画像処理プログラムは、コンピュータに、背景情報作成処理では、撮像範囲が変更された場合に、該変更後に生成された基準映像から新規背景情報を作成し直させるとともに、該撮像範囲の変更の前後に生成された基準映像のうち共通領域に対応する暫定背景情報を、撮像範囲の変更前に作成されて記憶手段に保存された変更前背景情報を用いて作成させる。さらに、撮像範囲の変更後に生成された入力映像に対する物体検出処理では、新規背景情報の作成が完了するまでは、上記差分として暫定背景情報と該入力画像との差分を用いて物体情報を検出させることを特徴とする。 An image processing program according to another aspect of the present invention is a computer program that causes a computer to execute processing on an image generated by an imaging device that captures an object scene within an imaging range. The image processing program stores, in a computer, background information creation processing for creating background information from a reference video generated by the imaging device, and an object in the input video based on a difference between the background information and the input video generated by the imaging device. An object detection process for detecting information and a process for storing background information in the storage means are performed. Then, the image processing program causes the computer to re-create new background information from the reference video generated after the change when the imaging range is changed in the background information creation process, and to change the imaging range. Provisional background information corresponding to the common area among the reference images generated before and after is created using the pre-change background information created before the change of the imaging range and stored in the storage means. Further, in the object detection process for the input video generated after the imaging range is changed, the object information is detected using the difference between the provisional background information and the input image as the difference until the creation of new background information is completed. It is characterized by that.
本発明によれば、撮像範囲が任意に変更された場合でも、物体情報の検出ができなくなる期間をほとんど発生させることなく物体情報の検出を行うことができる。 According to the present invention, even when the imaging range is arbitrarily changed, the object information can be detected with almost no period during which the object information cannot be detected.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1には、本発明の実施例である撮像装置の構成を示している。ここでは、撮像装置として監視カメラ100について説明する。ただし、監視カメラ以外のビデオカメラや動画撮像機能を有するデジタルスチルカメラ等の各種撮像装置に以下の構成を適用することも可能である。 FIG. 1 shows the configuration of an imaging apparatus that is an embodiment of the present invention. Here, the monitoring camera 100 will be described as an imaging device. However, the following configuration can be applied to various imaging apparatuses such as a video camera other than the surveillance camera and a digital still camera having a moving image imaging function.
図1において、101はレンズ部である。レンズ部101は、変倍レンズやフォーカスレンズといった可動レンズを含む撮像レンズ(撮像光学系)と、該可動レンズを移動させたりレンズ部101をパンニング方向やチルティング方向に回動させたりするアクチュエータとを有する。102はレンズ制御部であり、CPU105からの指示に従ってレンズ部101の動作を制御する。具体的には、変倍レンズを移動させてズーミングを行ったりレンズ部101を回動させてパンニングやチルティングを行ったりすることで、カメラ100によって撮像される被写界の範囲である撮像範囲を制御する。 In FIG. 1, reference numeral 101 denotes a lens unit. The lens unit 101 includes an imaging lens (imaging optical system) including a movable lens such as a variable power lens or a focus lens, and an actuator that moves the movable lens or rotates the lens unit 101 in a panning direction or a tilting direction. Have Reference numeral 102 denotes a lens control unit which controls the operation of the lens unit 101 in accordance with an instruction from the CPU 105. Specifically, an image pickup range that is a range of an object imaged by the camera 100 by moving the zoom lens to perform zooming or rotating the lens unit 101 to perform panning or tilting. To control.
103は撮像レンズにより形成された被写体像を撮像(光電変換)する撮像手段としての撮像素子であり、CCDセンサやCMOSセンサ等の光電変換素子により構成されている。104は撮像制御部であり、撮像素子103から出力されたアナログ撮像信号をデジタルデータに変換する。 Reference numeral 103 denotes an image pickup device as an image pickup means for picking up an image of a subject formed by the image pickup lens (photoelectric conversion), and is constituted by a photoelectric conversion device such as a CCD sensor or a CMOS sensor. An imaging control unit 104 converts an analog imaging signal output from the imaging element 103 into digital data.
CPU105は、メインコントローラとして、カメラ100内の各部の制御や各部から得られる情報に基づく演算処理を行う。106は画像処理装置としての映像処理部であり、後述する背景情報を作成する処理(背景情報作成処理)や物体情報を検出する処理(物体検出処理)を行う。107は記録媒体制御部であり、記録媒体としての同期式ダイナミックランダムアクセスメモリ(以下、SDRAMと称する)108に対するデータの書き込みおよび読み出しを制御する。109はSDRAM制御部であり、CPU105からの命令に従い、記憶手段としてのSDRAM110に対するデータの書き込みや読み出しを制御する。撮像制御部104が、撮像信号をデジタルデータに変換する際に、一次記憶部としてSDRAM110が使用される。この際、SDRAM制御部109の制御によってSDRAM110に対するデータの書き込み読み出しが行われる。変換されたデジタルデータは、記録媒体制御部107を介して記録媒体108に書き込まれる。また、SDRAM110には、カメラ100の内部状態、処理待ちの映像データおよび背景画像作成処理や物体検出処理において生成されるデータ等を一時的に保存することも可能である。 As a main controller, the CPU 105 performs arithmetic processing based on control of each unit in the camera 100 and information obtained from each unit. Reference numeral 106 denotes a video processing unit as an image processing apparatus, which performs processing for creating background information (background information creation processing) and processing for detecting object information (object detection processing) described later. A recording medium control unit 107 controls writing and reading of data to and from a synchronous dynamic random access memory (hereinafter referred to as SDRAM) 108 as a recording medium. Reference numeral 109 denotes an SDRAM control unit that controls writing and reading of data to and from the SDRAM 110 serving as a storage unit in accordance with an instruction from the CPU 105. When the imaging control unit 104 converts the imaging signal into digital data, the SDRAM 110 is used as a primary storage unit. At this time, data is written to and read from the SDRAM 110 under the control of the SDRAM control unit 109. The converted digital data is written to the recording medium 108 via the recording medium control unit 107. The SDRAM 110 can also temporarily store the internal state of the camera 100, video data waiting for processing, data generated in background image creation processing and object detection processing, and the like.
図2のフローチャートには、本実施例のカメラ100において望遠側へのズーミング(ズームイン)に伴ってCPU105および映像処理部106により行われる処理を示している。CPU105および映像処理部106は、カメラに搭載されたコンピュータとして、記録媒体108に保持されたコンピュータプログラムである制御プログラムに従って以下の処理を実行する。CPU105はレンズ制御部101とともに撮像範囲変更手段として機能し、映像処理部106は背景情報作成手段および物体検出手段としてそれぞれ機能する。 The flowchart of FIG. 2 illustrates processing performed by the CPU 105 and the video processing unit 106 in association with zooming (zoom-in) to the telephoto side in the camera 100 of the present embodiment. The CPU 105 and the video processing unit 106 execute the following processing according to a control program that is a computer program held in the recording medium 108 as a computer mounted on the camera. The CPU 105 functions as an imaging range changing unit together with the lens control unit 101, and the video processing unit 106 functions as a background information creation unit and an object detection unit.
ステップS201において、CPU105は外部からの望遠側へのズーミングの指示に応じて望遠側へのズーム処理(以下、ズームイン処理という)を開始する。そして、ステップS202にてズームイン処理が完了すると、CPU105はステップS203に移行する。 In step S201, the CPU 105 starts zoom processing to the telephoto side (hereinafter referred to as zoom-in processing) in response to a zooming instruction from the outside to the telephoto side. When the zoom-in process is completed in step S202, the CPU 105 proceeds to step S203.
ステップS203では、映像処理部106は、ズームイン処理によって撮像範囲が変更されたことに応じて、背景情報(新規背景情報)の作成し直し処理を開始する。このとき、映像処理部106は、SDRAM110に保存されているズームイン処理前の背景情報(変更前背景情報)を上書きせずに残しておき、SDRAM110上に新規の領域を確保して新しい撮像範囲に対応する新規背景情報の作成を開始する。 In step S <b> 203, the video processing unit 106 starts a process for recreating background information (new background information) in response to the imaging range being changed by the zoom-in process. At this time, the video processing unit 106 keeps the background information before zoom-in processing (background information before change) stored in the SDRAM 110 without overwriting, and secures a new area on the SDRAM 110 to create a new imaging range. Start creating corresponding new background information.
ここで、背景情報とは、撮像範囲内の背景中に物体が存在しない状態での撮像により生成された映像(基準映像)のうち背景の輝度や色を示す情報である。本実施例での物体検出処理に採用する背景差分法では、この背景情報と撮像範囲内に物体が存在可能な状態での撮像により生成された映像(入力映像)との差分から、該入力映像中において該物体が存在する領域の位置や大きさを示す物体情報を検出する。 Here, the background information is information indicating the luminance and color of the background in the video (reference video) generated by imaging in a state where no object exists in the background within the imaging range. In the background subtraction method employed in the object detection processing in the present embodiment, the input video is calculated from the difference between the background information and a video (input video) generated by imaging in a state where an object can exist within the imaging range. Object information indicating the position and size of the area in which the object exists is detected.
なお、本実施例では、撮像素子103から得られる映像データの画素値を画素毎に所定の複数のフレーム分加算して平均したものを背景情報として用いる。一般に撮像により生成された映像から背景情報を作成する場合、安定した背景情報の作成が完了するまでには複数のフレーム分の時間が必要になる。つまり、ステップS203で背景情報の作成し直し処理が行われている間は、この作成途中の背景情報を用いた背景差分法による物体検出処理を行うことができない。このため、本実施例では、以下に説明する特徴的な処理を行う。 In this embodiment, the average value obtained by adding the pixel values of the video data obtained from the image sensor 103 for a predetermined number of frames for each pixel is used as the background information. In general, when background information is created from a video generated by imaging, time for a plurality of frames is required until the creation of stable background information is completed. That is, while the background information re-creation process is being performed in step S203, the object detection process by the background subtraction method using the background information in the process of creation cannot be performed. For this reason, in this embodiment, the characteristic processing described below is performed.
ステップS204では、映像処理部106は、ズームイン処理による撮像範囲の変更前と変更後に生成された映像(基準映像)のうち互いに共通する領域である共通領域を抽出する処理を行う。図5(A)の左側にはズームイン処理前における撮像範囲に対応した映像を示しており、右側にはズームイン処理後における撮像範囲に対応した映像を示している。ズームイン処理後の映像は、ズームイン処理前の映像の一部を拡大したものとなる。このため、ズームイン処理前の映像から、ズームイン処理後の映像との共通領域を抽出することが可能となる。 In step S204, the video processing unit 106 performs a process of extracting a common area that is a common area among videos (reference videos) generated before and after the change of the imaging range by the zoom-in process. An image corresponding to the imaging range before the zoom-in process is shown on the left side of FIG. 5A, and an image corresponding to the imaging range after the zoom-in process is shown on the right side. The video after the zoom-in process is an enlarged part of the video before the zoom-in process. For this reason, a common area | region with the image | video after a zoom-in process can be extracted from the image | video before a zoom-in process.
ここで、ズーム処理による撮像範囲の変更の前後に生成された2つの映像から共通領域を抽出する手法としては、該撮像範囲の変化率を用いて推定する方法がある。例えば、図5(A)の左図において点線で示す領域は、右図に示す映像との共通領域を示している。共通領域は、左図の映像の画素数を1280×1024画素とし、撮像範囲の変化率を20%(ただし、水平方向)とすると、
(1280×1024画素)×(水平100−20%)=1024×768画素
の領域と推定される。
Here, as a method of extracting a common area from two videos generated before and after the change of the imaging range by the zoom process, there is a method of estimating using a change rate of the imaging range. For example, a region indicated by a dotted line in the left diagram of FIG. 5A indicates a common region with the video illustrated in the right diagram. In the common area, if the number of pixels of the image in the left figure is 1280 × 1024 pixels and the change rate of the imaging range is 20% (however, in the horizontal direction)
It is estimated that (1280 × 1024 pixels) × (horizontal 100−20%) = 1024 × 768 pixels.
次に、ステップS205では、映像処理部106は、先のステップS203においてSDRAM110に保存したまま残しておいた変更前背景情報の中から、ステップS204にて求めた共通領域に対応する部分的な背景情報を暫定背景情報として抽出する。 Next, in step S205, the video processing unit 106 selects a partial background corresponding to the common area obtained in step S204 from the pre-change background information stored in the SDRAM 110 in the previous step S203. Information is extracted as provisional background information.
次に、ステップS206からは、映像処理部106は、ステップS205で抽出した背景情報を用いて背景差分法による物体検出処理を行う。まずステップS206では、映像処理部106は、ステップS203で開始したズームイン処理後の撮像範囲に対応した新規背景情報の作成し直し処理が完了したか否かを判定する。該作成し直し処理がまだ完了しておらず継続中であると判定した場合には、ステップS207に移行する。 Next, from step S206, the video processing unit 106 performs object detection processing by the background subtraction method using the background information extracted in step S205. First, in step S206, the video processing unit 106 determines whether or not new background information re-creation processing corresponding to the imaging range after the zoom-in processing started in step S203 has been completed. If it is determined that the re-creation process has not yet been completed and is continuing, the process proceeds to step S207.
ステップS207では、映像処理部106は、物体検出処理の対象となる入力映像(ズームイン処理後の撮像により生成された映像)を取得し、該入力映像のデータをSDRAM110上に展開する。 In step S <b> 207, the video processing unit 106 acquires an input video (video generated by imaging after zoom-in processing) that is an object of object detection processing, and develops the input video data on the SDRAM 110.
次に、ステップS208では、映像処理部106は、取得した入力映像の画素数をステップS205で抽出した暫定背景情報の画素数に合わせるリサイズ処理を行う。具体的には、入力映像を、その画素数がステップS204で算出した共通領域の画素数(暫定背景情報の画素数)に一致するように、平均画素法等の一般的なアルゴリズムにより圧縮する処理を行う。 Next, in step S208, the video processing unit 106 performs a resizing process that matches the number of pixels of the acquired input video with the number of pixels of the provisional background information extracted in step S205. Specifically, a process of compressing the input video by a general algorithm such as an average pixel method so that the number of pixels matches the number of pixels in the common area calculated in step S204 (the number of pixels in the provisional background information). I do.
次に、ステップS209では、映像処理部106は、ステップS205で抽出した暫定背景情報とステップS208でリサイズ処理した入力映像との間で物体検出処理としての背景差分処理を実行する。これにより、映像処理部106は、暫定背景情報と入力映像との差分を物体情報として検出する。 In step S209, the video processing unit 106 executes background difference processing as object detection processing between the provisional background information extracted in step S205 and the input video resized in step S208. Thereby, the video processing unit 106 detects the difference between the provisional background information and the input video as object information.
次に、ステップS210では、映像処理部106は、ステップS209での背景差分処理により物体情報を取得したか否かを判定する。図6には、物体情報の例として、識別ID、入力画像中での座標および大きさの情報を含む物体情報(データ構造)を示している。映像処理部106は、物体情報を取得した場合はステップS211に移行し、物体情報を用いた動体/不動体の存在を解析する処理(動体/不動体検出処理)を開始する。物体情報を取得(検出)しなかった場合にはステップS206に戻る。 Next, in step S210, the video processing unit 106 determines whether object information has been acquired by the background difference process in step S209. FIG. 6 shows object information (data structure) including identification ID, coordinates and size information in the input image, as an example of object information. When the object information is acquired, the video processing unit 106 proceeds to step S211 and starts a process (moving object / unmoving object detection process) for analyzing the existence of the moving object / unmoving object using the object information. If the object information has not been acquired (detected), the process returns to step S206.
ステップS211での動体/不動体解析処理においては、映像処理部106は、動体判定として、物体情報の識別IDと座標の情報を使用して、入力映像の複数フレームにわたって動いている物体が存在するか否かを判定する。また、映像処理部106は、不動体判定として、識別IDと座標の情報とタイマ機能を使用して、入力映像の複数フレームにわたって一定の位置に一定時間以上の間停止している物体(不動の物体)が存在するか否かを判定する。 In the moving object / non-moving object analysis processing in step S211, the video processing unit 106 uses an object information identification ID and coordinate information as moving object determination, and there is an object moving over a plurality of frames of the input video. It is determined whether or not. In addition, the image processing unit 106 uses the identification ID, coordinate information, and a timer function as an unmoving object determination, and uses an object (non-moving object) that has been stopped for a certain period of time at a certain position over a plurality of frames of the input image. It is determined whether or not (object) exists.
次に、ステップS212では、映像処理部106は、ステップS211での動体/不動体解析処理が実行中か否かを判定する。実行中である場合は、映像処理部106は、ステップS213に移行して動体/不動体解析処理実行中フラグを設定した後、ステップS206に戻る。一方、動体/不動体解析処理が実行されていない場合には、映像処理部106は、ステップS214に移行して動体/不動体解析処理実行中フラグを解除した後、ステップS206に戻る。 Next, in step S212, the video processing unit 106 determines whether the moving object / unmoving object analysis process in step S211 is being executed. If it is being executed, the video processing unit 106 proceeds to step S213, sets the moving object / unmoving object analysis process execution flag, and then returns to step S206. On the other hand, if the moving object / unmoving object analysis process has not been executed, the video processing unit 106 proceeds to step S214 to cancel the moving object / unmoving object analysis process execution flag, and then returns to step S206.
このステップS206からステップS214までの一連の処理は、ステップS206での判定処理において新規背景情報の作成し直し処理が完了したと判定されるまで、一定のフレーム分の時間を上限として繰り返される。そして、映像処理部106は、ステップS206にて新規背景情報の作成し直し処理が完了したと判定すると、ステップS215に移行する。 The series of processing from step S206 to step S214 is repeated with the time for a certain frame as an upper limit until it is determined in the determination processing in step S206 that the re-creation processing of new background information has been completed. If the video processing unit 106 determines in step S206 that the re-creation process of new background information has been completed, the video processing unit 106 proceeds to step S215.
ステップS215では、映像処理部106は、ステップS213,S214で設定および解除される動体/不動体解析処理実行中フラグが設定されているか否かを判定する。動体/不動体解析処理実行中フラグが設定されている(動体/不動体解析処理が実行中である)場合には、映像処理部106は、動体/不動体解析処理を優先させるためにステップS207に戻る。 In step S215, the video processing unit 106 determines whether or not the moving object / unmoving object analysis process execution flag set and canceled in steps S213 and S214 is set. When the moving object / unmoving object analysis process execution flag is set (moving object / unmoving object analysis process is being executed), the video processing unit 106 performs step S207 to prioritize the moving object / unmoving object analysis process. Return to.
一方、動体/不動体解析処理実行中フラグが解除されている(動体/不動体解析処理が実行中でない)場合は、映像処理部106は、ステップS216に移行する。ステップS216では、映像処理部106は、背景情報として本来必要な十分な情報量を持つ新規背景情報を用いた背景差分処理による物体検出処理を開始する。すなわち、動体/不動体解析処理が実行中である間は、新規背景情報の作成し直し処理が完了しても、直ぐに新規背景情報を用いた物体検出処理に移行せず、動体/不動体解析処理を完了させてから新規背景情報を用いた物体検出処理に移行する。 On the other hand, when the moving object / unmoving object analysis process execution flag is canceled (the moving object / unmoving object analysis process is not being executed), the video processing unit 106 proceeds to step S216. In step S216, the video processing unit 106 starts object detection processing based on background difference processing using new background information having a sufficient amount of information originally necessary as background information. That is, while the moving object / non-moving object analysis process is being executed, even if the re-creation process of the new background information is completed, the moving object / non-moving object analysis is not immediately performed without moving to the object detection process using the new background information. After completing the process, the process proceeds to an object detection process using new background information.
以上説明したように、本実施例では、ズームイン処理によって必要となる新規背景情報を作成する処理中においても、ズームイン処理前に作成された変更前背景情報を用いて、ズームイン処理後の入力画像に対する物体検出処理を行うことができる。これにより、ズームイン処理によって撮像範囲が任意に変更された場合でも、物体情報の検出ができなくなる期間をほとんど発生させることなく物体情報の検出を行うことができる。 As described above, in the present embodiment, even during the process of creating new background information required by the zoom-in process, the pre-change background information created before the zoom-in process is used for the input image after the zoom-in process. Object detection processing can be performed. Thereby, even when the imaging range is arbitrarily changed by the zoom-in process, the object information can be detected with almost no period during which the object information cannot be detected.
なお、本実施例では、ステップS205において抽出した暫定背景情報を用いて物体検出処理を行うために、ステップS208にて入力映像のリサイズ処理を行う場合について説明した。しかし、入力映像のリサイズ処理に代えて、暫定背景情報の画素数を入力映像の画素数に合わせるよう増加させるリサイズ処理を行って暫定背景情報を作成することも可能である。 In the present embodiment, the case has been described where the input video resizing process is performed in step S208 in order to perform the object detection process using the provisional background information extracted in step S205. However, instead of the resizing process of the input video, it is also possible to create the temporary background information by performing a resizing process that increases the number of pixels of the provisional background information so as to match the number of pixels of the input picture.
次に、本発明の実施例2について説明する。図3のフローチャートには、広角側へのズーミング(ズームアウト)に伴ってCPU105および映像処理部106により行われる処理を示している。 Next, Example 2 of the present invention will be described. The flowchart of FIG. 3 shows processing performed by the CPU 105 and the video processing unit 106 in association with zooming (zoom out) to the wide angle side.
ズームイン処理が行われる場合について説明した実施例1では、ズームイン処理後の撮像範囲がズームイン処理前の撮像範囲の一部として包含される。このため、ズームイン処理前の背景情報(変更前背景情報)の中からその一部としての暫定背景情報を抽出し、ズームイン処理後の撮像により生成された入力映像に対してリサイズ処理を行う。 In the first embodiment that describes the case where the zoom-in process is performed, the imaging range after the zoom-in process is included as a part of the imaging range before the zoom-in process. Therefore, provisional background information is extracted as part of background information before zoom-in processing (pre-change background information), and resize processing is performed on the input video generated by imaging after zoom-in processing.
これに対して、ズームアウト処理を行う本実施例では、ズームアウト処理前の撮像範囲がズームアウト処理後の撮像範囲の一部として包含される。このため、ズームアウト処理前の背景情報(変更前背景情報)をリサイズ処理して暫定背景情報を作成する。 In contrast, in this embodiment in which zoom-out processing is performed, the imaging range before zoom-out processing is included as part of the imaging range after zoom-out processing. For this reason, the background information before zoom-out processing (background information before change) is resized to create provisional background information.
CPU105および映像処理部106は、カメラに搭載されたコンピュータとして、記録媒体108に保持されたコンピュータプログラムである制御プログラムに従って以下の処理を実行する。 The CPU 105 and the video processing unit 106 execute the following processing according to a control program that is a computer program held in the recording medium 108 as a computer mounted on the camera.
ステップS301において、CPU105は外部からの広角側へのズーミングの指示に応じてズームアウト処理を開始する。そして、ステップS302にてズームアウト処理が完了すると、CPU105はステップS303に移行する。 In step S301, the CPU 105 starts zoom-out processing in response to an external zooming instruction to the wide angle side. When the zoom-out process is completed in step S302, the CPU 105 proceeds to step S303.
ステップS303では、映像処理部106は、ズームアウト処理によって撮像範囲が変更されたことに応じて、背景情報(新規背景情報)の作成し直し処理を開始する。このとき、映像処理部106は、SDRAM110に保存されているズーム処理前の背景情報(変更前背景情報)を上書きせずに残しておき、SDRAM110上に新規の領域を確保して新しい撮像範囲に対応する新規背景情報の作成を開始する。 In step S <b> 303, the video processing unit 106 starts a process for recreating background information (new background information) in response to the change of the imaging range by the zoom-out process. At this time, the video processing unit 106 keeps the background information before zoom processing (pre-change background information) stored in the SDRAM 110 without overwriting, and secures a new area on the SDRAM 110 to create a new imaging range. Start creating corresponding new background information.
次に、ステップS304では、映像処理部106は、ズームアウト処理による撮像範囲の変更前と変更後に生成された映像(基準映像)のうち共通領域を抽出する処理を行う。図5(B)の左側にはズームアウト処理前における撮像範囲に対応した映像を示しており、右側にはズームアウト処理後における撮像範囲に対応した映像を示している。ズームアウト処理後の映像は、ズームアウト処理前の映像の全体を包含した、より広い撮像範囲の映像となる。このため、ズームアウト処理後の映像から、ズームアウト処理前の映像との共通領域を抽出することが可能となる。 Next, in step S304, the video processing unit 106 performs a process of extracting a common area from videos (reference videos) generated before and after the change of the imaging range by the zoom-out process. The left side of FIG. 5B shows an image corresponding to the imaging range before the zoom-out process, and the right side shows an image corresponding to the imaging range after the zoom-out process. The video after the zoom-out process is a video with a wider imaging range including the entire video before the zoom-out process. For this reason, it is possible to extract a common area with the video before zoom-out processing from the video after zoom-out processing.
図5(B)の右図において点線で示す領域は、左図に示す映像との共通領域を示している。共通領域は、右図の映像の画素数を1280×1024画素とし、撮像範囲の変化率を20%(ただし、水平方向)とすると、
(1280×1024画素)×(水平100−20%)=1024×768画素
の領域と推定される。
A region indicated by a dotted line in the right diagram of FIG. 5B indicates a common region with the video illustrated in the left diagram. In the common area, the number of pixels of the video in the right figure is 1280 × 1024 pixels, and the change rate of the imaging range is 20% (however, in the horizontal direction)
It is estimated that (1280 × 1024 pixels) × (horizontal 100−20%) = 1024 × 768 pixels.
次に、ステップS305では、映像処理部106は、先のステップS303においてSDRAM110に保存したまま残しておいた変更前背景情報の画素数を、ステップS304にて求めた共通領域の画素数に合わせるように減少させるリサイズ処理を行う。具体的には、変更前背景情報を、その画素数がステップS304で算出した共通領域の画素数に一致するように圧縮する処理を行う。 Next, in step S305, the video processing unit 106 matches the number of pixels of the background information before the change stored in the SDRAM 110 in the previous step S303 with the number of pixels in the common area obtained in step S304. Resize processing to reduce to Specifically, a process of compressing the background information before change so that the number of pixels matches the number of pixels in the common area calculated in step S304 is performed.
次に、ステップS306では、映像処理部106は、ステップS303で開始したズームアウト処理後の撮像範囲に対応した新規背景情報の作成し直し処理が完了したか否かを判定する。該作成し直し処理がまだ完了しておらず継続中であると判定した場合には、ステップS307に移行する。 Next, in step S306, the video processing unit 106 determines whether the new background information re-creation process corresponding to the imaging range after the zoom-out process started in step S303 has been completed. If it is determined that the re-creation process has not yet been completed and is continuing, the process proceeds to step S307.
ステップS307では、映像処理部106は、物体検出処理の対象となる入力映像(ズームアウト処理後の撮像により生成された映像)を取得し、該入力映像のデータをSDRAM110上に展開する。 In step S <b> 307, the video processing unit 106 acquires an input video (video generated by imaging after zoom-out processing) to be subjected to object detection processing, and develops the input video data on the SDRAM 110.
次に、ステップS308では、映像処理部106は、取得した入力映像のうち共通領域に相当する映像部分(以下、入力部分映像という)を抽出する。 Next, in step S308, the video processing unit 106 extracts a video portion corresponding to the common area (hereinafter referred to as an input partial video) from the acquired input video.
そして、ステップS309では、映像処理部106は、ステップS305でリサイズ処理した暫定背景情報とステップS308で抽出した入力部分映像との間で物体検出処理としての背景差分処理を実行する。これにより、映像処理部106は、暫定背景情報と入力部分映像との差分を物体情報として検出する。 In step S309, the video processing unit 106 performs background difference processing as object detection processing between the provisional background information resized in step S305 and the input partial video extracted in step S308. Thereby, the video processing unit 106 detects the difference between the provisional background information and the input partial video as object information.
ステップS310以降の処理は、実施例1におけるステップS210以降の処理と同様である。 The processing after step S310 is the same as the processing after step S210 in the first embodiment.
以上説明したように、本実施例でも、ズームアウト処理によって必要となる新規背景情報を作成する処理中においても、ズームアウト処理前に作成された変更前背景情報を用いて、ズームアウト処理後の入力画像に対する物体検出処理を行うことができる。これにより、ズームアウト処理によって撮像範囲が任意に変更された場合でも、物体情報の検出ができなくなる期間をほとんど発生させることなく物体情報の検出を行うことができる。 As described above, even in the present embodiment, even during the process of creating new background information required by the zoom-out process, the pre-change background information created before the zoom-out process is used. Object detection processing can be performed on the input image. Thereby, even when the imaging range is arbitrarily changed by the zoom-out process, the object information can be detected with almost no period during which the object information cannot be detected.
なお、本実施例では、ステップS305においてリサイズ処理した暫定背景情報を用いて物体検出処理を行うために、ステップS308にて入力映像のうち共通領域に相当する部分を抽出する場合について説明した。しかし、暫定背景情報のリサイズ処理に代えて、入力映像の画素数を変更前背景情報(暫定背景情報)の画素数に合わせるよう増加させるリサイズ処理を行うことも可能である。 In the present embodiment, a case has been described in which the portion corresponding to the common area is extracted from the input video in step S308 in order to perform the object detection process using the temporary background information resized in step S305. However, instead of the resize process of the provisional background information, it is also possible to perform a resize process that increases the number of pixels of the input video so as to match the number of pixels of the pre-change background information (provisional background information).
次に、本発明の実施例3について説明する。図4のフローチャートには、パンニング(水平方向への撮像範囲の回動)とチルティング(垂直方向への撮像範囲の回動)に伴ってCPU105および映像処理部106により行われる処理を示している。 Next, Embodiment 3 of the present invention will be described. The flowchart of FIG. 4 illustrates processing performed by the CPU 105 and the video processing unit 106 in association with panning (rotation of the imaging range in the horizontal direction) and tilting (rotation of the imaging range in the vertical direction). .
パンニング/チルティング処理を行う本実施例では、ズームイン/ズームアウト処理を行う実施例1,2とは異なり、該処理の前後で一方の撮像範囲の映像が他方の撮像範囲の映像全体を包含しているという関係はない。このため、本実施例では、映像処理部106は、パンニング/チルティング処理(以下、パン/チルト処理という)の前後の映像中に共通領域が存在するか否かを判定する処理を行う。図5(C)には、パン/チルト処理が行われた際の撮像範囲の変化とその変化の前後での撮像範囲における共通領域を示している。このような共通領域がある場合は、パン/チルト処理前に作成されて保持されていた変更前背景情報から抽出する処理が行われる。 In this embodiment in which panning / tilting processing is performed, unlike in Embodiments 1 and 2 in which zoom-in / zoom-out processing is performed, an image in one imaging range includes the entire image in the other imaging range before and after the processing. There is no relationship. For this reason, in this embodiment, the video processing unit 106 performs processing to determine whether or not a common area exists in the video before and after panning / tilting processing (hereinafter referred to as pan / tilt processing). FIG. 5C shows a change in the imaging range when pan / tilt processing is performed and a common area in the imaging range before and after the change. When there is such a common area, a process of extracting from the pre-change background information created and held before the pan / tilt process is performed.
CPU105および映像処理部106は、カメラに搭載されたコンピュータとして、記録媒体108に保持されたコンピュータプログラムである制御プログラムに従って以下の処理を実行する。 The CPU 105 and the video processing unit 106 execute the following processing according to a control program that is a computer program held in the recording medium 108 as a computer mounted on the camera.
ステップS401において、CPU105は外部からのパンニングまたはチルティングの指示に応じてパン/チルト処理を開始する。そして、ステップS402にてパン/チルト処理が完了すると、CPU105はステップS403に移行する。 In step S401, the CPU 105 starts pan / tilt processing in response to an external panning or tilting instruction. When the pan / tilt process is completed in step S402, the CPU 105 proceeds to step S403.
ステップS403では、映像処理部106は、パン/チルト処理によって撮像範囲が変更されたことに応じて、背景情報(新規背景情報)の作成し直し処理を開始する。このとき、映像処理部106は、SDRAM110に保存されているズーム処理前の背景情報(変更前背景情報)を上書きせずに残しておき、SDRAM110上に新規の領域を確保して新しい撮像範囲に対応する新規背景情報の作成を開始する。 In step S403, the video processing unit 106 starts a process of recreating background information (new background information) in response to the change of the imaging range by the pan / tilt process. At this time, the video processing unit 106 keeps the background information before zoom processing (pre-change background information) stored in the SDRAM 110 without overwriting, and secures a new area on the SDRAM 110 to create a new imaging range. Start creating corresponding new background information.
次に、ステップS404では、映像処理部106は、パン/チルト処理による撮像範囲の変更前と変更後に生成された映像(基準映像)に共通領域が存在するか否かを判定する。共通領域が存在する場合はステップS405に移行し、存在しない場合はステップS415に移行する。 Next, in step S404, the video processing unit 106 determines whether there is a common area in the video (reference video) generated before and after the change of the imaging range by the pan / tilt process. If the common area exists, the process proceeds to step S405, and if not, the process proceeds to step S415.
ステップS405では、映像処理部106は、先のステップS403においてSDRAM110に保存したまま残しておいた変更前背景情報から上記共通領域に対応する部分を抽出し、これを暫定背景情報とする。 In step S405, the video processing unit 106 extracts a portion corresponding to the common area from the pre-change background information stored in the SDRAM 110 in the previous step S403, and uses this as provisional background information.
次に、ステップS406では、映像処理部106は、ステップS403で開始したパン/チルト処理後の撮像範囲に対応した新規背景情報の作成し直し処理が完了したか否かを判定する。該作成し直し処理がまだ完了しておらず継続中であると判定した場合には、ステップS407に移行する。 Next, in step S406, the video processing unit 106 determines whether the new background information re-creation process corresponding to the imaging range after the pan / tilt process started in step S403 has been completed. If it is determined that the re-creation process has not yet been completed and is continuing, the process proceeds to step S407.
ステップS407では、映像処理部106は、物体検出処理の対象となる入力映像(パン/チルト処理後の撮像により生成された映像)を取得し、該入力映像のデータをSDRAM110上に展開する。 In step S <b> 407, the video processing unit 106 acquires an input video (video generated by imaging after pan / tilt processing) to be subjected to object detection processing, and develops the input video data on the SDRAM 110.
次に、ステップS408では、映像処理部106は、取得した入力映像のうち共通領域に相当する映像部分(以下、入力部分映像という)を抽出する。 Next, in step S408, the video processing unit 106 extracts a video portion corresponding to a common area (hereinafter referred to as an input partial video) from the acquired input video.
そして、ステップS409では、映像処理部106は、ステップS405で抽出した暫定背景情報とステップS408で抽出した入力部分映像との間で物体検出処理としての背景差分処理を実行する。これにより、映像処理部106は、暫定背景情報と入力部分映像との差分を物体情報として検出する。 In step S409, the video processing unit 106 executes background difference processing as object detection processing between the provisional background information extracted in step S405 and the input partial video extracted in step S408. Thereby, the video processing unit 106 detects the difference between the provisional background information and the input partial video as object information.
ステップS410以降の処理は、実施例1におけるステップS410以降の処理と同様である。ステップS415では、映像処理部106は、ステップS406と同じ判定を行い、新規背景情報の作成し直し処理が完了するのを待ってステップS417(実施例1のステップS216と同じ)に移行する。 The processing after step S410 is the same as the processing after step S410 in the first embodiment. In step S415, the video processing unit 106 performs the same determination as in step S406, waits for the completion of the process for recreating new background information, and then proceeds to step S417 (same as step S216 in the first embodiment).
以上説明したように、本実施例でも、パン/チルト処理によって必要となる新規背景情報を作成する処理中においても、パン/チルト処理前に作成された変更前背景情報を用いて、パン/チルト処理後の入力画像に対する物体検出処理を行うことができる。これにより、パン/チルト処理によって撮像範囲が任意に変更された場合でも、物体情報の検出ができなくなる期間をほとんど発生させることなく物体情報の検出を行うことができる。 As described above, even in this embodiment, even during the process of creating new background information required by the pan / tilt process, the pan / tilt is performed using the pre-change background information created before the pan / tilt process. Object detection processing can be performed on the input image after processing. Thereby, even when the imaging range is arbitrarily changed by the pan / tilt process, the object information can be detected with almost no period during which the object information cannot be detected.
なお、本実施例では、パン/チルト処理の前後の映像に共通領域が存在しないと判定した場合は新規背景情報の作成し直し処理が完了するまで待機する場合について説明した。しかし、共通領域が必ず存在し、しかも共通領域の大きさが、物体検出処理が可能な所定の大きさよりも小さくならないようにパン/チルト処理による撮像範囲の変更を制限する(つまりは、パンニングやチルティングの動作範囲を制限する)ようにしてもよい。この場合、CPU105が撮像範囲変更制限手段として機能する。 In the present embodiment, a case has been described in which, when it is determined that there is no common area in the images before and after the pan / tilt process, the process waits until the new background information re-creation process is completed. However, the change of the imaging range by the pan / tilt process is limited so that the common area always exists and the size of the common area does not become smaller than a predetermined size capable of the object detection process (that is, panning or The operating range of tilting may be limited). In this case, the CPU 105 functions as an imaging range change limiting unit.
さらに、そのようなパン/チルト処理の制限の有効/無効を管理する動作モードを用意してもよい。 Furthermore, an operation mode for managing the validity / invalidity of such pan / tilt process restrictions may be prepared.
また、上記各実施例では、画像処理装置としての映像処理部106が撮像装置に含まれる場合について説明したが、撮像装置とは別のパーソナルコンピュータによって画像処理装置を構成してもよい。この場合の画像処理装置は、撮像装置から有線もしくは無線通信により又は半導体メモリや光ディスク等の記憶媒体を介して画像(映像信号)を取得する。そして、この場合の画像処理プログラムは、図2〜図4に示したフローチャートのうち、映像処理部106が行う処理をパーソナルコンピュータに実行させるものとすればよい。 In each of the above-described embodiments, the case where the image processing unit 106 as the image processing apparatus is included in the imaging apparatus has been described. However, the image processing apparatus may be configured by a personal computer different from the imaging apparatus. In this case, the image processing apparatus acquires an image (video signal) from the imaging apparatus by wired or wireless communication or via a storage medium such as a semiconductor memory or an optical disk. In this case, the image processing program may cause the personal computer to execute the processing performed by the video processing unit 106 in the flowcharts illustrated in FIGS.
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.
撮像範囲が変更されても良好な物体検出処理を行うことが可能な撮像装置や画像処理装置を提供できる。 It is possible to provide an imaging apparatus and an image processing apparatus that can perform good object detection processing even when the imaging range is changed.
100 監視カメラ
105 CPU
106 映像処理部
110 SDRAM
100 surveillance camera 105 CPU
106 Video processing unit 110 SDRAM
Claims (9)
前記撮像装置により生成された基準映像から背景情報を作成する背景情報作成手段と、
前記背景情報と前記撮像装置により生成された入力映像との差分から該入力映像中の物体情報を検出する物体検出手段と、
前記背景情報を保存する記憶手段とを有し、
前記背景情報作成手段は、前記撮像範囲が変更された場合に、該変更後に生成された前記基準映像から新規背景情報を作成し直すとともに、該撮像範囲の変更の前後に生成された前記基準映像のうち共通領域に対応する暫定背景情報を、前記撮像範囲の変更前に作成されて前記記憶手段に保存された変更前背景情報を用いて作成し、
前記物体検出手段は、前記撮像範囲の変更後に生成された前記入力映像中の前記物体情報の検出において、前記新規背景情報の作成が完了するまでは、前記差分として前記暫定背景情報と該入力画像との差分を用いることを特徴とする画像処理装置。 An image processing device that performs processing on a video generated by an imaging device that captures an object scene within an imaging range,
Background information creating means for creating background information from a reference image generated by the imaging device;
Object detection means for detecting object information in the input video from the difference between the background information and the input video generated by the imaging device;
Storage means for storing the background information,
The background information creation means recreates new background information from the reference video generated after the change when the imaging range is changed, and the reference video generated before and after the change of the imaging range. Provisional background information corresponding to the common area is created using the pre-change background information created before the change of the imaging range and stored in the storage means,
In the detection of the object information in the input video generated after the change of the imaging range, the object detection means detects the provisional background information and the input image as the difference until the creation of the new background information is completed. An image processing apparatus using a difference between the two.
前記物体検出手段は、前記暫定背景情報と前記撮像範囲の変更後に生成された前記入力映像との画素数を合わせるためのリサイズ処理を行った後に前記差分を求めることを特徴とする請求項1に記載の画像処理装置。 When the imaging range is changed by zooming in the imaging device,
The object detection unit obtains the difference after performing a resizing process for adjusting the number of pixels of the provisional background information and the input video generated after the imaging range is changed. The image processing apparatus described.
前記背景情報作成手段は、該変更の前後の前記撮像範囲に共通領域が存在するか否かを判定し、該共通領域が存在する場合に前記暫定背景情報を作成することを特徴とする請求項1に記載の画像処理装置。 When the imaging range is changed by panning or tilting in the imaging device,
The background information creating means determines whether or not a common area exists in the imaging range before and after the change, and creates the provisional background information when the common area exists. The image processing apparatus according to 1.
前記共通領域の大きさが所定の大きさよりも小さくならないように前記撮像範囲の変更を制限することを特徴とする撮像範囲変更制限手段を有することを特徴とする請求項1に記載の画像処理装置。 In the case where the imaging range is changed by panning or tilting in the imaging device,
2. The image processing apparatus according to claim 1, further comprising an imaging range change limiting unit that limits the change of the imaging range so that the size of the common area does not become smaller than a predetermined size. .
前記入力画像中の前記物体としての動体および不動体を検出する動体/不動体検出処理を行い、
前記動体/不動体検出処理が完了する前に前記新規背景情報の作成が完了した場合でも、該動体/不動体検出処理が完了してから該新規背景情報を用いた前記物体情報の検出を開始することを特徴とする請求項1から6のいずれか一項に記載の画像処理装置。 The object detection means includes
A moving object / unmoving object detection process for detecting a moving object and an unmoving object as the object in the input image;
Even if the creation of the new background information is completed before the moving object / unmoving object detection process is completed, the detection of the object information using the new background information is started after the moving object / unmoving object detection process is completed. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記撮像範囲を変更する撮像範囲変更手段と、
請求項1から7のいずれか一項に記載の画像処理装置とを有することを特徴とする撮像装置。 An imaging means for imaging an object scene within an imaging range;
Imaging range changing means for changing the imaging range;
An imaging apparatus comprising: the image processing apparatus according to claim 1.
前記コンピュータに、
前記撮像装置により生成された基準映像から背景情報を作成する背景情報作成処理と、
前記背景情報と前記撮像装置により生成された入力映像との差分から該入力映像中の物体情報を検出する物体検出処理と、
前記背景情報を記憶手段に保存する処理とを行わせ、
前記背景情報作成処理では、前記撮像範囲が変更された場合に、該変更後に生成された前記基準映像から新規背景情報を作成し直させるとともに、該撮像範囲の変更の前後に生成された前記基準映像のうち共通領域に対応する暫定背景情報を、前記撮像範囲の変更前に作成されて前記記憶手段に保存された変更前背景情報を用いて作成させ、
前記撮像範囲の変更後に生成された前記入力映像に対する前記物体検出処理では、前記新規背景情報の作成が完了するまでは、前記差分として前記暫定背景情報と該入力画像との差分を用いて前記物体情報を検出させることを特徴とする画像処理プログラム。 An image processing program as a computer program that causes a computer to execute processing on an image generated by an imaging device that images an object scene within an imaging range,
In the computer,
Background information creation processing for creating background information from the reference video generated by the imaging device;
Object detection processing for detecting object information in the input video from the difference between the background information and the input video generated by the imaging device;
Processing to save the background information in a storage means,
In the background information creation process, when the imaging range is changed, new background information is created again from the reference video generated after the change, and the reference generated before and after the change of the imaging range is performed. Provisional background information corresponding to a common area of the video is created using the pre-change background information created before the change of the imaging range and stored in the storage means,
In the object detection process for the input video generated after the change of the imaging range, the object is obtained using the difference between the provisional background information and the input image as the difference until the creation of the new background information is completed. An image processing program for detecting information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013010436A JP2014143551A (en) | 2013-01-23 | 2013-01-23 | Image processing apparatus, imaging apparatus, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013010436A JP2014143551A (en) | 2013-01-23 | 2013-01-23 | Image processing apparatus, imaging apparatus, and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014143551A true JP2014143551A (en) | 2014-08-07 |
Family
ID=51424528
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013010436A Pending JP2014143551A (en) | 2013-01-23 | 2013-01-23 | Image processing apparatus, imaging apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014143551A (en) |
-
2013
- 2013-01-23 JP JP2013010436A patent/JP2014143551A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5906028B2 (en) | Image processing apparatus and image processing method | |
JP4539729B2 (en) | Image processing apparatus, camera apparatus, image processing method, and program | |
TWI375181B (en) | Image processing apparatus, image processing method, program for image processing method, and recording medium which records program for image processing method | |
CN110035228B (en) | Camera anti-shake system, camera anti-shake method, electronic device, and computer-readable storage medium | |
US9538085B2 (en) | Method of providing panoramic image and imaging device thereof | |
CN109218663B (en) | Image processing apparatus, image processing method, and storage medium | |
US20160142680A1 (en) | Image processing apparatus, image processing method, and storage medium | |
KR102471595B1 (en) | Optical image stabilization movements to create super-resolution images of the scene | |
KR101441786B1 (en) | Subject determination apparatus, subject determination method and recording medium storing program thereof | |
JP6652039B2 (en) | Imaging device, imaging method, and program | |
JP2007281555A (en) | Imaging apparatus | |
KR20160044945A (en) | Image photographing appratus | |
US8334919B2 (en) | Apparatus and method for digital photographing to correct subject area distortion caused by a lens | |
US9363440B2 (en) | Imaging device and imaging method that sets a phase difference between first and second synchronization signals | |
JP5247338B2 (en) | Image processing apparatus and image processing method | |
KR102592745B1 (en) | Posture estimating apparatus, posture estimating method and computer program stored in recording medium | |
KR20150146424A (en) | Method for determining estimated depth in an image and system thereof | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
JP7025237B2 (en) | Image processing equipment and its control method and program | |
JP2014143551A (en) | Image processing apparatus, imaging apparatus, and image processing program | |
KR101204093B1 (en) | Image processing apparatus and controlling method of the same | |
JP2009071517A (en) | Camera system and recording system | |
JP2016129281A (en) | Image processor | |
US20220321784A1 (en) | Imaging element, imaging apparatus, operation method of imaging element, and program | |
JP2009130840A (en) | Imaging apparatus, control method thereof ,and program |