JP2014158118A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2014158118A
JP2014158118A JP2013027216A JP2013027216A JP2014158118A JP 2014158118 A JP2014158118 A JP 2014158118A JP 2013027216 A JP2013027216 A JP 2013027216A JP 2013027216 A JP2013027216 A JP 2013027216A JP 2014158118 A JP2014158118 A JP 2014158118A
Authority
JP
Japan
Prior art keywords
image
reference image
distance information
holding
background image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013027216A
Other languages
Japanese (ja)
Inventor
Yoshinori Hayashi
良典 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013027216A priority Critical patent/JP2014158118A/en
Publication of JP2014158118A publication Critical patent/JP2014158118A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device and a method of controlling the same, capable of generating a still picture obtained by removing a moving object from a photographed image.SOLUTION: An imaging device generating a background image obtained by removing a moving object from a photographed image, comprises: image holding means holding a standard image, and a reference image photographed at a different timing from the standard image; distance information holding means holding distance information on the standard image and the reference image; background image generation means generating the background image from the standard image and the reference image by using the distance information on the standard image and the distance information on the reference image; difference information generation means generating difference information from the reference image and the background image; adjacent region detection means detecting whether or not a region obtained from the difference information and a region updated by the background image generation means are adjacent to each other; and background image update means updating a region detected by the adjacent region detection means, of the background image by the reference image.

Description

本発明は、撮像装置に関し、特に複数画像から移動物体を除去した画像を生成する撮像装置及び撮像装置の制御方法に関するものである。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that generates an image obtained by removing a moving object from a plurality of images and a control method for the imaging apparatus.

デジタルカメラを用いて風景や建物等の静止画像を撮影する際に、人や車両などの不要な移動物体が写りこんでしまう場合がある。特に、人や車両などの交通量が多い撮影環境下では、移動物体が写りこまないように静止画像を撮影することは非常に困難である。   When taking a still image of a landscape or a building using a digital camera, an unnecessary moving object such as a person or a vehicle may be reflected. In particular, in a shooting environment where there is a large amount of traffic such as a person or a vehicle, it is very difficult to capture a still image so that a moving object does not appear.

この問題を解決するために、特許文献1及び特許文献2のような方法が開示されている。   In order to solve this problem, methods such as Patent Document 1 and Patent Document 2 are disclosed.

特開2002−288674号公報JP 2002-288664 A 特開2011−182341号公報JP 2011-182341 A

特許文献1で開示されている技術としては、同一アングルで連続撮影した少なくとも3枚以上の静止画像を複数の分割領域に分割し、分割領域単位で各静止画像間の分割領域の相関を判定する。そして、分割領域毎に相関度の高い分割画像を合成して一枚の静止画像を作成するものである。   As a technique disclosed in Patent Document 1, at least three or more still images continuously shot at the same angle are divided into a plurality of divided regions, and the correlation of the divided regions between the still images is determined in divided region units. . Then, one still image is created by synthesizing divided images having a high degree of correlation for each divided region.

特許文献2で開示されている技術としては、同一アングルで連続撮影した2枚の静止画像の複数領域における被写体までの距離情報を取得し、複数領域単位で各静止画像間の距離情報を比較する。そして、距離が遠い領域を検出し、その検出した領域を更新して一枚の静止画像を生成するものである。   As a technique disclosed in Patent Document 2, distance information to a subject in a plurality of regions of two still images continuously shot at the same angle is acquired, and distance information between the still images is compared in units of a plurality of regions. . Then, an area with a long distance is detected, and the detected area is updated to generate a single still image.

しかしながら、特許文献1では3枚以上の静止画が必要であり、画像を保持するメモリもその分多く必要である。特許文献2では、静止画は2枚で良いのだが、撮影した静止画像に被写体の影がある場合、カメラから影の距離とカメラから背景までの距離が同一であるため、上記の検出方法では検出できないという課題があった。   However, in Patent Document 1, three or more still images are required, and more memory is required to hold the images. In Patent Document 2, two still images are sufficient. However, when the captured still image has a shadow of a subject, the distance from the camera to the shadow is the same as the distance from the camera to the background. There was a problem that it could not be detected.

例えば、図2に示すように、図2(a)と図2(b)の2枚の静止画像から距離情報だけを用いて移動物体の除去を行うと、図3に示すように、人物の影が残ってしまうという課題があった。   For example, as shown in FIG. 2, when a moving object is removed using only distance information from the two still images shown in FIGS. 2 (a) and 2 (b), as shown in FIG. There was a problem that shadows remained.

そこで、本発明の目的は、2枚の撮影画像から移動物体及び移動物体の影を除去した静止画像を生成することができる撮像装置及び撮像装置の制御方法を提供することである。   Therefore, an object of the present invention is to provide an imaging apparatus and a control method for the imaging apparatus that can generate a still image in which a moving object and a shadow of the moving object are removed from two captured images.

上記目的を達成するために、本発明は、
撮影画像から移動物体を除去した背景画像を生成する撮像装置において、
被写体を撮像して、撮影画像データを出力する撮像手段と、
前記撮影画像データを基準画像として保持する基準画像保持手段と、
前記基準画像と異なる時刻に撮影された前記撮影画像データを参照画像として保持する参照画像保持手段と、
前記基準画像内の被写体までの距離を基準画像被写体別距離情報として保持する基準画像距離情報保持手段と、
前記参照画像内の被写体までの距離を参照画像被写体別距離情報として保持する参照画像距離情報保持手段と、
前記基準画像被写体別距離情報と前記参照画像被写体別距離情報を用いて前記基準画像と前記参照画像から背景画像を生成する背景画像生成手段と、
前記参照画像と前記背景画像から差分情報を生成する差分情報生成手段と、
前記差分情報から得られる領域と前記背景画像生成手段で更新した領域が隣接しているか否か検出する隣接領域検出手段と、
前記背景画像の前記隣接領域検出手段で検出した領域を前記参照画像で更新する背景画像更新手段と、
を有することを特徴とする。
In order to achieve the above object, the present invention provides:
In an imaging device that generates a background image in which a moving object is removed from a captured image,
Imaging means for imaging a subject and outputting captured image data;
Reference image holding means for holding the captured image data as a reference image;
Reference image holding means for holding the captured image data captured at a time different from the reference image as a reference image;
Reference image distance information holding means for holding the distance to the subject in the reference image as reference image subject distance information;
Reference image distance information holding means for holding the distance to the subject in the reference image as reference image subject-specific distance information;
Background image generating means for generating a background image from the reference image and the reference image using the reference image subject distance information and the reference image subject distance information;
Difference information generating means for generating difference information from the reference image and the background image;
An adjacent region detection unit that detects whether the region obtained from the difference information and the region updated by the background image generation unit are adjacent to each other;
Background image update means for updating the area detected by the adjacent area detection means of the background image with the reference image;
It is characterized by having.

本発明によれば、撮像装置に関し、特に複数画像から移動物体を除去した画像を生成することができる撮像装置及び撮像装置の制御方法を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus capable of generating an image obtained by removing a moving object from a plurality of images and a control method for the imaging apparatus.

本発明の実施形態における撮像装置101の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus 101 according to an embodiment of the present invention. 本発明の実施形態における基準画像、参照画像、基準画像距離情報、参照画像距離情報を説明するための図である。It is a figure for demonstrating the standard image in the embodiment of this invention, a reference image, standard image distance information, and reference image distance information. 本発明の実施形態における背景画像生成処理を説明するための図である。It is a figure for demonstrating the background image generation process in embodiment of this invention. 本発明の実施形態における背景画像更新処理を説明するための図である。It is a figure for demonstrating the background image update process in embodiment of this invention. 本発明の実施形態における背景画像生成処理及び背景画像更新処理の一部を示すフローチャートである。It is a flowchart which shows a part of background image generation process and background image update process in the embodiment of the present invention. 本発明の実施形態における背景画像生成処理及び背景画像更新処理の一部を示すフローチャートである。It is a flowchart which shows a part of background image generation process and background image update process in the embodiment of the present invention. 本発明の実施形態における背景画像生成処理及び背景画像更新処理が終了したか否かを判定するための判定処理を示すフローチャートである。It is a flowchart which shows the determination process for determining whether the background image generation process and background image update process in embodiment of this invention were complete | finished.

以下に、本発明の好ましい実施の形態を、送付の図面に基づいて詳細に説明する。   Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

[実施例1]
以下、図1を参照して、本発明の実施形態における撮像装置について説明する。
[Example 1]
Hereinafter, an imaging apparatus according to an embodiment of the present invention will be described with reference to FIG.

101は撮像装置である。102は入力画像である。103は距離情報である。104は撮像部である。105は基準画像保持部である。106は参照画像保持部である。107は基準画像距離情報保持部である。108は参照画像距離情報保持部である。109は背景画像生成部である。110は差分情報生成部である。111は隣接領域検出部である。112は背景画像更新部である。113は出力画像である。   Reference numeral 101 denotes an imaging apparatus. Reference numeral 102 denotes an input image. 103 is distance information. Reference numeral 104 denotes an imaging unit. Reference numeral 105 denotes a reference image holding unit. Reference numeral 106 denotes a reference image holding unit. Reference numeral 107 denotes a reference image distance information holding unit. Reference numeral 108 denotes a reference image distance information holding unit. Reference numeral 109 denotes a background image generation unit. Reference numeral 110 denotes a difference information generation unit. Reference numeral 111 denotes an adjacent region detection unit. Reference numeral 112 denotes a background image update unit. Reference numeral 113 denotes an output image.

次に、図1に示すブロック図の動作について説明を行う。   Next, the operation of the block diagram shown in FIG. 1 will be described.

撮像部104は、入力画像102を入力して撮影画像データを出力する。   The imaging unit 104 inputs the input image 102 and outputs captured image data.

基準画像保持部105は、撮像部104から撮影画像データを入力され、入力された撮影画像データを基準画像データとして保持するバッファメモリである。   The reference image holding unit 105 is a buffer memory that receives captured image data from the imaging unit 104 and holds the input captured image data as reference image data.

また、参照画像保持部106も同様に、撮像部104から撮影画像データを入力され、入力された撮影画像データを参照画像データとして保持するバッファメモリである。   Similarly, the reference image storage unit 106 is a buffer memory that receives captured image data from the imaging unit 104 and stores the input captured image data as reference image data.

基準画像距離情報保持部107は、距離情報103を入力し、また基準画像保持部105から入力された基準画像データに対応する距離情報を基準画像距離情報として保持するバッファメモリである。   The reference image distance information holding unit 107 is a buffer memory that receives the distance information 103 and holds distance information corresponding to the reference image data input from the reference image holding unit 105 as reference image distance information.

参照画像距離情報保持部108は、距離情報103を入力し、また参照画像保持部106から入力された参照画像データに対応する距離情報を参照画像距離情報として保持するバッファメモリである。   The reference image distance information holding unit 108 is a buffer memory that receives the distance information 103 and holds distance information corresponding to the reference image data input from the reference image holding unit 106 as reference image distance information.

背景画像生成部109は、基準画像データと参照画像データと基準画像距離情報と参照画像距離情報とを用いることによって、参照画像データの方が遠い領域を検出する。   The background image generation unit 109 detects a region where the reference image data is farther by using the standard image data, the reference image data, the standard image distance information, and the reference image distance information.

その検出された領域については基準画像データを参照画像データによって更新して、撮影画像データから移動物体を除去した背景画像を生成する。   For the detected area, the base image data is updated with the reference image data, and a background image is generated by removing the moving object from the captured image data.

差分情報生成部110は、参照画像データと背景画像生成部109で生成した背景画像との差分情報を生成する。   The difference information generation unit 110 generates difference information between the reference image data and the background image generated by the background image generation unit 109.

隣接画像検出部111は、差分情報生成部110で得られた領域と背景画像生成部109で更新した領域が隣接しているか否かを検出する。   The adjacent image detection unit 111 detects whether the region obtained by the difference information generation unit 110 and the region updated by the background image generation unit 109 are adjacent to each other.

背景画像更新部112は、背景画像の隣接領域検出部111で検出した領域を参照画像データで更新する。   The background image update unit 112 updates the area detected by the adjacent area detection unit 111 of the background image with reference image data.

この結果、背景画像生成部109で生成した画像データから移動物体を除去した背景画像を生成して、出力画像113として出力する。   As a result, a background image obtained by removing the moving object from the image data generated by the background image generation unit 109 is generated and output as the output image 113.

続いて、図2を参照して、本発明の実施形態における基準画像、参照画像、基準画像距離情報及び参照画像距離情報について説明を行う。   Next, with reference to FIG. 2, the standard image, the reference image, the standard image distance information, and the reference image distance information in the embodiment of the present invention will be described.

図2(a)は、本実施形態における基準画像201を示すものである。この基準画像201は、道路202と箱203を撮影したものであるが、人物204と人物の影205が写りこんでしまっている。   FIG. 2A shows a reference image 201 in the present embodiment. This reference image 201 is an image of a road 202 and a box 203, but a person 204 and a person's shadow 205 are captured.

図2(b)は、本実施形態における参照画像207を示すものであり、参照画像207は基準画像201と同一アングル及び異なる時刻に撮影されたものとする。   FIG. 2B shows a reference image 207 in the present embodiment, and the reference image 207 is taken at the same angle and at a different time as the standard image 201.

この参照画像207は、道路202と箱203を撮影したものであって人物204と人物の影205が写りこんでいる点で基準画像201と同様だが、人物204と人物の影205の位置が異なっている。   The reference image 207 is the same as the reference image 201 in that the person 204 and the person's shadow 205 are reflected in a photograph of the road 202 and the box 203, but the positions of the person 204 and the person's shadow 205 are different. ing.

図2(c)は、図2(a)における破線の矩形枠206で囲まれた領域を拡大したものである。   FIG. 2C is an enlarged view of the area surrounded by the dashed rectangular frame 206 in FIG.

図2(d)は、図2(b)における破線の矩形枠208で囲まれた領域を拡大したものである。   FIG. 2D is an enlarged view of a region surrounded by a broken-line rectangular frame 208 in FIG.

図2(e)は、図2(c)における距離情報を示すものである。また、図2(e)における各セルは1画素に対応しており、セル内の数値は被写体までの距離を示すパラメータである。   FIG. 2 (e) shows the distance information in FIG. 2 (c). Each cell in FIG. 2E corresponds to one pixel, and the numerical value in the cell is a parameter indicating the distance to the subject.

なお、距離情報は、被写体までの距離が近くなるに従って数値が小さくなり、被写体までの距離が遠くなるに従って数値が大きくなるものである。   The distance information is such that the numerical value decreases as the distance to the subject decreases, and the numerical value increases as the distance to the subject increases.

例えば、図2(e)における「80」のセルは道路202までの距離を示すものであり、「40」のセルは撮像装置101に対して道路202よりも近くに位置している人物204の距離を示すものである。   For example, the cell “80” in FIG. 2E indicates the distance to the road 202, and the cell “40” indicates the person 204 located closer to the imaging apparatus 101 than the road 202. Indicates distance.

また、人物の影205までの距離は、道路202までの距離と同様である。   The distance to the person's shadow 205 is the same as the distance to the road 202.

図2(f)は、図2(d)における距離情報を示すものである。   FIG. 2 (f) shows the distance information in FIG. 2 (d).

また、図2(e)と同様に、図2(f)における各セルは1画素に対応しており、セル内の数値は被写体までの距離を示すパラメータである。   Similarly to FIG. 2E, each cell in FIG. 2F corresponds to one pixel, and the numerical value in the cell is a parameter indicating the distance to the subject.

なお、図3及び図4については、引き続き説明する背景画像生成処理及び背景画像更新処理の中で説明する。   3 and 4 will be described in the background image generation process and the background image update process that will be described later.

続いて、図5〜図7を参照して、撮影画像から移動物体及び移動物体の影を除去した背景画像を生成するための背景画像生成処理及び背景画像更新処理について説明を行う。   Next, a background image generation process and a background image update process for generating a background image in which a moving object and a shadow of the moving object are removed from a captured image will be described with reference to FIGS.

図5におけるステップ501では、撮像装置101の動作モードが背景画像を生成するための背景画像生成モードであるか否かを判定する。   In step 501 in FIG. 5, it is determined whether or not the operation mode of the imaging apparatus 101 is a background image generation mode for generating a background image.

撮像装置1の動作モードが背景画像生成モードであると判定した場合はステップ503に進み、背景画像生成モードではないと判定した場合はステップ502に進む。   If it is determined that the operation mode of the imaging apparatus 1 is the background image generation mode, the process proceeds to step 503. If it is determined that the operation mode is not the background image generation mode, the process proceeds to step 502.

ステップ502では、通常の撮影処理を実行して処理を終了する。   In step 502, normal photographing processing is executed and the processing is terminated.

ステップ503では、撮像装置101のシャッターボタンが押下されたか否か判定する。   In step 503, it is determined whether or not the shutter button of the imaging apparatus 101 has been pressed.

シャッターボタンが押下されたと判定した場合はステップ504に進み、シャッターボタンが押下されていないと判定した場合はステップ501に戻る。   If it is determined that the shutter button has been pressed, the process proceeds to step 504. If it is determined that the shutter button has not been pressed, the process returns to step 501.

ステップ504では、被写体を撮像して撮影画像データを出力させるように撮像部104を制御する。   In step 504, the imaging unit 104 is controlled so that the subject is imaged and the captured image data is output.

そして、撮像部104から出力された撮影画像データを基準画像データとして基準画像保持部105に保持させる。   Then, the captured image data output from the imaging unit 104 is held in the reference image holding unit 105 as reference image data.

なお、前述の図2(a)は基準画像の例である。   Note that FIG. 2A described above is an example of a reference image.

ステップ505では、ステップ504で撮像された基準画像データに対応する距離情報を基準画像距離情報として基準画像距離情報保持部107に保持させる。   In step 505, the distance information corresponding to the reference image data imaged in step 504 is held in the reference image distance information holding unit 107 as reference image distance information.

なお、前述の図2(e)は基準画像距離情報の例である。   Note that FIG. 2E is an example of the reference image distance information.

図6におけるステップ601では、背景画像生成処理が終了したか否かを判定するための背景画像生成終了判定処理を実行する。   In step 601 in FIG. 6, a background image generation end determination process for determining whether or not the background image generation process has ended is executed.

この処理の内容は、図7に示すフローチャートを用いて後述する。   The contents of this processing will be described later using the flowchart shown in FIG.

ステップ602では、ステップ601の背景画像生成終了判定処理の結果、背景画像生成処理が終了したと判定された場合は、処理を終了する。   In step 602, if it is determined that the background image generation process has ended as a result of the background image generation end determination process in step 601, the process ends.

一方、ステップ602の背景画像生成終了判定処理の結果、背景画像生成処理が終了していないと判定された場合は、ステップ603に処理を進める。   On the other hand, if it is determined that the background image generation process has not ended as a result of the background image generation end determination process in step 602, the process proceeds to step 603.

ステップ603では、新たに被写体を撮像して撮影画像データを出力させるように撮像部104を制御する。   In step 603, the imaging unit 104 is controlled so that a new subject is imaged and the captured image data is output.

そして、撮像部104から出力された撮影画像データを参照画像データとして参照画像保持部106に保持させる。   The captured image data output from the imaging unit 104 is stored in the reference image storage unit 106 as reference image data.

なお、前述の図2(b)は参照画像の例である。   Note that FIG. 2B described above is an example of a reference image.

ステップ604では、ステップ603で撮像された参照画像データに対応する距離情報を参照画像距離情報として参照画像距離情報保持部108に保持させる。
なお、前述の図2(f)は参照画像距離情報の例である。
In step 604, the distance information corresponding to the reference image data imaged in step 603 is held in the reference image distance information holding unit 108 as reference image distance information.
Note that FIG. 2F described above is an example of reference image distance information.

ステップ605では、基準画像距離情報と参照画像距離情報とを比較し、基準画像データに含まれる領域の中から、参照画像データの方が距離が遠い領域を検出する。   In step 605, the reference image distance information is compared with the reference image distance information, and an area that is farther from the reference image data is detected from the areas included in the reference image data.

具体的には、まず、基準画像データ及び参照画像データを複数の領域に分割する。   Specifically, first, the base image data and the reference image data are divided into a plurality of areas.

そして、分割した領域のうち位置が同じ領域について、基準画像距離情報の数値と参照画像距離情報の数値とを比較し、参照画像距離情報の数値が基準画像距離情報の数値よりも大きい場合に、当該領域を参照画像データの方が距離が遠い領域として検出する。   Then, for the region having the same position among the divided regions, the numerical value of the standard image distance information and the numerical value of the reference image distance information are compared, and when the numerical value of the reference image distance information is larger than the numerical value of the standard image distance information, The area is detected as an area where the distance of the reference image data is longer.

ステップ606では、ステップ605で検出した結果、参照画像データの方が遠い領域が検出された場合は、ステップ607に処理を進み、参照画像データの方が遠い領域が検出されない場合は、ステップ601に戻る。   In step 606, if a region far from the reference image data is detected as a result of detection in step 605, the process proceeds to step 607. If a region far from the reference image data is not detected, the process proceeds to step 601. Return.

ステップ607では、基準画像データのうち、ステップ605で検出された参照画像データの方が遠い領域については、基準画像データを参照画像データで更新するように背景画像生成部109を制御する。   In step 607, the background image generation unit 109 is controlled so that the reference image data is updated with the reference image data for the region of the reference image data farther away from the reference image data detected in step 605.

一方、ステップ605で検出された領域以外の領域については、画像の更新をしない。   On the other hand, the image other than the region detected in step 605 is not updated.

この結果、図3で示すような、移動物体である人物204が除去された画像が得られる。   As a result, an image from which the person 204 as a moving object is removed is obtained as shown in FIG.

ステップ608では、ステップ607で更新した画像データと参照画像データとの差分情報を生成するように差分情報生成部109を制御する。   In step 608, the difference information generation unit 109 is controlled so as to generate difference information between the image data updated in step 607 and the reference image data.

この結果、図4(a)で示すような、画像データが生成される。また、図4(b)は、図4(a)における破線の矩形枠402で囲まれた領域を拡大したものである。   As a result, image data as shown in FIG. 4A is generated. FIG. 4B is an enlarged view of the area surrounded by the dashed rectangular frame 402 in FIG.

ステップ609では、ステップ608で得られた領域とステップ607で更新した領域が隣接しているか否かを判定する。   In step 609, it is determined whether the area obtained in step 608 and the area updated in step 607 are adjacent to each other.

この結果、更新した領域に隣接している場合は、ステップ610に進み、更新した領域に隣接していない場合は、ステップ611に進む。   As a result, if it is adjacent to the updated area, the process proceeds to step 610. If it is not adjacent to the updated area, the process proceeds to step 611.

図4(c)は、図(b)にステップ607で更新した領域405を追加して表示している。ステップ608で得られた領域403は、ステップ607で更新した領域405に隣接している。   FIG. 4C shows the area 405 updated in step 607 added to FIG. The area 403 obtained in step 608 is adjacent to the area 405 updated in step 607.

ステップ610では、ステップ607で更新した画像データを基準画像データとして基準画像保持部105に保持する。   In step 610, the image data updated in step 607 is held in the reference image holding unit 105 as reference image data.

ステップ611では、ステップ608で得られた領域については、ステップ607で更新した画像データを参照画像データで更新するように背景画像更新部112を制御する。
この結果、図4(d)で示すような、画像データが生成される。
In step 611, for the region obtained in step 608, the background image update unit 112 is controlled so that the image data updated in step 607 is updated with reference image data.
As a result, image data as shown in FIG. 4D is generated.

ステップ612では、ステップ611で更新した画像データを基準画像データとして基準画像保持部105に保持する。   In step 612, the image data updated in step 611 is held in the reference image holding unit 105 as reference image data.

図7におけるステップ701では、終了判定タイマーが所定値に達したか否かを判定する。
そして、所定値に達したと判定した場合はステップ705に進み、所定値に達していないと判定した場合はステップ702に進む。
In step 701 in FIG. 7, it is determined whether or not the end determination timer has reached a predetermined value.
If it is determined that the predetermined value has been reached, the process proceeds to step 705. If it is determined that the predetermined value has not been reached, the process proceeds to step 702.

ステップ702では、ユーザーによって撮像装置101の決定ボタンが押下されたか否かを判定する。   In step 702, it is determined whether or not the determination button of the imaging apparatus 101 has been pressed by the user.

そして、決定ボタンが押下されたと判定した場合はステップ705に進み、決定ボタンが押下されていないと判定した場合はステップ703に進む。   If it is determined that the enter button has been pressed, the process proceeds to step 705. If it is determined that the enter button has not been pressed, the process proceeds to step 703.

ステップ703では、ユーザーによって撮像装置101のシャッターボタンが押下されたか否かを判定する。   In step 703, it is determined whether or not the user has pressed the shutter button of the imaging apparatus 101.

そして、シャッターボタンが押下されたと判定した場合はステップ706に進み、決定ボタンが押下されていないと判定した場合はステップ704に進む。   If it is determined that the shutter button has been pressed, the process proceeds to step 706. If it is determined that the enter button has not been pressed, the process proceeds to step 704.

ステップ704では、セルフタイマーが所定の時間を経過してタイムアウトしたか否かを判定する。   In step 704, it is determined whether the self-timer has timed out after a predetermined time.

そして、所定の時間を経過してタイムアウトした場合はステップ706に進み、所定の時間を経過していなくタイムアウトしていない場合はステップ701に戻る。   If the predetermined time has elapsed and timed out, the process proceeds to step 706. If the predetermined time has not elapsed and timed out, the process returns to step 701.

ステップ705では、背景画像生成処理が終了したと判定して処理を終了する。   In step 705, it is determined that the background image generation process has ended, and the process ends.

ステップ706では、背景画像生成処理が終了していないと判定して処理を終了する。   In step 706, it is determined that the background image generation process has not ended, and the process ends.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

本発明は、撮像装置に関し、特に複数画像から移動物体を除去した画像を生成する撮像装置及び撮像装置の制御方法に利用可能である。   The present invention relates to an imaging apparatus, and in particular, can be used for an imaging apparatus that generates an image obtained by removing a moving object from a plurality of images and a control method for the imaging apparatus.

101 撮像装置
102 入力画像
103 距離情報
104 撮像部
105 基準画像保持部
106 参照画像保持部
107 基準画像距離情報保持部
108 参照画像距離情報保持部
109 背景画像生成部
110 差分情報生成部
111 隣接領域検出部
112 背景画像更新部
113 出力画像
DESCRIPTION OF SYMBOLS 101 Image pick-up apparatus 102 Input image 103 Distance information 104 Imaging part 105 Standard image holding part 106 Reference image holding part 107 Reference image distance information holding part 108 Reference image distance information holding part 109 Background image generation part 110 Difference information generation part 111 Adjacent area detection Unit 112 background image update unit 113 output image

Claims (9)

撮影画像から移動物体を除去した背景画像を生成する撮像装置において、
被写体を撮像して、撮影画像データを出力する撮像手段と、
前記撮影画像データを基準画像として保持する基準画像保持手段と、
前記基準画像と異なる時刻に撮影された前記撮影画像データを参照画像として保持する参照画像保持手段と、
前記基準画像内の被写体までの距離を基準画像被写体別距離情報として保持する基準画像距離情報保持手段と、
前記参照画像内の被写体までの距離を参照画像被写体別距離情報として保持する参照画像距離情報保持手段と、
前記基準画像被写体別距離情報と前記参照画像被写体別距離情報を用いて前記基準画像と前記参照画像から背景画像を生成する背景画像生成手段と、
前記参照画像と前記背景画像から差分情報を生成する差分情報生成手段と、
前記差分情報から得られる領域と前記背景画像生成手段で更新した領域が隣接しているか否か検出する隣接領域検出手段と、
前記背景画像の前記隣接領域検出手段で検出した領域を前記参照画像で更新する背景画像更新手段と、
を有することを特徴とする撮像装置。
In an imaging device that generates a background image in which a moving object is removed from a captured image,
Imaging means for imaging a subject and outputting captured image data;
Reference image holding means for holding the captured image data as a reference image;
Reference image holding means for holding the captured image data captured at a time different from the reference image as a reference image;
Reference image distance information holding means for holding the distance to the subject in the reference image as reference image subject distance information;
Reference image distance information holding means for holding the distance to the subject in the reference image as reference image subject-specific distance information;
Background image generating means for generating a background image from the reference image and the reference image using the reference image subject distance information and the reference image subject distance information;
Difference information generating means for generating difference information from the reference image and the background image;
An adjacent region detection unit that detects whether the region obtained from the difference information and the region updated by the background image generation unit are adjacent to each other;
Background image update means for updating the area detected by the adjacent area detection means of the background image with the reference image;
An imaging device comprising:
請求項1に記載の撮像装置において
前記背景画像更新手段による処理が終了した後に、処理が終了した画像及び距離情報を基準画像の情報として次処理を実行するために前記基準画像保持手段及び基準画像距離情報保持手段に保持すること
を特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein after the processing by the background image updating unit is completed, the reference image holding unit and the reference image are used to execute the next processing using the processed image and distance information as reference image information. An image pickup apparatus characterized by being held in a distance information holding means.
請求項1に記載の撮像装置において
前記背景画像更新手段による処理が終了した後に、新たな画像を撮像するように前記撮像部を制御し、前記新たな画像及び距離情報を参照画像の情報として次処理を実行するために前記参照画像保持手段及び前記参照画像距離情報保持手段に保持すること
を特徴とする撮像装置。
The imaging apparatus according to claim 1, wherein after the processing by the background image update unit is completed, the imaging unit is controlled to capture a new image, and the new image and distance information are used as reference image information. An image pickup apparatus, wherein the image pickup apparatus is held in the reference image holding unit and the reference image distance information holding unit to execute processing.
請求項1に記載の背景画像生成手段において
前記基準画像距離情報と前記参照画像距離情報とを比較し、前記参照画像の方が遠い領域を検出して、検出された領域については前記基準画像を前記参照画像で更新して背景画像を生成すること
を特徴とする撮像装置。
The background image generation means according to claim 1, wherein the reference image distance information is compared with the reference image distance information, an area farther from the reference image is detected, and the reference image is detected for the detected area. An imaging apparatus, wherein a background image is generated by updating with the reference image.
請求項1に記載の背景画像生成手段、生成手段、背景画像更新手段において
処理を繰り返し実行すること
を特徴とする撮像装置。
The image processing apparatus according to claim 1, wherein the processing is repeatedly executed in the background image generation unit, the generation unit, and the background image update unit.
請求項2または請求項3に記載の撮像装置において
処理を繰り返し実行すること
を特徴とする撮像装置。
The imaging apparatus according to claim 2 or 3, wherein the processing is repeatedly executed.
請求項6または請求項7に記載の撮像装置において
ユーザーからの指示によって前記処理の繰り返し実行を終了すること
を特徴とする撮像装置。
The imaging apparatus according to claim 6 or 7, wherein the repeated execution of the process is terminated by an instruction from a user.
請求項6または請求項7に記載の撮像装置において
所定の時間が経過した場合に前記処理の繰り返し実行を終了すること
を特徴とする撮像装置。
The imaging apparatus according to claim 6 or 7, wherein the repetition of the process is terminated when a predetermined time has elapsed.
撮影画像から移動物体を除去した背景画像を生成する撮像装置の制御方法において、
被写体を撮像して、撮影画像データを出力する撮像ステップと、
前記撮影画像データを基準画像としてメモリに保持する基準画像保持ステップと、
前記基準画像と異なる時刻に撮影された前記撮影画像データを参照画像としてメモリに保持する参照画像保持ステップと、
前記基準画像内の被写体までの距離を基準画像被写体別距離情報としてメモリに保持する基準画像距離情報保持ステップと、
前記参照画像内の被写体までの距離を参照画像被写体別距離情報としてメモリに保持する参照画像距離情報保持ステップと、
前記基準画像被写体別距離情報と前記参照画像被写体別距離情報を用いて前記基準画像と前記参照画像から背景画像を生成する背景画像生成ステップと、
前記参照画像と前記背景画像から差分情報を生成する差分情報生成ステップと、
前記差分情報から得られる領域と前記背景画像生成ステップで更新した領域が隣接しているか否か検出する隣接領域検出ステップと、
前記背景画像の前記隣接領域検出ステップで検出した領域を前記参照画像で更新する背景画像更新ステップと、
を有することを特徴とする撮像装置の制御方法。
In a control method of an imaging apparatus that generates a background image in which a moving object is removed from a captured image,
An imaging step of imaging a subject and outputting captured image data;
A reference image holding step for holding the captured image data in a memory as a reference image;
A reference image holding step of holding the captured image data captured at a time different from the reference image in a memory as a reference image;
A reference image distance information holding step of holding a distance to a subject in the reference image as a reference image subject distance information in a memory;
A reference image distance information holding step of holding a distance to a subject in the reference image as reference image subject distance information in a memory;
A background image generation step of generating a background image from the reference image and the reference image using the reference image subject distance information and the reference image subject distance information;
A difference information generating step for generating difference information from the reference image and the background image;
An adjacent region detection step for detecting whether the region obtained from the difference information and the region updated in the background image generation step are adjacent;
A background image update step of updating the region detected in the adjacent region detection step of the background image with the reference image;
A method for controlling an imaging apparatus, comprising:
JP2013027216A 2013-02-15 2013-02-15 Imaging device Pending JP2014158118A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013027216A JP2014158118A (en) 2013-02-15 2013-02-15 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013027216A JP2014158118A (en) 2013-02-15 2013-02-15 Imaging device

Publications (1)

Publication Number Publication Date
JP2014158118A true JP2014158118A (en) 2014-08-28

Family

ID=51578752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013027216A Pending JP2014158118A (en) 2013-02-15 2013-02-15 Imaging device

Country Status (1)

Country Link
JP (1) JP2014158118A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018054548A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Image processing device, image processing method and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018054548A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Image processing device, image processing method and computer program

Similar Documents

Publication Publication Date Title
JP5589548B2 (en) Imaging apparatus, image processing method, and program storage medium
JP5536010B2 (en) Electronic camera, imaging control program, and imaging control method
JP2009053815A (en) Subject tracking program and subject tracking device
KR20210028218A (en) Image processing methods and devices, electronic devices and storage media
WO2014187265A1 (en) Photo-capture processing method, device and computer storage medium
US20110316976A1 (en) Imaging apparatus capable of generating three-dimensional images, three-dimensional image generating method, and recording medium
CN113875220B (en) Shooting anti-shake method, shooting anti-shake device, terminal and storage medium
JP2018031907A (en) Imaging apparatus, control method thereof and program
JP2005211488A5 (en)
JP2011040993A (en) Subject homing program and camera
US20150062357A1 (en) Device and method for removing distortion
JP2012194487A (en) Imaging device, imaging method and program
WO2017096859A1 (en) Photo processing method and apparatus
JP5484129B2 (en) Imaging device
JP2010262428A (en) Intermediate image generating apparatus and method for controlling operation of the same
JP2014158118A (en) Imaging device
CN111885297B (en) Image definition determining method, image focusing method and device
JP2005204298A (en) System and method for showing exposure information during taking in image
JP2009239392A (en) Compound eye photographing apparatus, control method therefor, and program
JP2014225868A (en) Imaging apparatus
JP2010157792A (en) Photographed object tracing device
JP2011193496A (en) Imaging apparatus, imaging method, and imaging program
JP6468751B2 (en) Image processing apparatus, image processing method, and program
JP5826309B2 (en) Image processing apparatus and image processing apparatus control method
JP2014067142A (en) Image processing apparatus, image processing method, imaging apparatus, and imaging method