JP2016134060A - Image processor, control method thereof, control program, and imaging apparatus - Google Patents

Image processor, control method thereof, control program, and imaging apparatus Download PDF

Info

Publication number
JP2016134060A
JP2016134060A JP2015009199A JP2015009199A JP2016134060A JP 2016134060 A JP2016134060 A JP 2016134060A JP 2015009199 A JP2015009199 A JP 2015009199A JP 2015009199 A JP2015009199 A JP 2015009199A JP 2016134060 A JP2016134060 A JP 2016134060A
Authority
JP
Japan
Prior art keywords
image
images
motion vector
subject
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015009199A
Other languages
Japanese (ja)
Inventor
将弘 山下
Masahiro Yamashita
将弘 山下
卓 草薙
Taku Kusanagi
卓 草薙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015009199A priority Critical patent/JP2016134060A/en
Publication of JP2016134060A publication Critical patent/JP2016134060A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To extract a subject as a moving object even though movement of the subject is very small, and to form one composite image from a plurality of images.SOLUTION: A reference image selection part 105 selects at least two images as reference images from a plurality of images obtained by consecutively photographing a subject. A motion vector detection part 106 detects a motion vector with a motion vector detection object and a selection reference image with each of the plurality of images as the motion vector detection object and with one of the two reference images as the selection reference image. A moving subject extraction part 107 extracts an area in which a movement amount is equal to or more than a prescribed threshold about each of the plurality of images as a moving object image, and a composition processing part 108 combines the moving object image with a background image with one of the plurality of images as the background image to acquire a composite image.SELECTED DRAWING: Figure 1

Description

本発明は画像処理装置、その制御方法、および制御プログラム、並びに撮像装置に関し、特に、連続的な撮影で得られた複数枚の画像から被写体を抽出して一枚の画像を合成する画像処理装置に関する。   The present invention relates to an image processing apparatus, a control method thereof, a control program, and an imaging apparatus, and in particular, an image processing apparatus that extracts a subject from a plurality of images obtained by continuous shooting and combines the images. About.

一般に、デジタルカメラなどの撮像装置において、連続的に複数枚の画像を撮影して、これら複数枚の画像から動く被写体を抽出して一枚の画像に合成するようにしたものがある。例えば、所定のタイミングでキャプチャされた複数のフレームから複数の動く被写体(動被写体という)を検出して、複数の動被写体から選択された動被写体の軌跡上に位置する画像と静止画像とを合成するようにした撮像装置がある(特許文献1参照)。   In general, there is an imaging apparatus such as a digital camera that continuously captures a plurality of images, extracts moving subjects from the plurality of images, and combines them into a single image. For example, a plurality of moving subjects (called moving subjects) are detected from a plurality of frames captured at a predetermined timing, and an image located on the locus of the moving subject selected from the plurality of moving subjects and a still image are combined. There is an image pickup apparatus configured to do so (see Patent Document 1).

特開2013−162333号公報JP 2013-162333 A

ところが、上述の特許文献1に記載の撮像装置においては、時系列的に隣接するフレーム間において動被写体であるか否かを判定している。この結果、被写体の動きが小さい(微小である)場合には、動きなしと判定されることがある。そして、動きなしと判定された領域について動被写体として抽出されず、複数枚の画像から動被写体を抽出して一枚の画像に合成することができないことがある。   However, in the imaging device described in Patent Document 1 described above, it is determined whether or not the subject is a moving subject between frames adjacent in time series. As a result, when the movement of the subject is small (small), it may be determined that there is no movement. In some cases, it is not possible to extract a moving subject from a plurality of images and combine them into a single image without extracting a region determined to have no motion as a moving subject.

従って、本発明の目的は、被写体の動きが微小であっても動被写体として抽出して、複数枚の画像から一枚の画像を合成することのできる画像処理装置、その制御方法、および制御プログラム、並びに撮像装置を提供することにある。   Accordingly, an object of the present invention is to provide an image processing apparatus, a control method thereof, and a control program that can extract a moving subject even if the subject's movement is minute and synthesize one image from a plurality of images. And providing an imaging apparatus.

上記の目的を達成するため、本発明による画像処理装置は、被写体を連続して撮影して得た複数の画像を合成して合成画像を得る画像処理装置であって、前記複数の画像から少なくとも2つの画像を基準画像として選択する選択手段と、前記複数の画像の各々を動きベクトル検出対象とし、前記少なくとも2つの基準画像のいずれか1つを選択基準画像として、前記動きベクトル検出対象と前記選択基準画像とによって前記被写体の動きを示す動きベクトルを検出する検出手段と、前記複数の画像の各々について前記動きベクトルによって示される動き量が所定の閾値以上である領域を動体画像として抽出し、前記複数の画像のうちの1つを背景画像として当該背景画像に前記動体画像を合成して前記合成画像を得る合成手段と、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention is an image processing apparatus that obtains a composite image by combining a plurality of images obtained by continuously photographing a subject, and at least from the plurality of images. Selecting means for selecting two images as reference images; each of the plurality of images as a motion vector detection target; and any one of the at least two reference images as a selection reference image; Detecting means for detecting a motion vector indicating the motion of the subject from the selection reference image; and extracting a region where the amount of motion indicated by the motion vector is a predetermined threshold or more for each of the plurality of images as a moving object image; Synthesizing means for synthesizing the moving object image with the background image by using one of the plurality of images as a background image. The features.

本発明による撮像装置は、被写体を連続して撮影して複数の画像を得る撮像手段と、上記の画像処理装置と、前記画像処理装置で得られた合成画像を記録する記録手段と、を有することを特徴とする。   An imaging apparatus according to the present invention includes an imaging unit that continuously captures a subject to obtain a plurality of images, the above-described image processing device, and a recording unit that records a composite image obtained by the image processing device. It is characterized by that.

本発明による制御方法は、被写体を連続して撮影して得た複数の画像を合成して合成画像を得る画像処理装置の制御方法であって、前記複数の画像から少なくとも2つの画像を基準画像として選択する選択ステップと、前記複数の画像の各々を動きベクトル検出対象とし、前記少なくとも2つの基準画像のいずれか1つを選択基準画像として、前記動きベクトル検出対象と前記選択基準画像とによって前記被写体の動きを示す動きベクトルを検出する検出ステップと、前記複数の画像の各々について前記動きベクトルによって示される動き量が所定の閾値以上である領域を動体画像として抽出し、前記複数の画像のうちの1つを背景画像として当該背景画像に前記動体画像を合成して前記合成画像を得る合成ステップと、を有することを特徴とする。   The control method according to the present invention is a control method for an image processing apparatus that obtains a composite image by combining a plurality of images obtained by continuously photographing a subject, and at least two images from the plurality of images are used as reference images. Selecting each of the plurality of images as a motion vector detection target, and selecting any one of the at least two reference images as a selection reference image, according to the motion vector detection target and the selection reference image. A detection step of detecting a motion vector indicating a motion of a subject; and a region where a motion amount indicated by the motion vector is greater than or equal to a predetermined threshold for each of the plurality of images is extracted as a moving body image; And combining the moving object image with the background image as a background image to obtain the synthesized image. To.

本発明による制御プログラムは、被写体を連続して撮影して得た複数の画像を合成して合成画像を得る画像処理装置で用いられる制御プログラムであって、前記画像処理装置が備えるコンピュータに、前記複数の画像から少なくとも2つの画像を基準画像として選択する選択ステップと、前記複数の画像の各々を動きベクトル検出対象とし、前記少なくとも2つの基準画像のいずれか1つを選択基準画像として、前記動きベクトル検出対象と前記選択基準画像とによって前記被写体の動きを示す動きベクトルを検出する検出ステップと、前記複数の画像の各々について前記動きベクトルによって示される動き量が所定の閾値以上である領域を動体画像として抽出し、前記複数の画像のうちの1つを背景画像として当該背景画像に前記動体画像を合成して前記合成画像を得る合成ステップと、を実行させることを特徴とする。   The control program according to the present invention is a control program used in an image processing apparatus that obtains a composite image by combining a plurality of images obtained by continuously photographing a subject, the computer included in the image processing apparatus, A selection step of selecting at least two images as a reference image from a plurality of images, each of the plurality of images as a motion vector detection target, and any one of the at least two reference images as a selection reference image; A detection step of detecting a motion vector indicating the motion of the subject based on a vector detection target and the selection reference image; and a region in which a motion amount indicated by the motion vector is greater than or equal to a predetermined threshold for each of the plurality of images Extracted as an image, and using one of the plurality of images as a background image to the background image A synthesizing step of obtaining the composite image synthesized and characterized in that it is running.

本発明によれば、基準画像として少なくとも2つの画像を選択して、複数の画像の各々について動きベクトルによって示される動き量が所定の閾値以上である領域を動体画像として抽出し、背景画像に動体画像を合成する。これによって、被写体の動きが微小であっても動体画像(動被写体)を抽出して、複数枚の画像から一枚の画像を合成することができる。   According to the present invention, at least two images are selected as reference images, a region in which a motion amount indicated by a motion vector is greater than or equal to a predetermined threshold is extracted as a moving image for each of a plurality of images, and a moving object is selected as a background image. Composite the images. Thereby, even if the movement of the subject is minute, it is possible to extract a moving body image (moving subject) and synthesize one image from a plurality of images.

本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus including an image processing apparatus according to a first embodiment of the present invention. 図1に示すカメラで行われる画像処理の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of image processing performed by the camera shown in FIG. 1. 図1に示すカメラで行われた連続的撮影の結果得られた画像の一例を示す図である。It is a figure which shows an example of the image obtained as a result of the continuous imaging | photography performed with the camera shown in FIG. 本発明の第2の実施形態に係るカメラで行われた連続的撮影の結果得られた画像の一例を示す図である。It is a figure which shows an example of the image obtained as a result of the continuous imaging | photography performed with the camera which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係るカメラで行われる画像処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the image processing performed with the camera which concerns on the 2nd Embodiment of this invention. 図5に示す中間基準画像判定を説明するためのフローチャートである。6 is a flowchart for explaining intermediate reference image determination shown in FIG. 5.

以下に、本発明の実施の形態による画像処理装置の一例について図面を参照して説明する。   Hereinafter, an example of an image processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による画像処理装置を備える撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing a configuration of an example of an imaging apparatus including an image processing apparatus according to the first embodiment of the present invention.

図示の撮像装置100は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)であり、レンズユニット101、撮像素子102、AFE(アナログフロントエンド)103、画像信号処理部104、基準画像選択部105、動きベクトル検出部106、動被写体抽出部107、合成処理部108、外部記録メモリ109、メモリ110、不揮発性メモリ111、およびシステム制御部112を有している。そして、これらブロックは内部バス150によって相互に接続されている。   The illustrated imaging apparatus 100 is, for example, a digital camera (hereinafter simply referred to as a camera), and includes a lens unit 101, an imaging element 102, an AFE (analog front end) 103, an image signal processing unit 104, a reference image selection unit 105, a motion. A vector detection unit 106, a moving subject extraction unit 107, a composition processing unit 108, an external recording memory 109, a memory 110, a nonvolatile memory 111, and a system control unit 112 are included. These blocks are connected to each other by an internal bus 150.

レンズユニット101はフォーカスレンズを含む複数のレンズを有しており、AFの際にフォーカスレンズを光軸に沿って駆動するとともに、焦点距離を含むレンズ情報を取得する。レンズユニット101を介して光学像(被写体像)が撮像素子102に結像する。撮像素子102は、例えば、CCD又はCMOSイメージセンサであり、光学像に応じた電気信号(アナログ信号)に出力する。   The lens unit 101 has a plurality of lenses including a focus lens, drives the focus lens along the optical axis during AF, and acquires lens information including a focal length. An optical image (subject image) is formed on the image sensor 102 via the lens unit 101. The image sensor 102 is, for example, a CCD or CMOS image sensor, and outputs an electrical signal (analog signal) corresponding to the optical image.

AFE103は、撮像素子102の出力であるアナログ信号をデジタル信号(画像データ)に変換する。   The AFE 103 converts an analog signal that is an output of the image sensor 102 into a digital signal (image data).

画像信号処理部104は、AFE103の出力である画像データ、又はシステム制御部112が外部記録メモリ109又はメモリ110から読み出した画像データに対して各種の画像処理を施す。画像信号処理部104で行われる画像処理には、例えば、符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、および色変換処理などがある。   The image signal processing unit 104 performs various types of image processing on the image data output from the AFE 103 or the image data read from the external recording memory 109 or the memory 110 by the system control unit 112. Image processing performed by the image signal processing unit 104 includes, for example, encoding processing, compression processing, decoding processing, enlargement / reduction processing (resizing), noise reduction processing, and color conversion processing.

基準画像選択部105は、画像信号処理部104の出力である複数の画像データ(以下単に画像とも呼ぶ)から動きベクトル検出部106で用いる基準画像を選択する。なお、基準画像選択部105は、基準画像として複数枚の画像を選択するようにしてもよい。   The reference image selection unit 105 selects a reference image to be used by the motion vector detection unit 106 from a plurality of image data (hereinafter also simply referred to as images) output from the image signal processing unit 104. Note that the reference image selection unit 105 may select a plurality of images as the reference image.

動きベクトル検出部106は2枚の画像において動きベクトルを検出して、当該動きベクトルを示す動きベクトル情報を出力する。動きベクトル検出の際には、動きベクトル検出部106は2枚の画像の各々を複数の小領域に分割して、小領域の一つである注目領域とその周辺領域とについてテンプレートマッチングを行って、動きベクトルを検出する。   The motion vector detection unit 106 detects a motion vector in the two images and outputs motion vector information indicating the motion vector. At the time of motion vector detection, the motion vector detection unit 106 divides each of the two images into a plurality of small regions, and performs template matching on the attention region that is one of the small regions and the surrounding region. , Detecting a motion vector.

動被写体抽出部107は、動きベクトル検出部106で検出された動きベクトルに応じて、その動き量が所定の閾値以上である小領域を動被写体領域として抽出する。合成処理部108は、画像信号処理部104の出力である複数枚の画像のうちの1つの画像を背景画像して、動被写体抽出部107で抽出された動被写体領域(動体画像ともいう)を背景画像に合成する。背景画像は合成の際の基準となる画像であり、合成処理部108は、当該背景画像に動体画像が順次合成される。   In accordance with the motion vector detected by the motion vector detection unit 106, the moving subject extraction unit 107 extracts a small region whose motion amount is equal to or greater than a predetermined threshold as a moving subject region. The composition processing unit 108 uses one of the plurality of images output from the image signal processing unit 104 as a background image, and extracts a moving subject region (also referred to as a moving body image) extracted by the moving subject extraction unit 107. Composite to the background image. The background image is an image serving as a reference for the composition, and the composition processing unit 108 sequentially composes the moving object image with the background image.

外部記録メモリ109は、例えば、メモリカードなどの記録媒体である。不揮発性メモリ111は、例えば、ハードディスク(HDD)又はROMなどであり、不揮発性メモリ111には、例えば、画像データ、音声データ、その他のデータ、システム制御部112で動作するための各種プログラムなどが格納される。なお、メモリ110は、例えば、RAMなどの揮発性メモリである。   The external recording memory 109 is a recording medium such as a memory card, for example. The non-volatile memory 111 is, for example, a hard disk (HDD) or ROM. The non-volatile memory 111 includes, for example, image data, audio data, other data, various programs for operating the system control unit 112, and the like. Stored. The memory 110 is a volatile memory such as a RAM, for example.

システム制御部112は、不揮発性メモリ111に格納されたプログラムに基づいて、メモリ110をワークメモリとして用いてカメラ全体の制御を行う。なお、システム制御部112は、内部バス150を介して外部記録メモリ109から画像データを読み出すとともに、当該外部記録メモリ109に画像データを書き込む。   Based on a program stored in the nonvolatile memory 111, the system control unit 112 controls the entire camera using the memory 110 as a work memory. The system control unit 112 reads image data from the external recording memory 109 via the internal bus 150 and writes the image data to the external recording memory 109.

図2は、図1に示すカメラで行われる画像処理の一例を説明するためのフローチャートである。なお、図示のフローチャートに係る処理は、システム制御部112の制御下で行われ、システム制御部112は不揮発性メモリ111に記録されたプログラムをメモリ110に展開してフローチャートに係る処理を実行する。   FIG. 2 is a flowchart for explaining an example of image processing performed by the camera shown in FIG. The process according to the flowchart shown in the figure is performed under the control of the system control unit 112, and the system control unit 112 develops the program recorded in the nonvolatile memory 111 into the memory 110 and executes the process according to the flowchart.

画像処理を開始すると、システム制御部112は、連続的撮影によって得られたN(Nは2以上の整数)枚の画像をメモリ110に取り込む(ステップS101)。この場合、システム制御部112は、レンズユニット101、撮像素子102、AFE103、および画像信号処理部104を制御して連続的撮影を行って、撮影の結果得られた画像をメモリ110に格納する。   When image processing is started, the system control unit 112 captures N (N is an integer of 2 or more) images obtained by continuous shooting into the memory 110 (step S101). In this case, the system control unit 112 controls the lens unit 101, the image sensor 102, the AFE 103, and the image signal processing unit 104 to perform continuous shooting, and stores an image obtained as a result of shooting in the memory 110.

図3は、図1に示すカメラで行われた連続的撮影の結果得られた画像の一例を示す図である。ここでは、時間的に連続してN枚の画像401〜402が撮影されたものとする。   FIG. 3 is a diagram showing an example of an image obtained as a result of continuous shooting performed by the camera shown in FIG. Here, it is assumed that N images 401 to 402 are taken continuously in time.

図2および図3を参照して、続いて、システム制御部112は、基準画像選択部105を制御して、メモリ110に格納されたN枚の画像から1枚目の画像とN枚目の画像とをそれぞれ基準画像として選択する(ステップS102)。そして、システム制御部112は、1枚目の画像を合成の基準となる背景画像として設定する(ステップS103)。そして、後述するように、背景画像に対して抽出された動体画像が順次合成される。   2 and 3, subsequently, the system control unit 112 controls the reference image selection unit 105 to select the first image and the Nth image from the N images stored in the memory 110. Each image is selected as a reference image (step S102). Then, the system control unit 112 sets the first image as a background image serving as a composition reference (step S103). Then, as will be described later, the moving body images extracted with respect to the background image are sequentially synthesized.

ここで、1枚目の画像を背景画像として設定しているが、これに限定されず、N枚の撮影画像から選択される画像であってもよい。また、例えば、N枚の撮影画像など、複数枚の画像を合成して1枚の背景画像を生成して用いてもよい。   Here, the first image is set as the background image, but the present invention is not limited to this, and may be an image selected from N photographed images. Further, for example, a plurality of images such as N photographed images may be combined and a single background image may be generated and used.

次に、システム制御部112は、N枚の画像において2枚目の画像を初期画像として設定する(ステップS104)。そして、システム制御部112は、メモリ110からN枚の画像においてn枚目の画像(動きベクトル検出対象)を選択する(ステップS105)。以後、システム制御部112はn枚目の画像について、動きベクトルの検出および動被写体の抽出を行う。なお、ここでは、2≦n≦N−1である。   Next, the system control unit 112 sets the second image as the initial image among the N images (step S104). Then, the system control unit 112 selects the nth image (motion vector detection target) among the N images from the memory 110 (step S105). Thereafter, the system control unit 112 detects a motion vector and extracts a moving subject for the nth image. Here, 2 ≦ n ≦ N−1.

続いて、システム制御部112は、ステップS105で選択されたn枚目の画像に対していずれの基準画像を用いて動きベクトルの検出を行うかについて判定する(ステップS106)。図示の例では、前述のように、1枚目の画像とN枚目の画像とが基準画像として選択されている。このような場合には、N/2枚目の画像を境界として、システム制御部112は基準画像を1枚目の画像(最初の画像)からN枚目の画像(最後の画像)に切り替える。動きベクトルを検出する際に用いる基準画像は選択基準画像と呼ばれる。   Subsequently, the system control unit 112 determines which reference image is used to detect the motion vector for the nth image selected in step S105 (step S106). In the illustrated example, as described above, the first image and the Nth image are selected as the reference images. In such a case, the system control unit 112 switches the reference image from the first image (first image) to the Nth image (last image) with the N / 2th image as a boundary. A reference image used when detecting a motion vector is called a selection reference image.

ステップS106の処理では、システム制御部112は、基準画像を切り替える境界に達したか否かを判定することになる。つまり、システム制御部112はn≦N/2であるか否かを判定する。n≦N/2であると(ステップS106において、YES)、システム制御部112はN枚目の画像を基準画像として選択する(ステップS107)。一方、n>N/2であると(ステップS106において、NO)、システム制御部112は1枚目の画像を基準画像として選択する(ステップS108)。   In the process of step S106, the system control unit 112 determines whether or not the boundary for switching the reference image has been reached. That is, the system control unit 112 determines whether n ≦ N / 2. If n ≦ N / 2 (YES in step S106), system control unit 112 selects the Nth image as a reference image (step S107). On the other hand, if n> N / 2 (NO in step S106), system control unit 112 selects the first image as a reference image (step S108).

ステップS107又はS108の処理の後、システム制御部112は、メモリ110から基準画像およびn枚目の画像を動きベクトル検出部106に送る。そして、動きベクトル検出部106は、基準画像とn枚目の画像とに基づいて被写体についてその動きベクトルを検出して動きベクトル情報を得る(ステップS109)。   After the process of step S107 or S108, the system control unit 112 sends the reference image and the nth image from the memory 110 to the motion vector detection unit 106. Then, the motion vector detection unit 106 detects the motion vector of the subject based on the reference image and the nth image, and obtains motion vector information (step S109).

システム制御112は、動きベクトル検出部106で得られた動きベクトル情報を動被写体抽出部107に送る。動被写体抽出部107は動きベクトル情報に応じてその動き量が所定の閾値以上である小領域を検出して、n枚目の画像における動被写体部分(動体画像)を抽出する(ステップS110)。   The system control 112 sends the motion vector information obtained by the motion vector detection unit 106 to the moving subject extraction unit 107. The moving subject extraction unit 107 detects a small area whose movement amount is equal to or greater than a predetermined threshold according to the motion vector information, and extracts a moving subject portion (moving body image) in the nth image (step S110).

続いて、システム制御112は、合成処理部108を制御して、動被写体抽出部107で抽出された動体画像とメモリ110に格納された背景画像と合成して合成画像とする(ステップS111)。そして、システム制御部112は当該合成画像をメモリ110に格納する。   Subsequently, the system control 112 controls the synthesis processing unit 108 to synthesize the moving body image extracted by the moving subject extraction unit 107 and the background image stored in the memory 110 to form a synthesized image (step S111). Then, the system control unit 112 stores the composite image in the memory 110.

次に、システム制御部112は、n=n+1として次の画像を選択する(ステップS112)。そして、システム制御部112はN枚の画像全てについて合成処理を行ったか否かを判定する。つまり、システム制御部112はn≧Nであるか否かを判定することになる(ステップS113)。   Next, the system control unit 112 selects the next image with n = n + 1 (step S112). Then, the system control unit 112 determines whether or not the synthesis process has been performed for all N images. That is, the system control unit 112 determines whether or not n ≧ N (step S113).

n≧Nであると判定すると(ステップS113において、YES)、システム制御部112は画像処理を終了する。一方、n<Nであると判定すると(ステップS113において、NO)、システム制御部112はステップS105の処理に戻る。   If it is determined that n ≧ N (YES in step S113), system control unit 112 ends the image processing. On the other hand, if it is determined that n <N (NO in step S113), system control unit 112 returns to the process in step S105.

このように、第1の実施形態では、動きベクトルの検出に用いる基準画像を複数設定する。そして、動きベクトルを検出する際、検出対象の画像から撮影時間が最も時間的に離れた基準画像を用いる。これによって、被写体の動きが小さい場合においても、動き判定を行って動被写体として抽出することができる。   As described above, in the first embodiment, a plurality of reference images used for motion vector detection are set. Then, when detecting a motion vector, a reference image that is most distant from the detection target image in terms of time is used. As a result, even when the movement of the subject is small, it is possible to perform motion determination and extract it as a moving subject.

なお、本実施形態において、撮影間隔が略一定であるとみなして、選択画像を切り替える境界としてN/2の画像を用いているが、これに限定されない。連続撮影中の被写体の動きに応じて境界となる画像を変更することも可能である。例えば、連続撮影の開始直後の被写体の動きが小さく、徐々に大きくなる場合には、境界の画像をN/2枚目よりも後の画像にすることで、被写体の動きベクトルを正確に取得することができる。   In this embodiment, it is assumed that the shooting interval is substantially constant, and N / 2 images are used as boundaries for switching the selected images. However, the present invention is not limited to this. It is also possible to change the image serving as the boundary according to the movement of the subject during continuous shooting. For example, when the motion of the subject immediately after the start of continuous shooting is small and gradually increases, the motion vector of the subject is accurately obtained by making the boundary image an image after the N / 2nd image. be able to.

さらに、本実施形態において、2枚の基準画像から一方の選択基準画像を選択した後に、この選択基準画像に基づいて動きベクトルを検出するようにしているが、2枚の基準画像をともに選択基準画像として動きベクトルを夫々算出しておき、動き量が所定の閾値以上の動きベクトルを選択的に用いてn枚目の画像における動被写体部分(動体画像)を抽出するようにしてもよい。   Further, in the present embodiment, after selecting one selection reference image from two reference images, a motion vector is detected based on the selection reference image. A motion vector may be calculated as an image, and a moving subject portion (moving body image) in the nth image may be extracted by selectively using a motion vector having a motion amount equal to or greater than a predetermined threshold.

[第2の実施形態]
次に、本発明の第2の実施形態による画像処理装置を備えるカメラの一例について説明する。なお、第2の実施形態に係るカメラの構成は、図1に示すカメラと同様である。
[Second Embodiment]
Next, an example of a camera provided with an image processing apparatus according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIG.

第2の実施形態においては、所定の期間において被写体の動き方向が変化する場合の処理(つまり、合成処理)について説明する。   In the second embodiment, processing (that is, composition processing) in the case where the moving direction of the subject changes in a predetermined period will be described.

図4は、本発明の第2の実施形態に係るカメラで行われた連続的撮影の結果得られた画像の一例を示す図である。   FIG. 4 is a diagram illustrating an example of an image obtained as a result of continuous shooting performed by the camera according to the second embodiment of the present invention.

ここでは、時間的に連続してN枚の画像501〜503が撮影されたものとし、被写体は矢印で示す方向に動いたものとする。図4に示す例では、被写体が動く方向を変えているので、最後の画像503が他の画像と重なってしまうことになる。このため、被写体の動く方向が変化した場合には動きが小さいと判定されて、動体画像を適切に抽出できないことがある。   Here, it is assumed that N images 501 to 503 are taken continuously in time, and the subject moves in the direction indicated by the arrow. In the example shown in FIG. 4, the moving direction of the subject is changed, so that the last image 503 overlaps with other images. For this reason, when the moving direction of the subject changes, it is determined that the movement is small, and the moving body image may not be appropriately extracted.

図5は、本発明の第2の実施形態に係るカメラで行われる画像処理の一例を説明するためのフローチャートである。   FIG. 5 is a flowchart for explaining an example of image processing performed by the camera according to the second embodiment of the present invention.

画像処理を開始すると、システム制御部112はステップS201〜S204の処理を行う。ステップS201〜S204の処理は、図2で説明したステップS101〜S104の処理と同様であるので、ここでは説明を省略する。   When image processing is started, the system control unit 112 performs steps S201 to S204. The processing in steps S201 to S204 is the same as the processing in steps S101 to S104 described in FIG.

ステップS204において、N枚の画像において2枚目の画像を初期画像として設定した後、システム制御部112は、被写体の動きが変化したフレーム(つまり、画像)を対象とする中間基準画像の枚数を初期化する(i=0:ステップS205)。そして、システム制御部112は、後述するようにして中間基準画像判定を行い(ステップS206)、中間基準画像判定によって得られた中間基準画像の総枚数Imaxをメモリ110に記憶する。   In step S204, after setting the second image as the initial image in the N images, the system control unit 112 sets the number of intermediate reference images for frames (that is, images) in which the movement of the subject has changed. Initialization is performed (i = 0: step S205). Then, the system control unit 112 performs intermediate reference image determination as described later (step S206), and stores the total number Imax of intermediate reference images obtained by the intermediate reference image determination in the memory 110.

続いて、システム制御部112は、n=n+1として次の画像を選択する(ステップS207)。そして、システム制御部112は、全ての画像に対して中間基準画像判定を行ったか否かを判定する(ステップS208)。つまり、システム制御部112はn≧Nであるか否かを判定する。   Subsequently, the system control unit 112 selects the next image with n = n + 1 (step S207). Then, the system control unit 112 determines whether or not intermediate reference image determination has been performed for all images (step S208). That is, the system control unit 112 determines whether n ≧ N.

n<Nであると判定すると(ステップS208において、NO)、システム制御部112はステップS206の処理に戻る。一方、n≧Nであると判定すると(ステップS208において、YES)、システム制御部112は、M[0]枚目を初期中間基準画像として設定する(ステップS209)。そして、システム制御部112は、2枚目の画像を初期画像として選択する(ステップS210)。   If it is determined that n <N (NO in step S208), system control unit 112 returns to the process in step S206. On the other hand, if it is determined that n ≧ N (YES in step S208), the system control unit 112 sets the M [0] th sheet as the initial intermediate reference image (step S209). Then, the system control unit 112 selects the second image as an initial image (step S210).

次に、システム制御部112は、n枚目の画像が基準画像を切り替える切り替え境界に達したか否かを判定する(ステップS211)。つまり、システム制御部112は、n<M[i]であるか否かを判定する。N≧M[i]であると判定すると(ステップS211において、NO)、システム制御部112は、基準画像選択部105を制御して中間基準画像からM[i−1]枚目とM[i]枚目を基準画像として選択する(ステップS212)。   Next, the system control unit 112 determines whether or not the nth image has reached a switching boundary for switching the reference image (step S211). That is, the system control unit 112 determines whether n <M [i]. If it is determined that N ≧ M [i] (NO in step S211), the system control unit 112 controls the reference image selection unit 105 to control the M [i−1] -th and M [i] from the intermediate reference image. ] Is selected as the reference image (step S212).

続いて、システム制御部112は、n枚目の画像が基準画像を切り替える切り替え境界に達したか否かを判定する(ステップS213)。ここでは、システム制御部112は、ステップS212で選択した基準画像M[i−1]およびM[i]においてどちらがn枚目の画像から時間的に最も離れているかを判定することになる。つまり、システム制御部112は、n≦(M[i]+M[i−1])/2であるか否かを判定する。   Subsequently, the system control unit 112 determines whether or not the nth image has reached a switching boundary for switching the reference image (step S213). Here, the system control unit 112 determines which of the reference images M [i−1] and M [i] selected in step S212 is most distant from the nth image in terms of time. That is, the system control unit 112 determines whether or not n ≦ (M [i] + M [i−1]) / 2.

n≦(M[i]+M[i−1])/2であると判定すると(ステップS213において、YES)、システム制御部112は、基準画像選択部105を制御してM[i]枚目の画像を基準画像として選択する(ステップS214)。一方、n>(M[i]+M[i−1])/2であると判定すると(ステップS213において、NO)、システム制御部112は、基準画像選択部105を制御してM[i−1]枚目の画像を基準画像として選択する(ステップS215)。   If it is determined that n ≦ (M [i] + M [i−1]) / 2 (YES in step S213), the system control unit 112 controls the reference image selection unit 105 to perform the M [i] th image. Are selected as reference images (step S214). On the other hand, when it is determined that n> (M [i] + M [i−1]) / 2 (NO in step S213), system control unit 112 controls reference image selection unit 105 to control M [i−. 1] The first image is selected as a reference image (step S215).

N<M[i]であると判定すると(ステップS211において、YES)、システム制御部112は、システム制御部112は、全ての中間基準画像を選択したか否かを判定する(ステップS216)。つまり、システム制御部112はi=imaxであるか否かを判定することになる。   If it is determined that N <M [i] (YES in step S211), the system control unit 112 determines whether the system control unit 112 has selected all intermediate reference images (step S216). That is, the system control unit 112 determines whether i = imax.

i=imaxであると判定すると(ステップS216において、YES)、システム制御部112はn枚目の画像が基準画像を切り替える切り替え境界に達したか否かを判定する(ステップS217)。ここでは、システム制御部112は、基準画像M[i]およびNにおいてどちらがn枚目の画像から時間的に最も離れているかを判定することになる。つまり、システム制御部112は、n≦(N+M[i])/2であるか否かを判定する。   If it is determined that i = imax (YES in step S216), the system control unit 112 determines whether or not the nth image has reached a switching boundary for switching the reference image (step S217). Here, the system control unit 112 determines which of the reference images M [i] and N is most distant from the n-th image in terms of time. That is, the system control unit 112 determines whether or not n ≦ (N + M [i]) / 2.

n≦(N+M[i])/2であると判定すると(ステップS217において、YES)、システム制御部112は、基準画像選択部105を制御してN枚目の画像を基準画像として選択する(ステップS218)。一方、n>(N+M[i])/2であると判定すると(ステップS217において、NO)、システム制御部112は、基準画像選択部105を制御してM[i]枚目の画像を基準画像として選択する(ステップS219)。   If it is determined that n ≦ (N + M [i]) / 2 (YES in step S217), system control unit 112 controls reference image selection unit 105 to select the Nth image as a reference image ( Step S218). On the other hand, if it is determined that n> (N + M [i]) / 2 (NO in step S217), system control unit 112 controls reference image selection unit 105 to set the M [i] -th image as a reference. It selects as an image (step S219).

i=imaxでないと判定すると(ステップS216において、NO)、システム制御部112は、i=i+1として次の中間基準画像を選択する(ステップS220)。そして、システム制御部112はステップS211の処理に戻る。   If it is determined that i = imax is not satisfied (NO in step S216), system control unit 112 selects the next intermediate reference image as i = i + 1 (step S220). Then, the system control unit 112 returns to the process of step S211.

ステップS214、S215、S218、又はS219の処理の後、システム制御部112は、ステップS221〜S225の処理を行う。ステップS221〜S225の処理は、図2で説明したステップS109〜S113の処理と同様であるので、ここでは説明を省略する。そして、ステップS225においてn<Nであると判定すると、システム制御部112はステップS211の処理に戻る。   After the process of step S214, S215, S218, or S219, the system control unit 112 performs the process of steps S221 to S225. Since the processing of steps S221 to S225 is the same as the processing of steps S109 to S113 described in FIG. 2, the description thereof is omitted here. If it is determined in step S225 that n <N, the system control unit 112 returns to the process of step S211.

図6は、図5に示す中間基準画像判定を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the intermediate reference image determination shown in FIG.

中間基準画像判定処理を開始すると、システム制御部112は、動きベクトル検出部106を制御して、n枚目の画像とその一つ前の(n−1)枚目の画像間とにおいて被写体の動きベクトルを検出する(ステップS301)。続いて、システム制御部112は、動きベクトル検出部106を制御して、n枚目の画像とその一つ後の(n+1)枚目の画像とにおいて被写体の動きベクトルを検出する(ステップS302)。   When the intermediate reference image determination process is started, the system control unit 112 controls the motion vector detection unit 106 to detect the subject between the nth image and the previous (n−1) th image. A motion vector is detected (step S301). Subsequently, the system control unit 112 controls the motion vector detection unit 106 to detect the motion vector of the subject in the nth image and the next (n + 1) th image (step S302). .

次に、システム制御部112は、ステップS301およびS302において検出した動きベクトルの方向を比較する(ステップS303)。そして、システム制御部112は、動きベクトルの方向の変化量が予め設定された変化閾値以上に変化しているか否か判定する(ステップS304)。   Next, the system control unit 112 compares the directions of the motion vectors detected in steps S301 and S302 (step S303). Then, the system control unit 112 determines whether or not the amount of change in the direction of the motion vector has changed beyond a preset change threshold (step S304).

動きベクトルの方向の変化量が変化閾値以上であると判定すると(ステップS304において、YES)、システム制御部112は、動きベクトルの方向の変化量が変化閾値以上であるとしたn枚目の画像を中間基準画像M[i]として基準画像に追加する。つまり、システム制御部112は、M[i]=n、i=i+1、Imax=iとする。そして、システム制御部112は中間基準画像判定処理を終了して、図5に示すステップS207の処理に進む。   If it is determined that the amount of change in the direction of the motion vector is greater than or equal to the change threshold (YES in step S304), the system control unit 112 determines that the amount of change in the direction of the motion vector is greater than or equal to the change threshold. Is added to the reference image as an intermediate reference image M [i]. That is, the system control unit 112 sets M [i] = n, i = i + 1, and Imax = i. Then, the system control unit 112 ends the intermediate reference image determination process, and proceeds to the process of step S207 shown in FIG.

一方、動きベクトルの方向の変化量が変化閾値未満であると判定すると(ステップS304において、NO)、システム制御部112は中間基準画像判定処理を終了して、図5に示すステップS207の処理に進む。   On the other hand, if it is determined that the amount of change in the direction of the motion vector is less than the change threshold value (NO in step S304), the system control unit 112 ends the intermediate reference image determination process and proceeds to the process of step S207 shown in FIG. move on.

このように、第2の実施形態では、動きベクトルの方向が変化した画像を中間基準画像として追加するようにしたので、被写体の動きが変化した際においても動き判定を行うことができ、適切に動被写体を抽出して合成画像を生成することができる。   As described above, in the second embodiment, since the image in which the direction of the motion vector has changed is added as the intermediate reference image, the motion determination can be performed even when the motion of the subject has changed. It is possible to extract a moving subject and generate a composite image.

上述の説明から明らかなように、図1に示す例では、システム制御部112および基準画像選択部105が選択手段として機能し、動きベクトル検出部106およびシステム制御部112が検出手段として機能する。また、システム制御部112、動被写体抽出部107、および合成処理部108が合成手段として機能する。   As is clear from the above description, in the example shown in FIG. 1, the system control unit 112 and the reference image selection unit 105 function as a selection unit, and the motion vector detection unit 106 and the system control unit 112 function as a detection unit. In addition, the system control unit 112, the moving subject extraction unit 107, and the synthesis processing unit 108 function as a synthesis unit.

さらに、レンズユニット101、撮像素子102、AFE103、および画像信号処理部104が撮像手段として機能し、システム制御部112および外部記録メモリ109が記録手段として機能する。   Further, the lens unit 101, the image sensor 102, the AFE 103, and the image signal processing unit 104 function as an imaging unit, and the system control unit 112 and the external recording memory 109 function as a recording unit.

なお、図1に示す例では、少なくとも基準画像選択部105、動きベクトル検出部106、動被写体抽出部107、合成処理部108、メモリ110、不揮発性メモリ111、およびシステム制御部112が画像処理装置を構成する。   In the example illustrated in FIG. 1, at least the reference image selection unit 105, the motion vector detection unit 106, the moving subject extraction unit 107, the synthesis processing unit 108, the memory 110, the nonvolatile memory 111, and the system control unit 112 are included in the image processing apparatus. Configure.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を画像処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを画像処理装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the image processing apparatus. In addition, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the image processing apparatus. The control program is recorded on a computer-readable recording medium, for example.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101 レンズユニット
102 撮像素子
103 AFE
104 画像信号処理部
105 基準画像選択部
106 動きベクトル検出部
107 動被写体抽出部
108 合成処理部
110 メモリ
112 システム制御部
101 Lens unit 102 Image sensor 103 AFE
104 image signal processing unit 105 reference image selection unit 106 motion vector detection unit 107 moving subject extraction unit 108 synthesis processing unit 110 memory 112 system control unit

Claims (8)

被写体を連続して撮影して得た複数の画像を合成して合成画像を得る画像処理装置であって、
前記複数の画像から少なくとも2つの画像を基準画像として選択する選択手段と、
前記複数の画像の各々を動きベクトル検出対象とし、前記少なくとも2つの基準画像のいずれか1つを選択基準画像として、前記動きベクトル検出対象と前記選択基準画像とによって前記被写体の動きを示す動きベクトルを検出する検出手段と、
前記複数の画像の各々について前記動きベクトルによって示される動き量が所定の閾値以上である領域を動体画像として抽出し、前記複数の画像のうちの1つを背景画像として当該背景画像に前記動体画像を合成して前記合成画像を得る合成手段と、
を有することを特徴とする画像処理装置。
An image processing apparatus that combines a plurality of images obtained by continuously photographing a subject to obtain a composite image,
Selecting means for selecting at least two images as reference images from the plurality of images;
Each of the plurality of images is a motion vector detection target, one of the at least two reference images is a selection reference image, and a motion vector that indicates the motion of the subject by the motion vector detection target and the selection reference image Detecting means for detecting
For each of the plurality of images, a region in which the amount of motion indicated by the motion vector is equal to or greater than a predetermined threshold is extracted as a moving image, and one of the plurality of images is used as a background image and the moving image is added to the background image. Synthesizing means for obtaining the synthesized image by synthesizing
An image processing apparatus comprising:
前記検出手段は、前記動きベクトル検出対象と最も時間的に離れた基準画像を前記選択基準画像とすることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the detection unit sets a reference image that is most distant in time from the motion vector detection target as the selection reference image. 前記選択手段は、前記複数の画像のうち最初に撮影された画像と最後に撮影された画像とを前記基準画像として選択することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the selection unit selects an image captured first and an image captured last among the plurality of images as the reference image. 前記選択手段は、前記複数の画像において前記被写体の動き方向が変化した画像を基準画像として選択することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the selection unit selects, as a reference image, an image in which the movement direction of the subject has changed in the plurality of images. 前記選択手段は、前記被写体の動き方向の変化量が予め設定された変化閾値以上である画像を前記基準画像として選択することを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the selection unit selects, as the reference image, an image in which the amount of change in the movement direction of the subject is equal to or greater than a preset change threshold. 被写体を連続して撮影して複数の画像を得る撮像手段と、
請求項1〜5のいずれか1項に記載の画像処理装置と、
前記画像処理装置で得られた合成画像を記録する記録手段と、
を有することを特徴とする撮像装置。
Imaging means for continuously capturing a subject to obtain a plurality of images;
The image processing apparatus according to any one of claims 1 to 5,
Recording means for recording a composite image obtained by the image processing apparatus;
An imaging device comprising:
被写体を連続して撮影して得た複数の画像を合成して合成画像を得る画像処理装置の制御方法であって、
前記複数の画像から少なくとも2つの画像を基準画像として選択する選択ステップと、
前記複数の画像の各々を動きベクトル検出対象とし、前記少なくとも2つの基準画像のいずれか1つを選択基準画像として、前記動きベクトル検出対象と前記選択基準画像とによって前記被写体の動きを示す動きベクトルを検出する検出ステップと、
前記複数の画像の各々について前記動きベクトルによって示される動き量が所定の閾値以上である領域を動体画像として抽出し、前記複数の画像のうちの1つを背景画像として当該背景画像に前記動体画像を合成して前記合成画像を得る合成ステップと、
を有することを特徴とする制御方法。
A control method of an image processing apparatus that combines a plurality of images obtained by continuously photographing a subject to obtain a composite image,
A selection step of selecting at least two images from the plurality of images as reference images;
Each of the plurality of images is a motion vector detection target, one of the at least two reference images is a selection reference image, and a motion vector that indicates the motion of the subject by the motion vector detection target and the selection reference image A detecting step for detecting
For each of the plurality of images, a region in which the amount of motion indicated by the motion vector is equal to or greater than a predetermined threshold is extracted as a moving image, and one of the plurality of images is used as a background image and the moving image is added to the background image. Synthesizing to obtain the synthesized image;
A control method characterized by comprising:
被写体を連続して撮影して得た複数の画像を合成して合成画像を得る画像処理装置で用いられる制御プログラムであって、
前記画像処理装置が備えるコンピュータに、
前記複数の画像から少なくとも2つの画像を基準画像として選択する選択ステップと、
前記複数の画像の各々を動きベクトル検出対象とし、前記少なくとも2つの基準画像のいずれか1つを選択基準画像として、前記動きベクトル検出対象と前記選択基準画像とによって前記被写体の動きを示す動きベクトルを検出する検出ステップと、
前記複数の画像の各々について前記動きベクトルによって示される動き量が所定の閾値以上である領域を動体画像として抽出し、前記複数の画像のうちの1つを背景画像として当該背景画像に前記動体画像を合成して前記合成画像を得る合成ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an image processing apparatus that combines a plurality of images obtained by continuously photographing a subject to obtain a composite image,
In the computer provided in the image processing apparatus,
A selection step of selecting at least two images from the plurality of images as reference images;
Each of the plurality of images is a motion vector detection target, one of the at least two reference images is a selection reference image, and a motion vector that indicates the motion of the subject by the motion vector detection target and the selection reference image A detecting step for detecting
For each of the plurality of images, an area in which a motion amount indicated by the motion vector is equal to or greater than a predetermined threshold is extracted as a moving image, and one of the plurality of images is used as a background image and the moving image is added to the background image Synthesizing to obtain the synthesized image;
A control program characterized by causing
JP2015009199A 2015-01-21 2015-01-21 Image processor, control method thereof, control program, and imaging apparatus Pending JP2016134060A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015009199A JP2016134060A (en) 2015-01-21 2015-01-21 Image processor, control method thereof, control program, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015009199A JP2016134060A (en) 2015-01-21 2015-01-21 Image processor, control method thereof, control program, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2016134060A true JP2016134060A (en) 2016-07-25

Family

ID=56438020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015009199A Pending JP2016134060A (en) 2015-01-21 2015-01-21 Image processor, control method thereof, control program, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2016134060A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101804844B1 (en) * 2016-12-20 2017-12-05 재단법인대구경북과학기술원 Apparatus for generating cinemagraph and method thereof
CN111524086A (en) * 2019-02-04 2020-08-11 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101804844B1 (en) * 2016-12-20 2017-12-05 재단법인대구경북과학기술원 Apparatus for generating cinemagraph and method thereof
CN111524086A (en) * 2019-02-04 2020-08-11 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium
CN111524086B (en) * 2019-02-04 2023-10-20 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium

Similar Documents

Publication Publication Date Title
JP4678603B2 (en) Imaging apparatus and imaging method
JP5643563B2 (en) Image processing apparatus and control method thereof
US9635280B2 (en) Image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP5799863B2 (en) Image processing apparatus, image processing method, and program
JP2006201282A (en) Digital camera
US8988545B2 (en) Digital photographing apparatus and method of controlling the same
JP4645413B2 (en) Imaging device
JP6391304B2 (en) Imaging apparatus, control method, and program
JP7154758B2 (en) Image processing device and its control method
JP2010279054A (en) Image pickup device, image processing device, image pickup method, and image processing method
JP6300550B2 (en) Automatic focusing device and automatic focusing method
JP6431429B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP2016134060A (en) Image processor, control method thereof, control program, and imaging apparatus
JP2021132362A (en) Subject tracking device, subject tracking method, computer program, and storage medium
JP2015041865A (en) Image processing apparatus and image processing method
JP7102150B2 (en) Image processing equipment, image processing methods, and programs
JP2014138378A (en) Image pickup device, control method thereof, and control program thereof
KR20180028962A (en) Method and Device for detecting image wobbling
US11627245B2 (en) Focus adjustment device and focus adjustment method
JP2006039254A (en) Camera
JP2009021893A (en) Imaging device and method
US20150381899A1 (en) Image processing apparatus and image processing method for synthesizing plurality of images
JP7134601B2 (en) Image processing device, image processing method, imaging device, and imaging device control method
JP6036934B2 (en) Image processing apparatus, image processing method, and program