JP6552351B2 - Image processing apparatus, imaging apparatus, image processing method, program, and storage medium - Google Patents
Image processing apparatus, imaging apparatus, image processing method, program, and storage medium Download PDFInfo
- Publication number
- JP6552351B2 JP6552351B2 JP2015179109A JP2015179109A JP6552351B2 JP 6552351 B2 JP6552351 B2 JP 6552351B2 JP 2015179109 A JP2015179109 A JP 2015179109A JP 2015179109 A JP2015179109 A JP 2015179109A JP 6552351 B2 JP6552351 B2 JP 6552351B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- priority
- frame images
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、動画を撮影可能な撮像装置に関する。 The present invention relates to an imaging device capable of capturing a moving image.
一般的にカメラなどの撮影装置では、撮影された画像信号に対して、ブレ補正、歪曲補正、色収差補正、および、輪郭補正などの各種の画像補正処理を行い、記録画像が生成される。この画像補正処理は、画素ごとに実行される処理であるため、多大な処理時間を要する。特許文献1には、画像補正処理を制限する画像動き補正装置が開示されている。 In general, a photographing apparatus such as a camera performs various image correction processes such as blur correction, distortion correction, chromatic aberration correction, and contour correction on a photographed image signal to generate a recorded image. Since this image correction process is a process executed for each pixel, it takes a lot of processing time. Patent Document 1 discloses an image motion correction device that limits image correction processing.
また、主被写体に対してフォーカスを合わせるため、顔認識技術などを用いる撮像装置が知られている。特許文献2には、認識した被写体の追尾性を向上させる画像処理装置が開示されている。 In addition, an imaging device using a face recognition technique or the like is known for focusing on a main subject. Patent Document 2 discloses an image processing apparatus that improves the tracking of a recognized subject.
特許文献3には、複数のマイクロレンズに対応する複数の受光素子を有し、光学系からの光束を複数の受光素子で受光して複数の受光信号を出力し、光学系による像面のずれ量に基づいてピントの異なる複数の画像信号を生成する画像合成装置が開示されている。 Patent Document 3 has a plurality of light receiving elements corresponding to a plurality of microlenses, receives a light flux from an optical system with a plurality of light receiving elements, and outputs a plurality of light reception signals, and shifts an image plane by the optical system. An image combining apparatus is disclosed that generates a plurality of image signals with different focus based on an amount.
特許文献4には、撮影条件の異なる画像を動画として記録する技術として、近傍合焦状態と遠方合焦状態とで別々に動画ストリームを生成し、時間軸を合わせるためにリピート画像を挿入し見やすい動画を生成する撮像装置が開示されている。 In Patent Document 4, as a technique for recording an image with different shooting conditions as a moving image, a moving image stream is generated separately in the near focus state and the far focus state, and a repeat image is inserted to adjust the time axis for easy viewing. An imaging device for generating a moving image is disclosed.
しかし、従来技術のように、同一のタイミングでピントの異なる複数のフレーム画像を撮影し、ピントごとに複数の動画を記録する装置では、複数のフレーム画像に対して各種の画像補正処理を所定タイミング内に行う必要がある。しかし、撮影された全てのフレーム画像に同一の画像補正処理を行うと、多大な処理時間を要し、動画の処理フレームレート内に符号化すべき画像を生成することが困難となる。また画像補正処理は、撮影画像によって適応的に処理されるため、補正処理に要するワースト時間をもとにしたフレームレートが動画の最大フレームレートなってしまう。 However, as in the prior art, in an apparatus that captures a plurality of frame images with different focus at the same timing and records a plurality of moving images for each focus, various image correction processing is performed on the plurality of frame images at a predetermined timing. Need to be done within. However, if the same image correction processing is performed on all the captured frame images, a large processing time is required, and it becomes difficult to generate an image to be encoded within the processing frame rate of a moving image. Further, since the image correction processing is adaptively performed on the basis of the photographed image, the frame rate based on the worst time required for the correction processing becomes the maximum frame rate of the moving image.
そこで本発明は、主被写体のピント状態に応じて複数のフレーム画像の画像補正処理を変更することにより、高いフレームレートで複数の動画を取得可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供する。 Therefore, the present invention provides an image processing device, an imaging device, an image processing method, and a program that can acquire a plurality of moving images at a high frame rate by changing the image correction processing of the plurality of frame images according to the focus state of the main subject. And a storage medium.
本発明の一側面としての画像処理装置は、所定期間ごとに撮影された、撮影条件が互いに異なる複数のフレーム画像を生成する信号処理手段と、前記複数のフレーム画像に関して優先順位を付ける優先順位付け手段と、前記複数のフレーム画像に対して補正処理を行う画像補正手段とを有し、前記画像補正手段は、前記優先順位に応じて前記複数のフレーム画像に対する前記補正処理を変更する。 An image processing apparatus according to an aspect of the present invention includes a signal processing unit that generates a plurality of frame images that are captured every predetermined period and that have different shooting conditions, and a prioritization that prioritizes the plurality of frame images. And an image correction unit that performs correction processing on the plurality of frame images, and the image correction unit changes the correction processing on the plurality of frame images in accordance with the priority.
本発明の他の側面としての撮像装置は、所定期間ごとに撮影条件が互いに異なる複数の画像データを出力する撮像手段と、前記複数の画像データに基づいて複数のフレーム画像を生成する信号処理手段と、前記複数のフレーム画像に関して優先順位を付ける優先順位付け手段と、前記複数のフレーム画像に対して補正処理を行う画像補正手段とを有し、前記画像補正手段は、前記優先順位に応じて前記複数のフレーム画像に対する前記補正処理を変更する。 An imaging apparatus according to another aspect of the present invention includes an imaging unit that outputs a plurality of image data having different imaging conditions at predetermined intervals, and a signal processing unit that generates a plurality of frame images based on the plurality of image data. , Prioritizing means for prioritizing the plurality of frame images, and image correction means for performing correction processing on the plurality of frame images, wherein the image correction means is responsive to the priority order. The correction processing for the plurality of frame images is changed.
本発明の他の側面としての画像処理方法は、所定期間ごとに撮影された、撮影条件が互いに異なる複数のフレーム画像を生成するステップと、前記複数のフレーム画像に関して優先順位を付けるステップと、前記複数のフレーム画像に対して補正処理を行うステップとを有し、前記補正処理を行うステップは、前記優先順位に応じて前記複数のフレーム画像に対する前記補正処理を変更するステップを含む。 An image processing method according to another aspect of the present invention includes a step of generating a plurality of frame images captured at predetermined intervals and having different shooting conditions, a step of assigning priorities to the plurality of frame images, Performing correction processing on a plurality of frame images, and performing the correction processing includes changing the correction processing on the plurality of frame images according to the priority.
本発明の他の側面としてのプログラムは、所定期間ごとに撮影された、撮影条件が互いに異なる複数のフレーム画像を生成するステップと、前記複数のフレーム画像に関して優先順位を付けるステップと、前記複数のフレーム画像に対して補正処理を行うステップと、をコンピュータに実行させるプログラムであって、前記補正処理を行うステップは、前記優先順位に応じて前記複数のフレーム画像に対する前記補正処理を変更するステップを含む。 According to another aspect of the present invention, there is provided a program that generates a plurality of frame images that are captured every predetermined period and that have different shooting conditions, a step that prioritizes the plurality of frame images, A program that causes a computer to execute a correction process on a frame image, wherein the correction process changes the correction process on the plurality of frame images according to the priority order. Including.
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。 A storage medium according to another aspect of the present invention stores the program.
本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the invention are described in the following embodiments.
本発明によれば、主被写体のピント状態に応じて複数のフレーム画像の画像補正処理を変更することにより、高いフレームレートで複数の動画を取得可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。 According to the present invention, an image processing device, an imaging device, an image processing method capable of acquiring a plurality of moving images at a high frame rate by changing the image correction processing of a plurality of frame images according to the focus state of the main subject, A program and a storage medium can be provided.
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1実施形態)
まず、図1を参照して、本発明の第1実施形態における撮像装置について説明する。図1は、本実施形態における撮像装置100のブロック図である。
First Embodiment
First, with reference to FIG. 1, an imaging apparatus according to a first embodiment of the present invention will be described. FIG. 1 is a block diagram of an imaging apparatus 100 according to this embodiment.
図1において、200は、撮像装置100から着脱可能なメモリカードなど記録媒体である。101は、撮像装置100のメインメモリとしてのDRAM(Dynamic Random Access Memory)である。DRAM101は、画像データや、記録媒体200から読み込まれた画像符号化データなどを一時的に保持する。102は、DRAM101へアクセスするためのデータバスである。103は、撮影者が被写体を撮影する(光学像としての被写体像を形成する)ためのレンズを含むレンズユニットである。なお本実施形態において、撮像装置100は、レンズユニット103(撮像光学系)を含む(すなわち、撮像装置本体とレンズユニットとが一体的に構成されている)が、これに限定されるものではない。本実施形態は、撮像装置本体と、撮像装置本体に着脱可能なレンズユニットと、により構成される撮像システムにも適用可能である。 In FIG. 1, reference numeral 200 denotes a recording medium such as a memory card which can be detached from the imaging apparatus 100. Reference numeral 101 denotes a DRAM (Dynamic Random Access Memory) as a main memory of the imaging apparatus 100. The DRAM 101 temporarily holds image data, encoded image data read from the recording medium 200, and the like. Reference numeral 102 denotes a data bus for accessing the DRAM 101. Reference numeral 103 denotes a lens unit including a lens for a photographer to photograph a subject (form a subject image as an optical image). In the present embodiment, the imaging apparatus 100 includes the lens unit 103 (imaging optical system) (that is, the imaging apparatus body and the lens unit are integrally configured), but is not limited thereto. . The present embodiment can also be applied to an imaging system including an imaging device body and a lens unit that can be attached to and detached from the imaging device body.
104は、複数のマイクロレンズを配列して構成されたマイクロレンズアレイと、複数のマイクロレンズに対応して設けられた複数の受光素子からなる受光素子アレイとを有する撮像手段(撮像素子)である。撮像手段104は、レンズユニット103からの光束(レンズユニット103を介して形成された光学像)を、対応するマイクロレンズを介して複数の受光素子により受光して、複数の受光信号を出力する。そして撮像手段104は、受光信号を取得した際の撮像光学系(レンズユニット103)による像面のずれ量に基づいて、互いにピントが異なる複数の画像信号を生成する。撮像手段104により生成された画像信号は、デジタルデータ(画像データ)としてDRAM101へ一時的に保持される。特に本実施形態において、撮像手段104は、所定期間ごとに撮影条件が互いに異なる複数の画像データを出力する。 An imaging unit (imaging element) 104 includes a microlens array configured by arraying a plurality of microlenses and a light receiving element array including a plurality of light receiving elements provided corresponding to the plurality of microlenses. . The imaging unit 104 receives the light flux from the lens unit 103 (optical image formed through the lens unit 103) by the plurality of light receiving elements through the corresponding microlens, and outputs a plurality of light reception signals. The imaging unit 104 generates a plurality of image signals with different focus based on the amount of image plane displacement by the imaging optical system (lens unit 103) when the received light signal is acquired. The image signal generated by the imaging unit 104 is temporarily held in the DRAM 101 as digital data (image data). In particular, in the present embodiment, the imaging unit 104 outputs a plurality of image data having different shooting conditions for each predetermined period.
信号処理手段105は、撮像手段104により取得された画像信号を現像処理し、互いにピントが異なる複数のフレーム画像を生成する。信号処理手段105により生成された複数のフレーム画像は、DRAM101に一時的に保持される。被写体検出手段106(顔検出手段)は、信号処理手段105により生成されたフレーム画像から被写体領域(顔領域)を検出する。合焦判定手段107は、被写体検出手段106により検出された被写体領域(顔領域)の画像の高周波成分を数値化し、合焦状態を判定する。画像分類手段108は、信号処理手段105により生成された複数のフレーム画像を、撮影条件(撮影ピント条件)に応じて複数の画像群に分類する。動画符号化手段109は、画像分類手段108により分類された複数の画像群のそれぞれを用いて、複数チャンネルの動画ストリームを生成する。 The signal processing unit 105 develops the image signal acquired by the imaging unit 104 and generates a plurality of frame images with different focus. A plurality of frame images generated by the signal processing means 105 are temporarily held in the DRAM 101. The subject detection unit 106 (face detection unit) detects a subject region (face region) from the frame image generated by the signal processing unit 105. The focusing determination unit 107 digitizes the high frequency component of the image of the subject area (face area) detected by the subject detection unit 106, and determines the focusing state. The image classification unit 108 classifies the plurality of frame images generated by the signal processing unit 105 into a plurality of image groups in accordance with the photographing condition (photographing focus condition). The moving image encoding unit 109 generates a multi-channel moving image stream using each of the plurality of image groups classified by the image classification unit 108.
パネル手段110は、DRAM101に保持されたフレーム画像データを読み込む。そしてパネル手段110は、液晶素子(Liquid Crystal Display)や有機EL素子(Organic Electro−Luminescence)などの表示パネル上に、フレーム画像を表示する。Media I/F111は、撮像装置100に装着されている記録媒体200とのインタフェース(I/F)であり、DRAM101から画像データを読み込み、読み込んだ画像データを記録媒体200に記録する。制御バス112は、CPU113が撮像装置100の各ブロックへ制御指示を行うために用いられる。 The panel unit 110 reads frame image data held in the DRAM 101. Then, the panel unit 110 displays a frame image on a display panel such as a liquid crystal element (Liquid Crystal Display) or an organic EL element (Organic Electro-Luminescence). A Media I / F 111 is an interface (I / F) with the recording medium 200 mounted in the imaging apparatus 100, reads image data from the DRAM 101, and records the read image data in the recording medium 200. The control bus 112 is used by the CPU 113 to issue a control instruction to each block of the imaging device 100.
CPU113(制御装置)は、撮像装置100の全体を制御する。プログラムバス114は、CPU113と、ROM(Read Only Memory)115、RAM(Random Access Memory)116、および、操作キー117とを接続する。ROM115は、CPU113により実行されるプログラムを格納している。
また、ROM115には以下のプログラムが格納されており、CPU113によって実行可能である。RAM116は、CPU113のワークメモリである。操作キー117は、ユーザが撮像装置100の動作指示を行うためのボタンや十字キーなどの操作手段である。
The CPU 113 (control device) controls the entire imaging device 100. The program bus 114 connects the CPU 113 to a read only memory (ROM) 115, a random access memory (RAM) 116, and an operation key 117. The ROM 115 stores a program executed by the CPU 113.
Also, the following programs are stored in the ROM 115 and can be executed by the CPU 113. The RAM 116 is a work memory of the CPU 113. The operation key 117 is an operation unit such as a button or an arrow key for the user to issue an operation instruction of the imaging apparatus 100.
優先順位付け手段118は、合焦判定手段107による合焦判定結果に基づいて、各フレーム画像の重要度を優先順位付けする。画像補正手段119は、優先順位付け手段118によるフレーム画像の重要度に応じた画像補正処理を行う。また本実施形態において、ROM115は、画像補正手段119により補正されたフレーム画像ごとに、補正処理内容とフレーム画像とを関連付ける補正情報を生成する補正情報生成プログラムを記憶する。またROM115は、動画符号化手段109により生成される複数チャンネルの動画ストリームの所定位置に、前記補正情報を付加する補正情報付加プログラムを記憶する。 The prioritizing means 118 prioritizes the importance of each frame image based on the focus determination result by the focus determination means 107. The image correcting unit 119 performs image correction processing according to the importance of the frame image by the prioritizing unit 118. Further, in the present embodiment, the ROM 115 stores a correction information generation program for generating correction information that associates the correction processing content with the frame image for each frame image corrected by the image correction unit 119. Further, the ROM 115 stores a correction information addition program for adding the correction information at a predetermined position of the moving picture stream of a plurality of channels generated by the moving picture coding unit 109.
次に、図2を参照して、本実施形態における撮像装置100による記録動作について説明する。図2は、撮像装置100による記録動作のデータフロー図である。本実施形態において、撮像装置100は、撮像処理、補正・分類処理、符号化処理、および、記録処理を行い、各処理は並列に実行される。図2において、撮影フレーム画像バッファ、各Groupの符号化画像バッファと付加情報バッファ、および、ストリームバッファは、DRAM101に割り当てられたメモリ領域に相当する。 Next, with reference to FIG. 2, the recording operation by the imaging device 100 in the present embodiment will be described. FIG. 2 is a data flow diagram of the recording operation by the imaging device 100. As shown in FIG. In the present embodiment, the imaging apparatus 100 performs an imaging process, a correction / classification process, an encoding process, and a recording process, and the respective processes are performed in parallel. In FIG. 2, the photographed frame image buffer, the encoded image buffer and the additional information buffer of each group, and the stream buffer correspond to the memory area allocated to the DRAM 101.
撮影処理は、撮像手段104と信号処理手段105とを用いて行われ、所定の撮影タイミングごとに複数の撮影フレーム画像を生成する。補正・分類処理は、被写体検出手段106と合焦判定手段107とにより行われ、各フレーム画像の合焦判定結果に基づいて優先順位付け手段118により補正レベルをフレームごとに算出する。画像補正手段119は、算出された補正レベルに応じて、撮影フレーム画像バッファ内に格納されているフレーム画像に対して画像補正を行い、補正後のフレーム画像を、ピント距離などの撮影条件に応じてGroup1〜5の符号化画像バッファへ転送する。また画像補正手段119は、転送したフレーム画像に付随する補正情報を、付加情報バッファへ転送する。 The imaging process is performed using the imaging unit 104 and the signal processing unit 105, and generates a plurality of captured frame images at each predetermined imaging timing. The correction / classification processing is performed by the object detection unit 106 and the focus determination unit 107, and the priority setting unit 118 calculates the correction level for each frame based on the focus determination result of each frame image. The image correction unit 119 performs image correction on the frame image stored in the shooting frame image buffer according to the calculated correction level, and the corrected frame image is set according to shooting conditions such as a focus distance. It transfers to the encoding image buffer of Groups 1-5. The image correction unit 119 transfers correction information accompanying the transferred frame image to the additional information buffer.
符号化処理は、動画符号化手段109を用いて行われる。Group1〜5の符号化画像バッファに符号化すべきフレーム画像が格納された場合、動画符号化手段109は、Groupごとの動画ストリームとなるように符号化処理を行い、各Groupに対応するストリームバッファへ出力する。なお、各符号化画像バッファに符号化すべきフレーム画像が格納されたか否かは、CPU113または動画符号化手段109により検出される。また、動画符号化手段109により符号化される動画ストリームに関し、Group1を3次元映像の符号化Multiview Video Coding(MVC)におけるbase view(メインストリーム)として符号化する。また、Group2〜5をnon−base view(エクステントストリーム)として符号化する。 The encoding process is performed using the moving picture encoding unit 109. When a frame image to be encoded is stored in the group 1 to 5 encoded image buffer, the moving image encoding unit 109 performs encoding processing so as to be a moving image stream for each group, and to the stream buffer corresponding to each group Output. Note that whether or not a frame image to be encoded is stored in each encoded image buffer is detected by the CPU 113 or the moving image encoding unit 109. In addition, with regard to the moving picture stream to be encoded by the moving picture encoding unit 109, Group 1 is encoded as a base view (main stream) in encoding Multiview Video Coding (MVC) of 3D video. Also, the groups 2 to 5 are encoded as non-base views (extent streams).
記録処理は、Media I/F111を用いて行われる。Group1〜5のストリームバッファに記録可能な動画ストリームが格納された場合、Media I/F111は、Groupごとのファイルとなるように、記録媒体200への書き込み処理を行う。なお、ストリームバッファに記録可能な動画ストリームが格納されたか否かは、CPU113またはMedia I/F111により検出される。 The recording process is performed using the Media I / F 111. When a recordable moving picture stream is stored in the stream buffers of Groups 1 to 5, the Media I / F 111 performs a writing process on the recording medium 200 so as to be a file for each group. Note that the CPU 113 or the Media I / F 111 detects whether or not a recordable moving picture stream is stored in the stream buffer.
以上のように、撮像データは、各データバッファを介して、撮像処理、補正・分類処理、符号化処理、および、記録処理により記録媒体200に動画ストリームとして記録される。 As described above, imaging data is recorded as a moving image stream on the recording medium 200 by imaging processing, correction / classification processing, encoding processing, and recording processing via each data buffer.
次に、図3を参照して、撮像装置100による動画ストリームの生成について説明する。図3は、撮像装置100における動画ストリームの生成の説明図である。図3において、フレーム画像はピント情報ごとに生成され、縦軸はピント距離、横軸は撮像する時間をそれぞれ示している。本実施形態は、5点のピント距離F1〜F5に応じたフレーム画像を撮像周期Tごとに撮影タイミングT1〜T6で撮像するが、これに限定されるものではない。 Next, generation of a moving image stream by the imaging apparatus 100 will be described with reference to FIG. FIG. 3 is an explanatory diagram of generation of a moving image stream in the imaging apparatus 100. In FIG. 3, the frame image is generated for each piece of focus information, and the vertical axis indicates the focus distance, and the horizontal axis indicates the imaging time. In the present embodiment, frame images corresponding to five focus distances F1 to F5 are captured at imaging timings T1 to T6 for each imaging cycle T, but the present invention is not limited to this.
本実施形態において、撮影タイミングごとに生成されるフレーム画像は、撮影タイミングT1〜T6のそれぞれにおけるピント距離F1〜F5のフレーム画像(T1−F1〜T6−F5)である。また、主被写体の合焦位置は、フレーム画像T1−F3、T2−F2、T3−F1、T4−F2、T5−F3、T6−F4のように変化している。同一の撮影タイミングで生成されるフレーム画像に対して、合焦判定手段107は、主被写体領域の高周波成分量から主被写体の合焦状態を判定する。また画像分類手段108は、各フレーム画像を、主被写体領域の高周波成分が最も多い画像から最も少ない画像の順に、Group1〜Group5に分類する。 In the present embodiment, the frame images generated at each photographing timing are frame images (T1-F1 to T6-F5) of the focus distances F1 to F5 at the respective photographing timings T1 to T6. Further, the in-focus position of the main subject changes as in frame images T1-F3, T2-F2, T3-F1, T4-F2, T5-F3, and T6-F4. The in-focus determination unit 107 determines the in-focus state of the main subject based on the amount of high-frequency components of the main subject area for frame images generated at the same shooting timing. Further, the image classification unit 108 classifies each frame image into Group 1 to Group 5 in order of the image with the largest number of high frequency components in the main subject region to the smallest number of images.
この条件下において、生成される動画ストリームは、Group1〜5ごとの動画ストリームとなる。Group1の動画ストリームは、主被写体の合焦位置となるフレーム画像T1−F3、T2−F2、T3−F1、T4−F2、T5−F3、T6−F4を用いて生成された動画ストリーム(メイン動画ストリーム)である。Group2の動画ストリームは、フレーム画像T1−F2、T2−F1、T3−F2、T4−F1、T5−F2、T6−F3を用いて生成された動画ストリーム(エクステント動画ストリーム)である。同様に、Group3の動画ストリームは、フレーム画像T1−F4、T2−F3、T3−F3、T4−F3、T5−F4、T6−F5を用いて生成された動画ストリーム(エクステント動画ストリーム)である。また、Group4の動画ストリームは、フレーム画像T1−F1、T2−F4、T3−F4、T4−F4、T5−F5、T6−F2を用いて生成された動画ストリーム(エクステント動画ストリーム)である。また、Group5の動画ストリームは、フレーム画像T1−F5、T2−F5、T3−F5、T4−F5、T5−F1、T6−F1を用いて生成された動画ストリーム(エクステント動画ストリーム)である。このように、生成された5つの動画ストリーム内のフレーム画像は、主被写体のピント状態ごとのストリームとなる。Group1の動画ストリームは、常に主被写体にピントが合った動画ストリームとなる。 Under this condition, the generated video stream is a video stream for each of Groups 1 to 5. The video stream of Group 1 is a video stream (main video generated using the frame images T1-F3, T2-F2, T3-F1, T4-F2, T5-F3, and T6-F4 that are the focus positions of the main subject. Stream). The Group 2 moving image stream is a moving image stream (extent moving image stream) generated using the frame images T1-F2, T2-F1, T3-F2, T4-F1, T5-F2, and T6-F3. Similarly, the group 3 moving image stream is a moving image stream (extent moving image stream) generated using the frame images T1-F4, T2-F3, T3-F3, T4-F3, T5-F4, and T6-F5. Further, the group 4 moving image stream is a moving image stream (extent moving image stream) generated using the frame images T1-F1, T2-F4, T3-F4, T4-F4, T5-F5, and T6-F2. The group 5 moving image stream is a moving image stream (extent moving image stream) generated using the frame images T1-F5, T2-F5, T3-F5, T4-F5, T5-F1, and T6-F1. As described above, the frame images in the generated five moving image streams are streams for each focus state of the main subject. The movie stream of Group 1 is a movie stream in which the main subject is always in focus.
次に、図4を参照して、撮像装置100による撮像周期Tと、画像の補正処理期間Hとの関係について説明する。図4は、撮像装置100による撮像周期Tと画像の補正処理期間H(色収差補正、ブレ補正、歪曲補正処理の期間)との関係を示すタイミング図である。ここでは、図3を参照して説明した撮影タイミングごとに生成されるフレーム画像(T1−F1、T1−F2、・・・、T6−F5)の全てに対して、動画記録と同時に画像の補正処理を色収差補正、ブレ補正、歪曲補正の順に行う場合について説明する。ただし、本実施形態はこれに限定されるものではない。 Next, the relationship between the imaging period T by the imaging apparatus 100 and the image correction processing period H will be described with reference to FIG. FIG. 4 is a timing chart showing the relationship between the imaging cycle T by the imaging device 100 and the image correction processing period H (period of chromatic aberration correction, shake correction, distortion correction processing). Here, for all the frame images (T1-F1, T1-F2,..., T6-F5) generated at each photographing timing described with reference to FIG. A case will be described in which processing is performed in the order of chromatic aberration correction, blur correction, and distortion correction. However, the present embodiment is not limited to this.
図4に示されるように、色収差補正処理に関しては、撮像周期Tで取り込まれたフレーム画像T1−F1、T1−F2、T1−F3、T1−F4、T1−F5の全てに対して処理を行う場合、撮像周期T内に処理を完了することができる。一方、ブレ補正処理および歪曲補正は、全てのフレーム画像に対して処理を行う場合、撮像周期Tよりも長い処理時間を要する。その結果、撮像周期Tで取り込まれたフレーム画像に対して補正処理を行う場合、補正処理が完了する期間である補正処理期間Hが撮像周期Tよりも大きい。このため、動画を記録する時間は、DRAM101の撮影フレーム画像バッファに蓄積可能な時間となる。また、この条件下で長時間の動画撮影を実現するには、撮像周期Tを補正処理期間H以上とすればよいが、動画のフレームレートは低くなる。 As shown in FIG. 4, with regard to the chromatic aberration correction processing, processing is performed on all of the frame images T1-F1, T1-F2, T1-F3, T1-F4, and T1-F5 captured at the imaging cycle T. In this case, the process can be completed within the imaging cycle T. On the other hand, the blur correction process and the distortion correction require a processing time longer than the imaging cycle T when processing is performed on all frame images. As a result, when the correction process is performed on the frame image captured in the imaging cycle T, the correction processing period H in which the correction process is completed is longer than the imaging cycle T. For this reason, the time for recording a moving image is a time that can be stored in the captured frame image buffer of the DRAM 101. Moreover, in order to realize long-time moving image shooting under these conditions, the imaging cycle T may be set to the correction processing period H or more, but the moving image frame rate is lowered.
次に、図5および図6を参照して、主被写体の合焦状態による画像補正処理の優先順位の判定および優先順位に応じた画像補正処理のタイミングについて説明する。図5は、主被写体の合焦状態による画像補正処理の優先順位の判定の説明図である。図6は、画像補正処理の優先順位に応じた画像補正処理のタイミング図である。 Next, with reference to FIG. 5 and FIG. 6, the determination of the priority order of the image correction process according to the focus state of the main subject and the timing of the image correction process according to the priority order will be described. FIG. 5 is an explanatory diagram of determination of the priority order of image correction processing according to the focus state of the main subject. FIG. 6 is a timing chart of the image correction process according to the priority order of the image correction process.
図5において、図3と同様に、フレーム画像はピント情報ごとに生成され、縦軸はピント距離、横軸は撮像する時間をそれぞれ示している。本実施形態は、5点のピント距離F1〜F5に応じたフレーム画像を撮像周期Tごとに撮影タイミングT1〜T6で撮像するが、これに限定されるものではない。また図5において、図3同様に、撮影タイミングごとに生成されるフレーム画像は、撮影タイミングT1〜T6のそれぞれにおけるピント距離F1〜F5のフレーム画像(T1−F1〜T6−F5)である。また、主被写体の合焦位置は、フレーム画像T1−F3、T2−F2、T3−F1、T4−F2、T5−F3、T6−F4のように変化している。同一の撮影タイミングで生成されるフレーム画像に対して、合焦判定手段107は、主被写体領域の高周波成分量から主被写体の合焦状態を判定する。そして優先順位づけ手段118(重み付け手段)は、主被写体領域の高周波成分が最も多い画像から最も少ない画像の順に、画像補正処理の優先順位付けを行う。 In FIG. 5, as in FIG. 3, the frame image is generated for each piece of focus information, the vertical axis indicates the focus distance, and the horizontal axis indicates the imaging time. In the present embodiment, frame images corresponding to five focus distances F1 to F5 are captured at imaging timings T1 to T6 for each imaging cycle T, but the present invention is not limited to this. Further, in FIG. 5, as in FIG. 3, frame images generated at each imaging timing are frame images (T1 to F1 to T6 to F5) of focus distances F1 to F5 at imaging timings T1 to T6 respectively. Further, the in-focus position of the main subject changes as in frame images T1-F3, T2-F2, T3-F1, T4-F2, T5-F3, and T6-F4. The in-focus determination unit 107 determines the in-focus state of the main subject based on the amount of high-frequency components of the main subject area for frame images generated at the same shooting timing. Then, prioritizing means 118 (weighting means) prioritizes the image correction process in order of the image with the largest number of high frequency components in the main subject region to the smallest image.
この条件下で補正処理の優先順位付けが行われた場合、各フレーム画像は、以下のように優先順位付けされる。すなわち、優先順位の最も高いフレーム画像T1−F3、T2−F2、T3−F1、T4−F2、T5−F3、T6−F4により、メイン(Group1)動画ストリームが構成される。続いて優先順位の高いフレーム画像T1−F2、T2−F1、T3−F2、T4−F1、T5−F2、T6−F3により、エクステント(Group2)動画ストリームが構成される。続いて優先順位の高いフレーム画像T1−F4、T2−F3、T3−F3、T4−F3、T5−F4、T6−F5により、エクステント(Group3)動画ストリームが構成される。続いて優先順位の高いフレーム画像T1−F1、T2−F4、T3−F4、T4−F4、T5−F5、T6−F2により、エクステント(Group4)動画ストリームが構成される。また、優先順位の最も低いフレーム画像T1−F5、T2−F5、T3−F5、T4−F5、T5−F1、T6−F1により、エクステント(Group5)動画ストリームが構成される。 When prioritization of correction processing is performed under these conditions, each frame image is prioritized as follows. That is, the main (Group 1) moving picture stream is configured by the frame images T1-F3, T2-F2, T3-F1, T4-F2, T5-F3 and T6-F4 having the highest priority. Subsequently, an extent (Group2) moving image stream is composed of the frame images T1-F2, T2-F1, T3-F2, T4-F1, T5-F2, and T6-F3 with high priority. Subsequently, an extent (Group 3) moving image stream is configured by the frame images T1-F4, T2-F3, T3-F3, T4-F3, T5-F4, and T6-F5 with the highest priority. Subsequently, an extent (Group4) moving image stream is composed of the frame images T1-F1, T2-F4, T3-F4, T4-F4, T5-F5, and T6-F2 having a high priority. Further, the frame image T1-F5, T2-F5, T3-F5, T4-F5, T5-F1, and T6-F1 having the lowest priority form an extent (Group5) moving image stream.
画像補正手段119は、優先順位付け手段118により決定された優先順位に応じた画像補正処理を行う。本実施形態において、画像補正手段119は、以下のように、補正優先順位に応じた画像補正処理を行う。すなわち画像補正手段119は、優先順位の最も高い(優先順位1の)フレーム画像(Group1)および次に優先順位の高い(優先順位2の)フレーム画像(Group2)に対して、画像補正処理として、色収差補正、ブレ補正、および、歪曲補正を行う。また画像補正手段119は、次に優先順位の高い(優先順位3の)フレーム画像(Group3)に対して、画像補正処理として色収差補正およびブレ補正を行う。また画像補正手段119は、次に優先順位の高い(優先順位4の)フレーム画像(Group4)および最も優先順位の低い(優先順位5の)フレーム画像(Group3)に対して、画像補正処理として色収差補正を行う。 The image correction unit 119 performs an image correction process according to the priority determined by the priority setting unit 118. In the present embodiment, the image correction unit 119 performs an image correction process according to the correction priority as follows. That is, the image correction unit 119 performs, as image correction processing, the frame image (Group 1) having the highest priority (for priority 1) and the frame image (Group 2) having the next highest priority (for priority 2). Chromatic aberration correction, blur correction, and distortion correction are performed. The image correction unit 119 performs chromatic aberration correction and blur correction as image correction processing on the frame image (Group 3) having the next highest priority (priority 3). Further, the image correction unit 119 performs the chromatic aberration as an image correction process on the next highest priority (for priority 4) frame image (Group 4) and the lowest priority (for priority 5) frame image (Group 3). Make corrections.
この条件下で補正処理を行うと、図6に示されるような画像補正処理タイミングとなる。すなわち、補正優先順位の低いフレームに対しては処理時間を要する補正処理を行わないようにすることにより、撮像周期Tの期間に取り込まれたフレーム画像に対する補正処理期間Hを短くすることができる。このように本実施形態では、撮像周期Tの期間に取り込まれたフレーム画像に対して、主被写体のピント状態による画像補正処理の優先順位を決定し、その優先順位に応じて画像補正処理を変更すること。これにより、補正処理期間Hを撮像周期Tの期間よりも短くすることができ、撮影フレームレートを向上させることが可能となる。 When the correction process is performed under this condition, the image correction process timing as shown in FIG. 6 is obtained. That is, the correction processing period H for the frame image captured in the period of the imaging cycle T can be shortened by not performing the correction process that requires a processing time for the frame having a low correction priority. As described above, in the present embodiment, for the frame image captured during the imaging cycle T, the priority of the image correction processing according to the focus state of the main subject is determined, and the image correction processing is changed according to the priority. To do. Thereby, the correction processing period H can be made shorter than the period of the imaging cycle T, and the imaging frame rate can be improved.
次に、図7を参照して、図5および図6を参照して説明した主被写体の合焦状態による優先順位に応じた画像補正処理に関し、撮像装置100の動作について説明する。図7は、主被写体の合焦状態による優先順位に応じた画像補正処理に関し、撮像装置100の動作を示すフローチャートである。図7の各ステップは、主に、撮像装置100のCPU113の指令に基づいて、撮像装置100の各部(被写体検出手段106、合焦判定手段107、優先順位付け手段118、画像補正手段119)により実行される。 Next, the operation of the imaging apparatus 100 will be described with reference to FIG. 7 regarding the image correction processing according to the priority order according to the focus state of the main subject described with reference to FIGS. 5 and 6. FIG. 7 is a flowchart illustrating the operation of the imaging apparatus 100 regarding the image correction processing according to the priority order according to the focus state of the main subject. Each step in FIG. 7 is mainly performed by each part (the object detection means 106, the focus determination means 107, the priority assigning means 118, the image correction means 119) of the imaging device 100 based on an instruction of the CPU 113 of the imaging device 100. To be executed.
まず、ステップS701において、被写体検出手段106は、撮像周期Tの期間中に取り込まれた複数(N枚)のフレーム画像を用いて、主被写体領域を検出する。そして合焦判定手段107は、被写体検出手段106により検出された主被写体領域の合焦状態が最も良好なフレーム画像(主被写体合焦フレーム画像)を判定する。 First, in step S701, the subject detection unit 106 detects a main subject area using a plurality (N) of frame images captured during the imaging cycle T. Then, the in-focus determination unit 107 determines a frame image (main-object in-focus frame image) in which the in-focus state of the main object area detected by the object detection unit 106 is the best.
続いてステップS702において、優先順位付け手段118は、ステップS701にて判定された主被写体合焦フレーム画像を基準として、取り込まれたN枚のフレーム画像に対して画像補正処理の優先順位を決定する。すなわち優先順位付け手段118は、主被写体合焦フレーム画像からの距離に応じて、各フレーム画像の優先順位を決定する。続いてステップS703において、CPU113(画像補正手段119)は、画像補正処理されたフレーム画像の枚数を数える画像補正処理カウンタの値nを1に初期化する。画像補正処理カウンタの値nは、取り込まれたN枚のフレーム画像に一対一で対応付けられている。 Subsequently, in step S702, the priority assigning unit 118 determines the priority of the image correction processing for the N frame images captured based on the main subject in-focus frame image determined in step S701. . That is, the prioritizing means 118 determines the priority of each frame image according to the distance from the main subject focused frame image. In step S703, the CPU 113 (image correction unit 119) initializes the value n of the image correction processing counter that counts the number of frame images subjected to the image correction processing to one. The value n of the image correction processing counter is associated with the captured N frame images on a one-to-one basis.
続いてステップS704において、画像補正手段119は、画像補正処理カウンタの値nが取り込まれたフレーム画像の枚数N以下であるか否かを判定する。ステップS704にて画像補正処理カウンタの値Nがフレーム画像の枚数Nよりも大きい場合、CPU113(画像補正手段119)は、取り込まれた全てのフレーム画像に対する画像補正処理が完了したと判定し、本フローを終了する。一方、ステップS704にて画像補正処理カウンタの値nがフレーム画像の枚数N以下である場合、ステップS705へ進む。ステップS705において、画像補正手段119は、画像補正処理カウンタの値nに対応付けられたフレーム画像が優先順位2以上(すなわち、優先順位1または優先順位2)のフレーム画像であるか否かを判定する。 Subsequently, in step S704, the image correction unit 119 determines whether the value n of the image correction processing counter is equal to or less than the number N of captured frame images. If the value N of the image correction processing counter is larger than the number N of frame images in step S704, the CPU 113 (image correction means 119) determines that the image correction processing for all the captured frame images is completed, End the flow On the other hand, if the value n of the image correction processing counter is equal to or smaller than the number N of frame images in step S704, the process proceeds to step S705. In step S 705, the image correction unit 119 determines whether the frame image associated with the value n of the image correction processing counter is a frame image with priority 2 or higher (that is, priority 1 or priority 2). Do.
ステップS705にてフレーム画像が優先順位2以上(すなわち、優先順位1または優先順位2)のフレーム画像である場合、ステップS706へ進む。ステップS706において、画像補正手段119は、画像補正処理として、色収差補正、ブレ補正、および、歪曲補正を行う。そしてステップS707において、CPU113(画像補正手段119)は画像補正処理カウンタの値nを1インクリメントし、ステップS704へ戻る。一方、ステップS705にてフレーム画像が優先順位2未満(すなわち、優先順位3〜5)のフレーム画像である場合、ステップS708へ進む。ステップS708において、画像補正手段119は、画像補正処理カウンタの値nに対応付けられたフレーム画像が優先順位3のフレーム画像であるか否かを判定する。 If it is determined in step S705 that the frame image is a frame image of priority 2 or higher (ie, priority 1 or priority 2), the flow proceeds to step S706. In step S706, the image correction unit 119 performs chromatic aberration correction, blur correction, and distortion correction as image correction processing. Then, in step S 707, the CPU 113 (image correction means 119) increments the value n of the image correction processing counter by one, and returns to step S 704. On the other hand, if it is determined in step S705 that the frame image is less than priority 2 (ie, priority is 3 to 5), the flow proceeds to step S708. In step S708, the image correction unit 119 determines whether or not the frame image associated with the value n of the image correction processing counter is a frame image of priority 3.
ステップS708にてフレーム画像が優先順位3のフレーム画像である場合、ステップS709へ進む。ステップS709において、画像補正手段119は、画像補正処理として、色収差補正およびブレ補正を行う。そしてステップS707において、CPU113(画像補正手段119)は画像補正処理カウンタの値nを1インクリメントし、ステップS704へ戻る。一方、ステップS708にてフレーム画像が優先順位3のフレーム画像ではない場合(すなわち、優先順位4または優先順位5のフレーム画像である場合)、画像補正処理として色収差補正を行う。そしてステップS707において、CPU113(画像補正手段119)は画像補正処理カウンタの値nを1インクリメントし、ステップS704へ戻る。 If it is determined in step S708 that the frame image is a priority 3 frame image, the process advances to step S709. In step S709, the image correction unit 119 performs chromatic aberration correction and blur correction as image correction processing. Then, in step S 707, the CPU 113 (image correction means 119) increments the value n of the image correction processing counter by one, and returns to step S 704. On the other hand, if the frame image is not a priority 3 frame image (that is, a priority 4 or priority 5 frame image) in step S708, chromatic aberration correction is performed as an image correction process. Then, in step S 707, the CPU 113 (image correction means 119) increments the value n of the image correction processing counter by one, and returns to step S 704.
以上のように、同一の撮影タイミングで撮影条件の互いに異なる複数のフレーム画像を生成する撮像装置において、撮影タイミングごとに主被写体のピント状態に応じてフレーム画像を優先順位付けし、優先順位に応じた画像補正処理を行う。すなわち、相対的に重要な主被写体の合焦フレーム画像に対しては十分な画像補正処理を行い、相対的な重要度が低いフレーム画像に対しては画像補正処理を削減する。この結果、複数の動画ストリーム撮影において、フレームレートを向上させることができ、または、フレームレートの低下を回避することができる。 As described above, in an imaging device that generates a plurality of frame images having different shooting conditions at the same shooting timing, the frame images are prioritized according to the focus state of the main subject at each shooting timing, and the priority order is set accordingly. Perform image correction processing. That is, sufficient image correction processing is performed on a focused frame image of a relatively important main subject, and image correction processing is reduced on a frame image having a relatively low degree of importance. As a result, it is possible to improve the frame rate in a plurality of moving image stream shootings, or to avoid a decrease in the frame rate.
(第2実施形態)
次に、図8および図9を参照して、本発明の第2実施形態について説明する。本実施形態は、優先順位に応じた画像補正処理を行う際に、直前の補正処理期間H1に基づいて、補正処理期間H2における補正処理を変更する点で、第1実施形態とは異なる。なお、本実施形態における撮像装置の基本構成および基本動作は、図1を参照して説明した第1実施形態の撮像装置100の構成及び動作とそれぞれ同様であるため、それらに関する共通の説明は省略する。
Second Embodiment
Next, a second embodiment of the present invention will be described with reference to FIGS. 8 and 9. The present embodiment is different from the first embodiment in that the correction processing in the correction processing period H2 is changed based on the previous correction processing period H1 when performing the image correction processing according to the priority. The basic configuration and the basic operation of the imaging device in the present embodiment are the same as the configuration and the operation of the imaging device 100 of the first embodiment described with reference to FIG. To do.
図8は、主被写体の合焦状態による画像補正処理の優先順位に応じた画像補正処理のタイミング図である。図8において、撮像周期T(撮影タイミングT1、T2)で取り込まれたフレーム画像に対する補正処理の優先順位および補正処理の種類は、以下のとおりである。すなわち画像補正手段119は、優先順位の最も高い(優先順位1の)フレーム画像および次に優先順位の高い(優先順位2の)フレーム画像に対して、画像補正処理として、色収差補正、ブレ補正、および、歪曲補正を行う。また画像補正手段119は、次に優先順位の高い(優先順位3の)フレーム画像に対して、画像補正処理として色収差補正およびブレ補正を行う。また画像補正手段119は、次に優先順位の高い(優先順位4の)フレーム画像および最も優先順位の低い(優先順位5の)フレーム画像に対して、画像補正処理として色収差補正を行う。 FIG. 8 is a timing chart of the image correction process according to the priority order of the image correction process depending on the focus state of the main subject. In FIG. 8, the priority order of the correction process and the type of correction process for the frame image captured at the imaging cycle T (shooting timings T1 and T2) are as follows. That is, the image correction unit 119 performs color aberration correction, blurring correction, and the like as image correction processing on the frame image with the highest priority (of priority 1) and the frame image of the next highest priority (with priority 2). And distortion correction is performed. Further, the image correction unit 119 performs chromatic aberration correction and shake correction as an image correction process on the next highest priority frame image (of priority 3). The image correcting unit 119 performs chromatic aberration correction as an image correction process on the frame image having the next highest priority (priority 4) and the frame image having the lowest priority (priority 5).
この条件下で補正処理を行うと、図8に示されるような画像補正処理タイミングとなる。撮影タイミングT1の期間中に取り込まれたフレーム画像に対する補正処理期間H1は、撮像周期T(撮影タイミングT1)より長い。この場合、本実施形態では、次の撮像期間T(撮影タイミングT2)で取り込まれたフレーム画像に対する優先順位および補正処理の種類を変更する。例えば、撮影タイミングT2における変更後の優先順位および補正処理の種類は、以下のとおりである。すなわち画像補正手段119は、優先順位の最も高い(優先順位1の)フレーム画像に対して、画像補正処理として、色収差補正、ブレ補正、および、歪曲補正を行う。また画像補正手段119は、次に優先順位の高い(優先順位2の)フレーム画像、および、更に次に優先順位の高い(優先順位3の)フレーム画像に対して、画像補正処理として色収差補正およびブレ補正を行う。また画像補正手段119は、次に優先順位の高い(優先順位4の)フレーム画像および最も優先順位の低い(優先順位5の)フレーム画像に対して、画像補正処理として色収差補正を行う。 When the correction process is performed under this condition, the image correction process timing as shown in FIG. 8 is obtained. The correction processing period H1 for the frame image captured during the period of the imaging timing T1 is longer than the imaging period T (imaging timing T1). In this case, in the present embodiment, the priority order and type of correction processing for the frame image captured in the next imaging period T (imaging timing T2) are changed. For example, the priority order and the type of correction processing after the change at the photographing timing T2 are as follows. That is, the image correction unit 119 performs chromatic aberration correction, shake correction, and distortion correction as image correction processing on the frame image with the highest priority (priority 1). The image correcting unit 119 performs chromatic aberration correction and image correction processing on the frame image having the next highest priority (priority 2) and the frame image having the second highest priority (priority 3). Perform image stabilization. The image correcting unit 119 performs chromatic aberration correction as an image correction process on the frame image having the next highest priority (priority 4) and the frame image having the lowest priority (priority 5).
このように優先順位に対する補正処理の種類を変更すると、撮影タイミングT2の期間中に取り込まれたフレーム画像に対する画像補正処理期間H2は撮像周期T(撮影タイミングT2)以下となる。この結果、次の撮像周期T(撮影タイミングT3)で取り込まれるフレーム画像への画像補正処理期間H3を確保することが可能となる。 As described above, when the type of correction processing for the priority is changed, the image correction processing period H2 for a frame image captured during the imaging timing T2 becomes equal to or less than the imaging cycle T (imaging timing T2). As a result, it is possible to secure an image correction processing period H3 for a frame image captured at the next imaging cycle T (imaging timing T3).
次に、図9を参照して、図8を参照して説明した主被写体の合焦状態による優先順位に応じた画像補正処理に関し、撮像装置100の動作について説明する。図9は、主被写体の合焦状態による優先順位に応じた画像補正処理に関し、撮像装置100の動作を示すフローチャートである。図9の各ステップは、主に、撮像装置100のCPU113の指令に基づいて画像補正手段119により実行される。また、図9のフローは、撮影周期Tごとに、すなわち撮影タイミングT1、T2、・・・、Tn、Tn+1、・・・ごとに実行される。なお、優先順位に対応する画像補正処理は、図7を参照して説明した第1実施形態の画像補正処理を初期値(標準画像補正処理)とする。 Next, with reference to FIG. 9, the operation of the imaging apparatus 100 will be described with regard to the image correction processing according to the priority according to the in-focus state of the main subject described with reference to FIG. FIG. 9 is a flowchart showing an operation of the imaging apparatus 100 regarding the image correction processing according to the priority according to the in-focus state of the main subject. Each step in FIG. 9 is mainly executed by the image correction unit 119 based on a command from the CPU 113 of the imaging apparatus 100. Further, the flow of FIG. 9 is executed for each shooting cycle T, that is, for each shooting timing T1, T2,..., Tn, Tn + 1,. In the image correction process corresponding to the priority order, the image correction process of the first embodiment described with reference to FIG. 7 is set as an initial value (standard image correction process).
まず、ステップS901において、画像補正手段119は、設定されている優先順位に対応するフレーム画像に対して、図7を参照して説明した優先順位に応じた画像補正処理(標準画像補正処理または第1画像補正処理)を行う。このとき実行された補正処理期間Hに関し、撮影タイミングT1、T2、・・・Tn、Tn+1、・・・に対応する補正処理期間HをそれぞれH1、H2、・・・Hn、Hn+1、・・・とする。 First, in step S901, the image correcting unit 119 performs image correction processing (standard image correction processing or first image processing) according to the priority order described with reference to FIG. 7 on the frame image corresponding to the set priority order. 1 image correction process). With respect to the correction processing period H executed at this time, the correction processing periods H corresponding to the photographing timings T1, T2,... Tn, Tn + 1,... Are H1, H2,. I assume.
続いてステップS902において、画像補正手段119は、ステップS901にて実行した撮影タイミングTn(直前の撮影タイミング)に対応する補正処理期間Hnが撮影周期T以上であるか否かを判定する。ステップS902にて撮影タイミングTnに対応する補正処理期間Tnが撮影周期T以上である場合、ステップS903へ進む。ステップS903において、画像補正手段119は、次の撮影タイミングTn+1に対応する画像補正期間Hn+1が短くなるように、優先順位に応じた補正処理(の内容または種類)を変更する。このとき画像補正手段119は、例えば図8を参照して説明したように、各優先順位に対応する画像補正処理の種類を変更する。すなわち、優先順位2のフレーム画像に対する画像補正処理として、色収差補正およびブレ補正のみを行うように(すなわち、歪曲補正を行わないように)変更する。本実施形態では、このときの画像補正処理を第2画像補正処理という。 Subsequently, in step S902, the image correction unit 119 determines whether the correction processing period Hn corresponding to the photographing timing Tn (preceding photographing timing) executed in step S901 is equal to or more than the photographing cycle T. If the correction processing period Tn corresponding to the shooting timing Tn is equal to or longer than the shooting cycle T in step S902, the process proceeds to step S903. In step S 903, the image correction unit 119 changes (the content or type of) the correction processing according to the priority so that the image correction period Hn + 1 corresponding to the next shooting timing Tn + 1 becomes short. At this time, as described with reference to, for example, FIG. 8, the image correction unit 119 changes the type of the image correction process corresponding to each priority. That is, as the image correction process for the frame image of priority 2, only the chromatic aberration correction and the shake correction are performed (that is, the distortion correction is not performed). In the present embodiment, the image correction process at this time is referred to as a second image correction process.
また本実施形態において、現在設定されている優先順位に対応する画像補正処理が第2画像補正処理である場合、次に設定される画像補正処理として、第3画像補正処理の内容に変更することができる。例えば、現在設定されている画像補正処理が第2画像補正処理である場合、第3画像補正処理を以下のように設定する。すなわち画像補正手段119は、優先順位の最も高い(優先順位1の)フレーム画像に対して、画像補正処理として、色収差補正およびブレ補正を行う。また画像補正手段119は、次に優先順位の高い(優先順位2の)フレーム画像、および、更に次に優先順位の高い(優先順位3の)フレーム画像に対して、画像補正処理として色収差補正を行う。また画像補正手段119は、次に優先順位の高い(優先順位4の)フレーム画像および最も優先順位の低い(優先順位5の)フレーム画像に対して、画像補正処理を行わない。 In the present embodiment, when the image correction process corresponding to the currently set priority order is the second image correction process, the content of the third image correction process is changed as the image correction process to be set next. Can. For example, when the currently set image correction process is the second image correction process, the third image correction process is set as follows. That is, the image correction unit 119 performs chromatic aberration correction and shake correction as an image correction process on the frame image with the highest priority (priority 1). The image correction unit 119 performs chromatic aberration correction as an image correction process on the frame image having the next highest priority (priority 2) and the frame image having the second highest priority (priority 3). Do. Further, the image correction unit 119 does not perform the image correction process on the next highest priority frame image (of priority 4) and the lowest priority frame image (of priority 5).
以上のとおり、本実施形態では、直前の画像補正処理が撮影周期T以上である場合、次の画像補正処理の内容や種類を削減するように(画像補正処理の性能が低減するように)、次の画像補正処理を設定する。例えば、直前の画像補正処理が標準画像補正処理(第1画像補正処理)である場合、次の画像補正処理期間に実行される画像補正処理として第2画像補正処理を設定する。同様に、直前の画像補正処理が第2画像補正処理である場合、次の画像補正処理期間に実行される画像補正処理として第3画像補正処理を設定する。また、直前の画像補正処理が第3画像補正処理である場合、次の画像補正処理期間には画像補正処理を行わない。また、直前の画像補正処理期間において画像補正処理が行われない場合、次の画像補正処理期間においても画像補正処理を行わない。 As described above, in the present embodiment, when the immediately preceding image correction process is equal to or longer than the imaging cycle T, the content and type of the next image correction process are reduced (so that the performance of the image correction process is reduced) Set the next image correction process. For example, if the immediately preceding image correction process is a standard image correction process (first image correction process), the second image correction process is set as an image correction process to be executed during the next image correction process period. Similarly, when the immediately preceding image correction process is the second image correction process, the third image correction process is set as the image correction process to be executed during the next image correction process period. When the immediately preceding image correction process is the third image correction process, the image correction process is not performed during the next image correction process period. Further, when the image correction process is not performed in the immediately preceding image correction process period, the image correction process is not performed in the next image correction process period.
一方、ステップS902にて直前の画像補正処理が撮影周期Tよりも小さい場合、ステップS904へ進む。ステップS904において、画像補正手段119は、次の撮影タイミングTn+1での画像補正処理の性能が向上するように、優先順位に応じた画像補正処理の内容または種類を変更する。例えば、直前の画像補正処理が標準画像補正処理(第1画像補正処理)である場合、次の画像補正処理期間に実行される画像補正処理として、標準画像補正処理(第1画像補正処理)を設定する。また、直前の画像補正処理が第2画像補正処理である場合、次の画像補正処理期間に実行される画像補正処理として、標準画像補正処理(第1画像補正処理)を設定する。また、直前の画像補正処理が第3画像補正処理である場合、次の画像補正処理期間に実行される画像補正処理として、第2画像補正処理を設定する。また、直前の画像補正処理期間において画像補正処理が行われない場合、次の画像補正処理期間に実行される画像補正処理として、第3画像補正処理を設定する。 On the other hand, if the immediately preceding image correction process is smaller than the shooting period T in step S902, the process proceeds to step S904. In step S904, the image correction unit 119 changes the content or type of the image correction process according to the priority order so that the performance of the image correction process at the next shooting timing Tn + 1 is improved. For example, when the immediately preceding image correction process is the standard image correction process (first image correction process), the standard image correction process (first image correction process) is performed as the image correction process executed in the next image correction process period. Set When the immediately preceding image correction process is the second image correction process, the standard image correction process (first image correction process) is set as the image correction process to be executed during the next image correction process period. Further, if the immediately preceding image correction process is the third image correction process, the second image correction process is set as the image correction process to be executed during the next image correction process period. When the image correction process is not performed in the immediately preceding image correction process period, the third image correction process is set as the image correction process to be executed in the next image correction process period.
なお本実施形態において、各フレーム画像に対する画像補正処理を動的に変更したが、これに限定されるものではない。例えば、各フレーム画像に対する画像補正処理の内容を、CPU113により実行される補正情報付加処理プログラムに従って、動画ストリームに付加して記録してもよい。 In the present embodiment, the image correction process for each frame image is dynamically changed, but the present invention is not limited to this. For example, the contents of the image correction processing for each frame image may be added to the moving picture stream and recorded in accordance with a correction information addition processing program executed by the CPU 113.
このように本実施形態では、直前の撮影タイミングで取り込まれたフレーム画像に対する画像補正処理期間が撮像周期以上の期間である場合、次の撮影タイミングでの優先順位および画像補正処理の内容や種類を動的に変更する。これにより、複数の動画ストリーム撮影におけるフレームメモリのオーバーフローを効果的に回避することができ、撮影フレームレートを安定させることが可能となる。 As described above, in the present embodiment, when the image correction processing period for the frame image captured at the immediately preceding shooting timing is a period equal to or longer than the shooting cycle, the priority order at the next shooting timing and the content and type of the image correction processing are set. Dynamically change. As a result, it is possible to effectively avoid the frame memory overflow in shooting of a plurality of moving picture streams, and it is possible to stabilize the shooting frame rate.
このように各実施形態において、画像処理装置(撮像装置100)は、信号処理手段105、優先順位付け手段118、および、画像補正手段119を有する。信号処理手段105は、所定期間(撮影周期T、撮影タイミング)ごとに撮影された、撮影条件が互いに異なる複数のフレーム画像を生成する。優先順位付け手段118は、複数のフレーム画像に関して優先順位を付ける(スコアを算出する)。画像補正手段119は、複数のフレーム画像に対して補正処理を行う。また画像補正手段119は、優先順位に応じて複数のフレーム画像に対する補正処理を変更する。 As described above, in each embodiment, the image processing apparatus (the imaging apparatus 100) includes the signal processing unit 105, the priority assigning unit 118, and the image correction unit 119. The signal processing means 105 generates a plurality of frame images which are photographed at predetermined intervals (photographing cycle T, photographing timing) and whose photographing conditions are different from each other. The prioritizing means 118 assigns priorities (calculates scores) for a plurality of frame images. The image correction unit 119 performs correction processing on a plurality of frame images. Further, the image correction unit 119 changes the correction processing for a plurality of frame images according to the priority.
好ましくは、優先順位付け手段118は、複数のフレーム画像に関し、撮影条件に応じて優先順位を付ける。また好ましくは、画像補正手段119は、複数のフレーム画像のうち、優先順位が第1優先順位である第1フレーム画像に対して、第1処理負荷の第1補正処理を行う。また画像補正手段119は、複数のフレーム画像のうち、優先順位が第1優先順位よりも低い第2優先順位である第2フレーム画像に対して、第1処理負荷よりも小さい第2処理負荷の第2補正処理を行う。ここで、補正処理の処理負荷とは、補正処理の数や強度などに応じた負荷であり、処理負荷に応じて補正処理に要する時間は変化する。また好ましくは、画像処理装置は、所定期間ごとの複数のフレーム画像に基づいて複数チャンネルの動画データ(動画ストリーム)を生成する動画符号化手段109を有する。 Preferably, the prioritizing means 118 assigns priorities according to the shooting conditions for a plurality of frame images. Preferably, the image correction unit 119 performs a first correction process of the first processing load on a first frame image having a first priority among the plurality of frame images. In addition, the image correction unit 119 has a second processing load smaller than the first processing load on a second frame image having a second priority lower than the first priority among the plurality of frame images. A second correction process is performed. Here, the processing load of the correction processing is a load corresponding to the number and strength of the correction processing, and the time required for the correction processing changes according to the processing load. In addition, preferably, the image processing apparatus includes a moving image encoding unit 109 that generates moving image data (moving image stream) of a plurality of channels based on a plurality of frame images for each predetermined period.
好ましくは、画像処理装置は、複数のフレーム画像から被写体領域を検出する被写体検出手段106と、被写体領域の合焦状態を判定する合焦判定手段107とを有する。優先順位付け手段118は、合焦状態に応じて優先順位を付ける。より好ましくは、優先順位付け手段118は、複数のフレーム画像のうち、合焦状態が第1合焦状態である第1フレーム画像の優先順位を、第1優先順位とする。また優先順位付け手段118は、合焦状態が第1合焦状態よりも高周波成分の少ない第2合焦状態である第2フレーム画像の優先順位を、第1優先順位よりも低い第2優先順位とする。 Preferably, the image processing apparatus includes a subject detection unit 106 that detects a subject region from a plurality of frame images, and a focus determination unit 107 that determines the in-focus state of the subject region. Prioritizing means 118 assigns priorities according to the in-focus state. More preferably, the priority assigning unit 118 sets, as the first priority, the priority of the first frame image in which the in-focus state is the first in-focus state among the plurality of frame images. The prioritizing means 118 also sets the second frame image in which the in-focus state is in the second in-focus state with less high-frequency components than the first in-focus state to the second priority order lower than the first priority order. I assume.
好ましくは、画像補正手段119は、補正処理として、複数のフレーム画像に対するブレ補正処理を行い、優先順位に応じてブレ補正処理の強度を変更する。例えば、主被写体にピントが合っているフレーム画像のピント位置からの距離が離れるほど補正処理の強度(レベル)を低下させ、または、ブレ補正処理中の探索範囲を狭める。また好ましくは、画像補正手段119は、補正処理として、複数のフレーム画像に対する歪曲補正処理を行い、優先順位に応じて歪曲補正処理の強度を変更する。このとき、主被写体にピントが合っているフレーム画像を基準として所定の優先順位のフレーム画像に関してのみ歪曲補正処理を行うようにしてもよい。また好ましくは、画像補正手段119は、複数のフレーム画像に対する色収差補正処理を行い、優先順位に応じて色収差補正処理の強度を変更する。このとき、高周波成分が低い(すなわち、ほとんどぼけている)フレーム画像に対して色収差補正をしないようにしてもよい。 Preferably, as the correction processing, the image correction unit 119 performs shake correction processing on a plurality of frame images, and changes the strength of the shake correction processing according to the priority. For example, as the distance from the focus position of the frame image in which the main subject is in focus is increased, the strength (level) of the correction processing is decreased, or the search range during the blur correction processing is narrowed. Preferably, the image correction unit 119 performs distortion correction processing on a plurality of frame images as correction processing, and changes the strength of the distortion correction processing according to priority. At this time, the distortion correction processing may be performed only for the frame images having a predetermined priority order with reference to the frame image in focus on the main subject. Preferably, the image correction unit 119 performs chromatic aberration correction processing on a plurality of frame images, and changes the intensity of the chromatic aberration correction processing according to the priority. At this time, chromatic aberration correction may not be performed on a frame image having a low high-frequency component (that is, almost blurred).
好ましくは、画像補正手段119は、補正処理に要する処理時間に応じて、優先順位に応じた補正処理方法を変更する。より好ましくは、画像補正手段は、所定期間としての第1撮影タイミングで撮影される複数のフレーム画像に対する補正処理の処理時間に基づき、第1撮影タイミングよりも後の第2撮影タイミングで撮影される複数のフレーム画像に対する補正処理方法を決定する。より好ましくは、第1撮影タイミングは第2撮影タイミングの直前の撮影タイミングである。また好ましくは、画像処理装置は、補正処理に関する補正情報をフレーム画像ごとに生成する補正情報生成手段(CPU113、ROM115、補正情報生成プログラム)を有する。また画像処理装置は、所定期間ごとの複数のフレーム画像に基づいて生成される複数チャンネルの動画データ(動画ストリーム)に、補正処理に関する補正情報を付加する補正情報付加手段(CPU113、ROM115、情報付加プログラム)を有する。補正処理に関する補正情報を動画ストリームに付加することにより、未補正の画像に対して再生時に補正を行うことができる。 Preferably, the image correction unit 119 changes the correction processing method according to the priority order according to the processing time required for the correction processing. More preferably, the image correcting unit captures images at a second imaging timing after the first imaging timing based on a processing time of correction processing for a plurality of frame images captured at the first imaging timing as a predetermined period. A correction processing method for a plurality of frame images is determined. More preferably, the first shooting timing is a shooting timing immediately before the second shooting timing. Preferably, the image processing apparatus includes correction information generation means (CPU 113, ROM 115, correction information generation program) for generating correction information related to correction processing for each frame image. The image processing apparatus further includes correction information adding means (CPU 113, ROM 115, information addition) for adding correction information related to correction processing to moving image data (moving image stream) of a plurality of channels generated based on a plurality of frame images for each predetermined period. Program). By adding correction information related to the correction process to the moving image stream, it is possible to correct an uncorrected image during reproduction.
好ましくは、信号処理手段105は、撮影条件として合焦位置(合焦距離またはピント距離)が互いに異なる複数のフレーム画像を生成する。より好ましくは、優先順位付け手段118は、複数のフレーム画像のうち、主被写体と合焦位置とが最も近いフレーム画像を最優先フレーム画像とする。また画像補正手段119は、最優先フレーム画像に対する補正処理の強度を、最優先フレーム画像を除く他のフレーム画像に対する補正処理の強度よりも強くする。 Preferably, the signal processing unit 105 generates a plurality of frame images having different focus positions (focus distance or focus distance) as imaging conditions. More preferably, the priority assigning unit 118 sets a frame image closest to the main subject and the in-focus position among the plurality of frame images as the highest priority frame image. Further, the image correction means 119 makes the strength of the correction processing for the top priority frame image stronger than the strength of the correction processing for the other frame images excluding the top priority frame image.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
各実施形態によれば、所定期間に撮影条件(合焦条件)が互いに異なる複数のフレーム画像を、主被写体の合焦条件に応じて優先順位を付け、優先順位に応じてフレーム画像ごとに画像補正処理を変更する。この結果、より高いフレームレートの複数の動画を同時に記録することができる。すなわち各実施形態によれば、主被写体のピント状態に応じて複数のフレーム画像の画像補正処理を変更することにより、高いフレームレートで複数の動画を取得可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。 According to each embodiment, a plurality of frame images having different shooting conditions (focusing conditions) in a predetermined period are prioritized according to the focusing condition of the main subject, and each frame image is imaged according to the priority order. Change the correction process. As a result, a plurality of moving images having a higher frame rate can be recorded simultaneously. That is, according to each embodiment, an image processing device, an imaging device, and an image processing capable of acquiring a plurality of moving images at a high frame rate by changing the image correction processing of the plurality of frame images according to the focus state of the main subject. A method, program, and storage medium can be provided.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
100 撮像装置(画像処理装置)
105 信号処理手段
118 優先順位付け手段
119 画像補正手段
100 Imaging device (image processing device)
105 Signal processing means 118 Prioritizing means 119 Image correction means
Claims (18)
前記複数のフレーム画像に関して優先順位を付ける優先順位付け手段と、
前記複数のフレーム画像に対して補正処理を行う画像補正手段と、を有し、
前記画像補正手段は、前記優先順位に応じて前記複数のフレーム画像に対する前記補正処理を変更する、ことを特徴とする画像処理装置。 Signal processing means for generating a plurality of frame images which are photographed at predetermined intervals and which have different photographing conditions;
Priority ordering means for prioritizing the plurality of frame images;
Image correction means for performing correction processing on the plurality of frame images,
The image processing apparatus, wherein the image correction unit changes the correction processing on the plurality of frame images in accordance with the priority.
前記優先順位が第1優先順位である第1フレーム画像に対して、第1処理負荷の第1補正処理を行い、
前記優先順位が前記第1優先順位よりも低い第2優先順位である第2フレーム画像に対して、前記第1処理負荷よりも小さい第2処理負荷の第2補正処理を行う、ことを特徴とする請求項1または2に記載の画像処理装置。 The image correction unit is configured to, of the plurality of frame images,
Performing a first correction process of a first processing load on a first frame image in which the priority is a first priority;
A second correction process of a second processing load smaller than the first processing load is performed on a second frame image having a second priority which is lower than the first priority. The image processing apparatus according to claim 1 or 2.
前記被写体領域の合焦状態を判定する合焦判定手段と、を更に有し、
前記優先順位付け手段は、前記合焦状態に応じて前記優先順位を付ける、ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。 Subject detection means for detecting a subject region from the plurality of frame images;
Focusing determination means for determining a focusing state of the subject area;
The image processing apparatus according to any one of claims 1 to 4, wherein the priority assigning unit assigns the priority according to the in-focus state.
前記合焦状態が第1合焦状態である第1フレーム画像の前記優先順位を、第1優先順位とし、
前記合焦状態が前記第1合焦状態よりも高周波成分の少ない第2合焦状態である第2フレーム画像の前記優先順位を、前記第1優先順位よりも低い第2優先順位とする、ことを特徴とする請求項5に記載の画像処理装置。 The prioritizing unit is configured to, of the plurality of frame images,
The priority of the first frame image in which the in-focus state is the first in-focus state is set as a first priority,
Setting the priority of the second frame image in which the in-focus state is a second in-focus state in which the high-frequency component is smaller than that of the first in-focus state to a second priority lower than the first priority; The image processing apparatus according to claim 5, characterized in that
前記補正処理として、前記複数のフレーム画像に対するブレ補正処理を行い、
前記優先順位に応じて前記ブレ補正処理の強度を変更する、ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。 The image correcting means includes
As the correction processing, shake correction processing is performed on the plurality of frame images;
The image processing apparatus according to any one of claims 1 to 6, wherein the strength of the shake correction process is changed according to the priority.
前記補正処理として、前記複数のフレーム画像に対する歪曲補正処理を行い、
前記優先順位に応じて前記歪曲補正処理の強度を変更する、ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 The image correcting means includes
As the correction processing, distortion correction processing for the plurality of frame images is performed,
The image processing apparatus according to any one of claims 1 to 7, wherein the strength of the distortion correction process is changed according to the priority.
前記優先順位に応じて前記色収差補正処理の強度を変更する、ことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 The image correction means performs chromatic aberration correction processing on the plurality of frame images,
The image processing apparatus according to any one of claims 1 to 8, wherein the intensity of the chromatic aberration correction process is changed according to the priority.
前記所定期間ごとの前記複数のフレーム画像に基づいて生成される複数チャンネルの動画データに、前記補正処理に関する補正情報を付加する補正情報付加手段と、を有する、ことを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。 Correction information generating means for generating correction information related to the correction processing for each frame image;
4. A correction information adding unit for adding correction information related to the correction process to moving image data of a plurality of channels generated based on the plurality of frame images for each predetermined period. 11. The image processing device according to any one of 11.
前記画像補正手段は、前記最優先フレーム画像に対する前記補正処理の強度を、該最優先フレーム画像を除く他のフレーム画像に対する該補正処理の強度よりも強くする、ことを特徴とする請求項13に記載の画像処理装置。 Among the plurality of frame images, the prioritizing means sets a frame image closest to the main subject and the in-focus position as a top priority frame image.
14. The image processing method according to claim 13, wherein the image correction means makes the strength of the correction processing for the top priority frame image stronger than the strength of the correction processing for other frame images excluding the top priority frame image. The image processing apparatus described.
前記複数の画像データに基づいて複数のフレーム画像を生成する信号処理手段と、
前記複数のフレーム画像に関して優先順位を付ける優先順位付け手段と、
前記複数のフレーム画像に対して補正処理を行う画像補正手段と、を有し、
前記画像補正手段は、前記優先順位に応じて前記複数のフレーム画像に対する前記補正処理を変更する、ことを特徴とする撮像装置。 Imaging means for outputting a plurality of image data having different shooting conditions for each predetermined period;
Signal processing means for generating a plurality of frame images based on the plurality of image data;
Priority ordering means for prioritizing the plurality of frame images;
Image correction means for performing correction processing on the plurality of frame images,
The image pickup apparatus, wherein the image correction unit changes the correction processing on the plurality of frame images in accordance with the priority.
前記複数のフレーム画像に関して優先順位を付けるステップと、
前記複数のフレーム画像に対して補正処理を行うステップと、を有し、
前記補正処理を行うステップは、前記優先順位に応じて前記複数のフレーム画像に対する前記補正処理を変更するステップを含む、ことを特徴とする画像処理方法。 Generating a plurality of frame images captured at predetermined intervals and having different imaging conditions;
Prioritizing the plurality of frame images;
Performing a correction process on the plurality of frame images;
The image processing method according to claim 1, wherein the step of performing the correction process includes the step of changing the correction process on the plurality of frame images according to the priority order.
前記複数のフレーム画像に関して優先順位を付けるステップと、
前記複数のフレーム画像に対して補正処理を行うステップと、をコンピュータに実行させるプログラムであって、
前記補正処理を行うステップは、前記優先順位に応じて前記複数のフレーム画像に対する前記補正処理を変更するステップを含む、ことを特徴とするプログラム。 Generating a plurality of frame images captured at predetermined intervals and having different imaging conditions;
Prioritizing the plurality of frame images;
A program for causing a computer to execute a correction process on the plurality of frame images.
The program according to claim 1, wherein the step of performing the correction process includes the step of changing the correction process on the plurality of frame images according to the priority.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015179109A JP6552351B2 (en) | 2015-09-11 | 2015-09-11 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015179109A JP6552351B2 (en) | 2015-09-11 | 2015-09-11 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017055315A JP2017055315A (en) | 2017-03-16 |
JP6552351B2 true JP6552351B2 (en) | 2019-07-31 |
Family
ID=58321149
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015179109A Active JP6552351B2 (en) | 2015-09-11 | 2015-09-11 | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6552351B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108200338A (en) * | 2017-12-29 | 2018-06-22 | 广东欧珀移动通信有限公司 | Real-time focusing method, imaging device and computer readable storage medium |
CN115150542B (en) * | 2021-03-30 | 2023-11-14 | 华为技术有限公司 | Video anti-shake method and related equipment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3595745B2 (en) * | 1999-01-29 | 2004-12-02 | キヤノン株式会社 | Image processing device |
JP2007022176A (en) * | 2005-07-13 | 2007-02-01 | Auto Network Gijutsu Kenkyusho:Kk | Ocularly acknowledging device for surrounding area of vehicle |
JP4816272B2 (en) * | 2006-06-12 | 2011-11-16 | 富士ゼロックス株式会社 | Image processing apparatus and control program |
JP6200300B2 (en) * | 2013-11-28 | 2017-09-20 | キヤノン株式会社 | Image processing apparatus and method, and imaging apparatus |
-
2015
- 2015-09-11 JP JP2015179109A patent/JP6552351B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017055315A (en) | 2017-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107948519B (en) | Image processing method, device and equipment | |
CN103973999B (en) | Camera device and its control method | |
US9998650B2 (en) | Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map | |
JP6903816B2 (en) | Image processing method and equipment | |
CN107493432B (en) | Image processing method, image processing device, mobile terminal and computer readable storage medium | |
KR101566081B1 (en) | Image processing apparatus, image processing method, and storage medium | |
US9832382B2 (en) | Imaging apparatus and imaging method for outputting image based on motion | |
JP2016161884A (en) | Imaging device and control method of the same | |
JP6270413B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2016208075A (en) | Image output device, method for controlling the same, imaging apparatus, and program | |
US20180063399A1 (en) | Image processing apparatus and method, image capturing apparatus, and storage medium | |
US9247168B2 (en) | Imaging device including focusing pixels | |
JP6552351B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
CN112866553A (en) | Focusing method and device, electronic equipment and computer readable storage medium | |
US11159725B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP5996418B2 (en) | Imaging apparatus and imaging method | |
US20190297269A1 (en) | Control apparatus, imaging apparatus, and control method | |
JP2016042662A (en) | Image processing system, imaging apparatus, image processing method, program, and storage medium | |
JP6016546B2 (en) | Imaging device, control method thereof, and control program | |
US11729506B2 (en) | Imaging element with processor configured to receive vibration information, imaging apparatus, operation method of imaging element, and program | |
JP2015005891A (en) | Imaging apparatus and control method for the same | |
US9521355B2 (en) | Image processing apparatus, image processing method and program thereof | |
CN115484402B (en) | Image processing method, electronic device, and computer-readable storage medium | |
JP2017188839A (en) | Image processing device and control method thereof, imaging device, program | |
JP6630173B2 (en) | Imaging device, imaging control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180723 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190702 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6552351 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |