JP2015173388A - Imaging apparatus and control method therefor - Google Patents

Imaging apparatus and control method therefor Download PDF

Info

Publication number
JP2015173388A
JP2015173388A JP2014048763A JP2014048763A JP2015173388A JP 2015173388 A JP2015173388 A JP 2015173388A JP 2014048763 A JP2014048763 A JP 2014048763A JP 2014048763 A JP2014048763 A JP 2014048763A JP 2015173388 A JP2015173388 A JP 2015173388A
Authority
JP
Japan
Prior art keywords
geometric deformation
image
motion vector
deformation parameter
posture change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014048763A
Other languages
Japanese (ja)
Other versions
JP6316030B2 (en
Inventor
見 寺澤
Ken Terasawa
見 寺澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014048763A priority Critical patent/JP6316030B2/en
Publication of JP2015173388A publication Critical patent/JP2015173388A/en
Application granted granted Critical
Publication of JP6316030B2 publication Critical patent/JP6316030B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress the magnification of system resources required for processing to correct a posture change of an imaging apparatus body, with the reduction of processing time and power consumption.SOLUTION: An imaging apparatus 100 performs the processing of: acquiring, when generating an image from the output of an imaging device 102, the posture change information of the imaging apparatus 100; detecting each motion vector from a plurality of time continuous images; predicting a motion vector between with the subsequent image, from the motion vectors at present and in the past; estimating, from the posture change information and the predicted motion vector, a first geometrical deformation parameter to determine a readout region for reading out a signal from the imaging device 102; estimating, from the posture change information and the motion vector, a second geometrical deformation parameter for reading out the target region of the geometrical deformation processing included in the readout region; controlling signal readout from the imaging device 102, on the basis of the first geometrical deformation parameter; and executing geometrical deformation processing on the image of the target region, using the second geometrical deformation parameter.

Description

本発明は、撮像装置及びその制御方法に関し、特に、撮像装置本体のぶれの状況に応じて画像処理による幾何変形防振を施す際に、幾何変形量を予測して幾何変形に必要な画像領域を制御する技術に関する。   The present invention relates to an imaging apparatus and a control method therefor, and in particular, an image area required for geometric deformation by predicting a geometric deformation amount when performing geometric deformation anti-vibration by image processing according to a blurring state of the imaging apparatus main body. It is related with the technology to control.

近年のデジタルビデオカメラやデジタルカメラ等の撮像装置では、撮像センサや信号処理の技術向上により、高画質な映像(画像)が得られるようになってきている。また、撮像装置本体の小型化が進むにつれて、撮像装置本体を片手持ちで構えて撮影する機会が増え、その際の手ぶれ等の撮像装置本体の姿勢変化が大きくなりやすくなってきている。そのため、動画撮影か静止画撮影かを問わず、より安定した映像(画像)を取得するために、撮像装置本体の姿勢変化を補正する技術の重要性が増している。   In recent imaging apparatuses such as digital video cameras and digital cameras, high-quality images (images) have been obtained due to improvements in imaging sensors and signal processing techniques. Further, as the size of the image pickup apparatus main body is further reduced, an opportunity to shoot with the image pickup apparatus main body held with one hand increases, and the posture change of the image pickup apparatus main body such as camera shake at that time tends to increase. Therefore, in order to acquire a more stable image (image) regardless of whether it is moving image shooting or still image shooting, the importance of a technique for correcting the posture change of the imaging device body is increasing.

撮像装置本体の姿勢変化に関する情報の取得方法には、角速度センサ(ジャイロセンサ)や加速度センサ等のセンシングデバイスを用いる方法や、入力画像と過去画像(参照画像)から動きを検出する、所謂、動きベクトル検出による方法とがある。撮像装置本体の回転と並進の姿勢変化は、その画角変化がぶれとして画像に影響を及ぼすが、射影変換等の自由度の高い幾何変形処理を施すことにより、適切にぶれを抑制することができる。   As a method for acquiring information related to the posture change of the imaging apparatus main body, a method using a sensing device such as an angular velocity sensor (gyro sensor) or an acceleration sensor, or a so-called motion that detects motion from an input image and a past image (reference image). There is a method by vector detection. The posture change of rotation and translation of the imaging device main body affects the image as the change in the angle of view affects the image, but it is possible to appropriately suppress the blur by applying geometric deformation processing with a high degree of freedom such as projective transformation. it can.

しかし、動画撮影や静止画連写撮影等の時間制約の高い撮影状況で動きベクトル検出処理をリアルタイムに行うためには、信号処理回路の性能、メモリ、メモリバス帯域等のシステムに、高速動作が可能なものや高性能なものが要求される。このような要求に応じて高性能化されたシステムでは、一般的に、信号処理回路の高性能化やメモリの高容量化等に起因して、発熱量や消費電力が増加してしまう。一方で、撮像装置本体の小型化に伴って、熱耐性や消費電力に対する制約が大きくなってきており、このような制約は、高性能な信号処理回路を搭載する際の障害となる。   However, in order to perform motion vector detection processing in real time in shooting situations with high time constraints such as movie shooting and still image continuous shooting, high-speed operation is required for systems such as signal processing circuit performance, memory, and memory bus bandwidth. What is possible and high performance are required. In a system with high performance in response to such a demand, generally, heat generation and power consumption increase due to high performance of a signal processing circuit, high capacity of a memory, and the like. On the other hand, with the downsizing of the imaging apparatus main body, restrictions on heat resistance and power consumption are increasing, and such restrictions are an obstacle to mounting a high-performance signal processing circuit.

したがって、撮像装置全体のシステム設計は、相互にトレードオフの関係にある撮像装置本体の姿勢変化補正の自由度や精度、性能等に対する要望と撮像装置のシステムリソース及び消費電力等に対する要望とのバランスを考慮して行う必要がある。   Therefore, the system design of the entire imaging apparatus balances the demand for the degree of freedom, accuracy, performance, etc. of posture change correction of the imaging apparatus main body, which are in a trade-off relationship with each other, and the demand for the imaging apparatus system resources, power consumption, etc. It is necessary to consider this.

このような問題に対し、効率よくメモリリソースを制御する技術が提案されている。例えば、特許文献1に記載された技術では、画像メモリに対してシステムバスを介して複数の画像処理部がアクセスする場合に、それぞれの画像処理に適したアクセスフォーマットでシステムバスを制御している。また、特許文献2に記載された技術では、階層化処理を行う場合の画像メモリアクセスに対して、バッファメモリを介して処理時間を重ねながらパイプライン処理を行っている。   For such a problem, a technique for efficiently controlling memory resources has been proposed. For example, in the technique described in Patent Document 1, when a plurality of image processing units access the image memory via the system bus, the system bus is controlled with an access format suitable for each image processing. . Further, in the technique described in Patent Document 2, pipeline processing is performed while overlapping processing time via a buffer memory for image memory access when performing hierarchization processing.

特開2009−116763号公報JP 2009-116763 A 特開2009−081596号公報JP 2009-081596 A

しかしながら、撮像装置本体の姿勢変化を補正する場合、画像メモリに対してアクセスするデータ量は、撮像装置本体の姿勢変化量に応じて大きく変動する。そのため、上記特許文献1に記載された技術のようなアクセスフォーマットの工夫のみでは、信号処理全体の演算量やシステムバスの負荷を軽減することは難しい。また、上記特許文献2に記載された技術のようにバッファメモリ容量を固定的に確保してしまうと、信号処理全体の演算量やシステムバスの負荷を軽減することができなくなってしまう。   However, when correcting the posture change of the imaging device main body, the amount of data accessed to the image memory varies greatly according to the posture change amount of the imaging device main body. For this reason, it is difficult to reduce the calculation amount of the entire signal processing and the load on the system bus only by devising the access format as in the technique described in Patent Document 1. Further, if the buffer memory capacity is fixedly secured as in the technique described in Patent Document 2, the amount of calculation of the entire signal processing and the load on the system bus cannot be reduced.

本発明は、撮像装置本体の姿勢変化を補正する処理に要するシステムリソースの大規模化を抑制すると共に、処理時間や消費電力の削減を可能とする技術を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a technique capable of suppressing an increase in system resources required for processing for correcting a posture change of an imaging apparatus body and reducing processing time and power consumption.

本発明に係る撮像装置は、光学系を通して被写体像が結像する撮像素子から信号の読み出しを行う読み出し手段と、前記撮像素子から読み出された信号から画像を生成する現像手段とを備える撮像装置であって、前記撮像装置の姿勢変化を検出し、姿勢変化情報を出力する姿勢変化検出手段と、前記現像手段により生成された時間的に連続する複数の画像から動きベクトルを検出する検出手段と、現在と過去の前記動きベクトルから前記現像手段により生成される次の画像との間の動きベクトルを予測する予測手段と、前記撮像素子から信号を読み出す読み出し領域を決定するための第1の幾何変形パラメータを前記姿勢変化情報と前記予測した動きベクトルから推定する第1の推定手段と、前記読み出し領域に含まれる幾何変形処理の対象領域を読み出すための第2の幾何変形パラメータを前記姿勢変化情報と前記動きベクトルから推定する第2の推定手段と、前記第1の幾何変形パラメータに基づいて前記撮像素子の前記読み出し領域から信号を読み出すように前記読み出し手段を制御する制御手段と、前記第2の幾何変形パラメータを用いて前記対象領域の画像に対して幾何変形処理を施す幾何変形手段とを備えることを特徴とする。   An imaging apparatus according to the present invention includes a reading unit that reads a signal from an imaging element on which a subject image is formed through an optical system, and a developing unit that generates an image from the signal read from the imaging element. And a posture change detecting means for detecting a posture change of the imaging device and outputting posture change information, and a detecting means for detecting a motion vector from a plurality of temporally continuous images generated by the developing means. Predicting means for predicting a motion vector between a current image and a past image generated by the developing means based on the motion vector in the past and a first geometry for determining a reading area for reading a signal from the image sensor. First estimation means for estimating a deformation parameter from the posture change information and the predicted motion vector; and a target of geometric deformation processing included in the readout area A second estimating means for estimating a second geometric deformation parameter for reading a region from the posture change information and the motion vector, and a signal from the reading region of the image sensor based on the first geometric deformation parameter. Control means for controlling the reading means so as to read, and geometric deformation means for performing a geometric deformation process on the image of the target region using the second geometric deformation parameter.

本発明によれば、撮像装置本体の姿勢変化に応じて信号処理を行うデータ量を削減し、姿勢変化補正の処理時間とメモリアクセスの削減を図る。これにより、姿勢変化の補正処理を実行するシステムリソースの大規模化を抑制しながら、補正処理に要する処理時間や消費電力の削減を実現することができる。   According to the present invention, the amount of data to be subjected to signal processing is reduced in accordance with the posture change of the imaging apparatus main body, and the processing time and memory access for posture change correction are reduced. As a result, it is possible to realize a reduction in processing time and power consumption required for the correction processing while suppressing an increase in the scale of system resources for executing the posture change correction processing.

本発明の第1実施形態に係る撮像装置の概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an imaging apparatus according to a first embodiment of the present invention. 図1の撮像装置の撮像動作(撮像制御方法)を示すフローチャートである。3 is a flowchart illustrating an imaging operation (imaging control method) of the imaging apparatus in FIG. 1. 焦点距離(画角)と画像に現れる幾何変形成分との一般的な関係を示す図及び対物距離と画像に現れる幾何変形成分との一般的な関係を示す図である。It is a figure which shows the general relationship between a focal distance (view angle) and the geometric deformation component which appears in an image, and a figure which shows the general relationship between an objective distance and the geometric deformation component which appears in an image. テンプレートマッチングの概要を説明する模式図である。It is a schematic diagram explaining the outline | summary of template matching. 動きベクトルの時間変動を模式的に示す図である。It is a figure which shows typically the time fluctuation of a motion vector. 撮像素子における被写体像の結像領域と、結像領域の一部に設定される読み出し領域を説明する図である。It is a figure explaining the image formation area of the to-be-photographed image in an image sensor, and the read-out area | region set to a part of image formation area. 本発明の第2実施形態に係る撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device which concerns on 2nd Embodiment of this invention. 図7の撮像装置の撮像動作を示すフローチャートである。It is a flowchart which shows the imaging operation of the imaging device of FIG. メモリのデータ保持領域の一部を模式的に示す図である。It is a figure which shows typically a part of data holding area | region of a memory.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1実施形態>
図1に、本発明の第1実施形態に係る撮像装置100の概略構成を示すブロック図である。撮像装置100は、典型的には、デジタルスチルカメラやデジタルビデオカメラであるが、これに限られず、カメラ機能(撮像素子を用いて映像(画像)を取得する撮影機能)を備える各種の電子機器であってもよい。例えば、撮像装置100は、カメラ機能付き携帯通信端末(携帯電話、スマートフォン等)、カメラ機能付き携帯型コンピュータ(タブレット端末)、カメラ機能付き携帯ゲーム機等であってもよい。
<First Embodiment>
FIG. 1 is a block diagram showing a schematic configuration of an imaging apparatus 100 according to the first embodiment of the present invention. The imaging apparatus 100 is typically a digital still camera or a digital video camera, but is not limited to this, and various electronic devices having a camera function (a shooting function that acquires a video (image) using an imaging device). It may be. For example, the imaging apparatus 100 may be a mobile communication terminal with a camera function (such as a mobile phone or a smartphone), a portable computer with a camera function (tablet terminal), a mobile game machine with a camera function, or the like.

撮像装置100は、撮像光学系101、撮像素子102、現像処理部103、メモリ104、姿勢変化情報取得部105、防振処理制御部106、動きベクトル検出部107及び動きベクトル予測部108を備える。また、撮像装置100は、第1幾何変形パラメータ推定部109、第2幾何変形パラメータ推定部110、幾何変形処理部111、画像記憶部112、画像表示部113及び読み出し制御部114を備える。   The imaging apparatus 100 includes an imaging optical system 101, an imaging element 102, a development processing unit 103, a memory 104, an attitude change information acquisition unit 105, an image stabilization processing control unit 106, a motion vector detection unit 107, and a motion vector prediction unit 108. Further, the imaging apparatus 100 includes a first geometric deformation parameter estimation unit 109, a second geometric deformation parameter estimation unit 110, a geometric deformation processing unit 111, an image storage unit 112, an image display unit 113, and a read control unit 114.

撮像光学系101は、被写体からの反射光を取り込んで被写体像(光学像)を形成し、形成された被写体像は撮像素子102に結像する。撮像素子102は、例えば、CCDセンサやCMOSセンサ等のイメージセンサであり、結像した被写体像を光電変換し、生成したアナログ信号を現像処理部103と動きベクトル検出部107へ供給する。なお、読み出し制御部114から指示にしたがって、撮像素子102からは、被写体像が結像する結像領域のうちの一部の領域の信号(蓄積電荷)を、順次、読み出すことができる。   The imaging optical system 101 captures reflected light from the subject to form a subject image (optical image), and the formed subject image is formed on the image sensor 102. The imaging element 102 is an image sensor such as a CCD sensor or a CMOS sensor, for example, photoelectrically converts the formed subject image, and supplies the generated analog signal to the development processing unit 103 and the motion vector detection unit 107. Note that in accordance with an instruction from the read control unit 114, a signal (accumulated charge) of a part of an imaging region where a subject image is formed can be sequentially read from the image sensor 102.

現像処理部103は、不図示のA/D変換部、オートゲイン制御部(AGC)、オートホワイトバランス部等を含む。現像処理部103は、撮像素子102から取得したアナログ信号をA/D変換してデジタル信号(RAW画像)を生成し、生成したRAW画像に所定の現像処理を施して画像信号を生成し、生成した画像信号をメモリ104へ供給する。なお、撮像光学系101、撮像素子102及び現像処理部103により、映像(画像)を取得する撮像系が構成される。また、本実施形態では、撮像装置100による動画撮影と静止画撮影を問わず、現像処理部103から出力される画像信号は、現像処理が施されたデジタル信号であるとする。   The development processing unit 103 includes an A / D conversion unit (not shown), an auto gain control unit (AGC), an auto white balance unit, and the like. The development processing unit 103 A / D converts the analog signal acquired from the image sensor 102 to generate a digital signal (RAW image), performs a predetermined development process on the generated RAW image, and generates an image signal. The processed image signal is supplied to the memory 104. The imaging optical system 101, the imaging element 102, and the development processing unit 103 constitute an imaging system that acquires a video (image). In this embodiment, it is assumed that the image signal output from the development processing unit 103 is a digital signal subjected to development processing regardless of whether the imaging apparatus 100 captures moving images or still images.

メモリ104は、現像処理部103から供給される画像信号である1フレーム又は複数のフレームの画像を一時的に記憶し、保持する。姿勢変化情報取得部105は、手ぶれやカメラワーク等の撮像装置100の姿勢変化(動き)を姿勢変化情報として取得するジャイロセンサ等で構成され、取得した姿勢変化情報を防振処理制御部106へ供給する。動きベクトル検出部107は、メモリ104から取得した時間的に連続する2枚のフレーム画像間の動きベクトルを検出する。動きベクトル予測部108は、動きベクトル検出部107で検出された現在と過去のそれぞれの動きベクトルから、次のフレーム画像との間の動きベクトルを予測する。   The memory 104 temporarily stores and holds an image of one frame or a plurality of frames, which is an image signal supplied from the development processing unit 103. The posture change information acquisition unit 105 includes a gyro sensor that acquires posture change (motion) of the imaging apparatus 100 such as camera shake or camera work as posture change information, and sends the acquired posture change information to the image stabilization processing control unit 106. Supply. The motion vector detection unit 107 detects a motion vector between two temporally continuous frame images acquired from the memory 104. The motion vector prediction unit 108 predicts a motion vector between the next frame image from the current and past motion vectors detected by the motion vector detection unit 107.

第1幾何変形パラメータ推定部109は、動きベクトル予測部108において予測された動きベクトルを用いて、フレーム画像間のぶれの動きの補正量を幾何変形パラメータ(第1の幾何変形パラメータ)として算出する。第2幾何変形パラメータ推定部110は、動きベクトル検出部107において検出された動きベクトルを用いて、フレーム画像間のぶれの動きの補正量を幾何変形パラメータ(第2の幾何変形パラメータ)として算出する。防振処理制御部106は、第1幾何変形パラメータ推定部109が算出した幾何変形パラメータに基づいて、読み出し制御部114を制御する。また、防振処理制御部106は、姿勢変化情報取得部105から供給された姿勢変化情報と動きベクトル検出部107から供給された動きベクトルに基づき、動きベクトル予測部108、第1幾何変形パラメータ推定部109及び第2幾何変形パラメータ推定部110の処理内容を変更する。   The first geometric deformation parameter estimation unit 109 uses the motion vector predicted by the motion vector prediction unit 108 to calculate a correction amount of blur motion between frame images as a geometric deformation parameter (first geometric deformation parameter). . The second geometric deformation parameter estimation unit 110 uses the motion vector detected by the motion vector detection unit 107 to calculate the amount of correction of motion blur between frame images as a geometric deformation parameter (second geometric deformation parameter). . The image stabilization processing control unit 106 controls the read control unit 114 based on the geometric deformation parameter calculated by the first geometric deformation parameter estimation unit 109. Also, the image stabilization processing control unit 106 is based on the posture change information supplied from the posture change information acquisition unit 105 and the motion vector supplied from the motion vector detection unit 107, and the motion vector prediction unit 108 and the first geometric deformation parameter estimation. The processing contents of the unit 109 and the second geometric deformation parameter estimation unit 110 are changed.

幾何変形処理部111は、第2幾何変形パラメータ推定部110から取得した幾何変形パラメータに基づいて、フレーム画像に対してぶれを補正するための幾何変形処理を行い、メモリ104に画像を書き出す。画像記憶部112は、防振処理が施された画像を記憶媒体に記憶する。画像表示部113は、防振処理が施された画像を不図示のディスプレイに表示する。   Based on the geometric deformation parameter acquired from the second geometric deformation parameter estimation unit 110, the geometric deformation processing unit 111 performs a geometric deformation process for correcting blur on the frame image, and writes the image to the memory 104. The image storage unit 112 stores an image subjected to the image stabilization process in a storage medium. The image display unit 113 displays the image subjected to the image stabilization process on a display (not shown).

撮像装置100は、撮像装置100の全体的な動作制御を行う不図示の中央制御部を備えている。中央制御部は、演算処理装置(CPU)と、CPUが実行するプログラム等を格納するROMと、CPUがプログラムを展開するワークエリアとして用いられると共に演算結果やパラメータを一時的に記憶するRAMを備える。なお、上記の各種のデータ処理を行う処理部は、中央制御部の機能ブロックであってもよいし、中央制御部の制御の下で所定の機能を発揮する機能ブロックであってもよい。   The imaging apparatus 100 includes a central control unit (not shown) that performs overall operation control of the imaging apparatus 100. The central control unit includes an arithmetic processing unit (CPU), a ROM that stores programs and the like executed by the CPU, and a RAM that is used as a work area where the CPU develops programs and that temporarily stores calculation results and parameters. . The processing unit that performs the above-described various data processing may be a functional block of the central control unit or a functional block that exhibits a predetermined function under the control of the central control unit.

図2は、撮像装置100の撮像動作(撮像制御方法)を示すフローチャートである。図2に示す各処理は、CPUがROMに格納されているプログラムをRAMに展開し、実行することにより、撮像装置100の各ブロックが所定の動作と処理を実行することにより実現される。   FIG. 2 is a flowchart illustrating the imaging operation (imaging control method) of the imaging apparatus 100. Each process shown in FIG. 2 is realized by causing each block of the imaging apparatus 100 to execute a predetermined operation and process when the CPU expands and executes a program stored in the ROM in the RAM.

ステップS201において、画像入力処理が行われる。具体的には、撮像光学系101によって形成されて撮像素子102に被写体像が結像すると、撮像素子102は、読み出し制御部114が指示する読み出し領域の画素の蓄積電荷をアナログ信号として現像処理部103へ供給する。現像処理部103は、取得したアナログ信号をA/D変換部によってデジタル信号(RAW画像)に変換し、更にAGC及びAWBによって信号レベル補正や白レベル補正を行って画像信号を生成し、生成した画像信号をメモリ104に記憶、保持させる。撮像装置100では、所定のフレームレートで、順次、フレーム画像が生成され、メモリ104に記憶、保持されたフレーム画像は、動きベクトル検出部107に入力される。また、メモリ104に記憶、保持されるフレーム画像は、順次、更新される。   In step S201, an image input process is performed. Specifically, when a subject image is formed on the image sensor 102 formed by the imaging optical system 101, the image sensor 102 uses the accumulated charge of the pixels in the readout area indicated by the readout controller 114 as an analog signal. 103. The development processing unit 103 converts the acquired analog signal into a digital signal (RAW image) by an A / D conversion unit, and further performs signal level correction and white level correction by AGC and AWB to generate an image signal. The image signal is stored and held in the memory 104. In the imaging apparatus 100, frame images are sequentially generated at a predetermined frame rate, and the frame images stored and held in the memory 104 are input to the motion vector detection unit 107. Further, the frame images stored and held in the memory 104 are sequentially updated.

撮影が開始されると、ステップS201と同時にステップS202において、姿勢変化情報取得部105が、撮像装置100の姿勢変化情報を取得する。本実施形態では、姿勢変化情報を取得する方法としてジャイロセンサを使用するものとし、撮像装置100のロール、ピッチ、ヨーの各方向の姿勢変化情報を得る。但し、姿勢変化情報の取得手段はジャイロセンサに限られるものではなく、撮像装置100の姿勢変化情報を得られる限りにおいて、その他の手段を用いてもよい。   When shooting is started, the posture change information acquisition unit 105 acquires posture change information of the imaging device 100 in step S202 simultaneously with step S201. In this embodiment, it is assumed that a gyro sensor is used as a method of acquiring posture change information, and posture change information in each of the roll, pitch, and yaw directions of the imaging apparatus 100 is obtained. However, the posture change information acquisition means is not limited to the gyro sensor, and other means may be used as long as the posture change information of the imaging apparatus 100 can be obtained.

ステップS203において、防振処理制御部106は、幾何変形パラメータを絞り込む。具体的には、被写体に対する撮像光学系101の焦点距離や対物距離に応じて、第1幾何変形パラメータ推定部109と第2幾何変形パラメータ推定部110とがそれぞれ推定する幾何変形パラメータを絞り込む。これにより、読み出し制御部114への指示領域が過剰にならないように制御することができる。ここで、ステップS203の処理について、図3を参照して説明する。   In step S203, the image stabilization processing control unit 106 narrows down the geometric deformation parameters. Specifically, the geometric deformation parameters estimated by the first geometric deformation parameter estimation unit 109 and the second geometric deformation parameter estimation unit 110 are narrowed down according to the focal length and the objective distance of the imaging optical system 101 with respect to the subject. As a result, it is possible to control so that the instruction area to the read control unit 114 does not become excessive. Here, the process of step S203 will be described with reference to FIG.

図3(a)は、焦点距離(画角)と画像に現れる幾何変形成分との一般的な関係を示す図であり、図3(b)は、対物距離と画像に現れる幾何変形成分との一般的な関係を示す図である。   FIG. 3A is a diagram showing a general relationship between the focal length (angle of view) and the geometric deformation component appearing in the image, and FIG. 3B is a graph showing the relationship between the objective distance and the geometric deformation component appearing in the image. It is a figure which shows a general relationship.

図3(a)に示されるように、画像に現れる幾何変形成分は、焦点距離(画角)に応じて変化すると推定される。ワイド撮影では、片手持ちや歩行等の撮影形態を取ることが多く、結果として多くの幾何変形成分がぶれ成分として表れるため、あおりまでを考慮したパラメータ推定が必要になる。これに対して、テレ撮影では、両手持ちで静止して被写体を捉えることが多く、結果として並進成分以外の幾何変形成分は減少するため、並進の動き成分のみのパラメータ推定でよい。なお、ミドル撮影では、ワイド撮影とテレ撮影の中間的なぶれが生じると考えられるため、例えば、焦点距離に閾値を設定し、焦点距離が閾値よりも短い場合にはあおりを考慮し、焦点距離が閾値以上の場合には並進の動きのみを考慮するようにすればよい。   As shown in FIG. 3A, the geometric deformation component appearing in the image is estimated to change according to the focal length (field angle). In wide shooting, a shooting mode such as one-handed holding or walking is often used, and as a result, many geometric deformation components appear as blur components. Therefore, it is necessary to estimate parameters in consideration of tilting. On the other hand, in tele-photographing, the object is often captured by holding with both hands and, as a result, geometric deformation components other than the translational component are reduced. Therefore, parameter estimation using only the translational motion component is sufficient. In middle shooting, it is considered that blurring occurs between wide shooting and tele shooting, so for example, a threshold is set for the focal length, and if the focal length is shorter than the threshold, the tilt is taken into account. If is greater than or equal to the threshold, only translational movements should be considered.

また、図3(b)に示されるように、画像に現れる幾何変形成分は、対物距離に応じて変化すると推定される。対物距離が極めて短いマクロ撮影では、結果として並進成分以外の幾何変形成分は減少するため、並進の動き成分のみのパラメータ推定でよい。これに対して対物距離が長い場合(遠距離撮影)の場合には、結果として幾何変形成分がブレ成分として表れるため、あおりまでも考慮したパラメータ推定が必要になる。近距離撮影では、マクロ撮影と遠撮影の中間的なぶれが生じると考えられるため、例えば、対物距離に閾値を設定し、対物距離が閾値よりも短い場合には並進の動きのみを考慮し、対物距離が閾値以上の場合にはあおりも考慮するようにすればよい。図3(a),(b)の関係は、組み合わせて制御に用いてもよいし、姿勢変化情報取得部105で実際に取得したぶれ情報を用いて補正して用いてもよい。   As shown in FIG. 3B, the geometric deformation component appearing in the image is estimated to change according to the objective distance. In macro photography with a very short objective distance, geometric deformation components other than the translation component are reduced as a result. Therefore, parameter estimation using only the translational motion component is sufficient. On the other hand, when the objective distance is long (far-distance shooting), the geometric deformation component appears as a blur component as a result, and therefore parameter estimation considering the tilt is necessary. In short-distance shooting, it is thought that blurring between macro shooting and long-distance shooting will occur, so for example, a threshold is set for the objective distance, and if the objective distance is shorter than the threshold, only the translational movement is considered, When the objective distance is greater than or equal to the threshold value, the tilt may be considered. The relationship between FIGS. 3A and 3B may be used in combination for control, or may be used after being corrected using the shake information actually acquired by the posture change information acquisition unit 105.

ステップS204では、動きベクトル検出部107が、予め決定された動きベクトル検出領域及び検出数に基づいて、入力された2枚のフレーム画像間での動きベクトルの検出を行う。本実施形態では、動きベクトル検出方法の一例として、テンプレートマッチングを用いることとする。図4は、テンプレートマッチングの概要を説明する模式図である。   In step S204, the motion vector detection unit 107 detects a motion vector between two input frame images based on a predetermined motion vector detection region and the number of detections. In the present embodiment, template matching is used as an example of a motion vector detection method. FIG. 4 is a schematic diagram for explaining an outline of template matching.

図4(a)には原画像400が、図4(b)には参照画像450が示されており、これらの画像は、現像処理部103及びメモリ104から入力されるフレーム画像である。原画像400内の任意の位置にテンプレートブロック401を配置し、テンプレートブロック401と参照画像450の各領域との相関値を算出する。このとき、参照画像450の全領域に対して相関値を算出したのでは計算量が膨大なものとなるため、実際には、参照画像450上に相関値を算出する矩形領域をサーチ範囲402として設定する。   4A shows an original image 400, and FIG. 4B shows a reference image 450. These images are frame images input from the development processing unit 103 and the memory 104. FIG. A template block 401 is arranged at an arbitrary position in the original image 400, and a correlation value between the template block 401 and each region of the reference image 450 is calculated. At this time, if the correlation value is calculated for the entire region of the reference image 450, the amount of calculation is enormous. Therefore, in practice, a rectangular region for calculating the correlation value on the reference image 450 is used as the search range 402. Set.

サーチ範囲402の位置や大きさは特に制限されるものではないが、サーチ範囲402の内部にテンプレートブロック401の移動先に相当する領域が含まれていないと正しい動きベクトルを検出することはできない。そこで、相関値の算出方法の一例として、差分絶対値和(SAD:Sum of Absolute Difference)を使用することとする。但し、これに限るものではなく、差分二乗和(SSD)や正規化相互相関(NCC)等の他の相関値を用いてもよい。SADの計算式を下記の式1に示す。   Although the position and size of the search range 402 are not particularly limited, a correct motion vector cannot be detected unless the region corresponding to the movement destination of the template block 401 is included in the search range 402. Therefore, as an example of a correlation value calculation method, a sum of absolute differences (SAD) is used. However, the present invention is not limited to this, and other correlation values such as sum of squared differences (SSD) and normalized cross correlation (NCC) may be used. The calculation formula of SAD is shown in the following formula 1.

Figure 2015173388
式1において、f(i,j)は、テンプレートブロック401内の座標(i,j)における輝度値であり、g(i,j)は、サーチ範囲402において相関値算出の対象となる相関値算出ブロック403内の各輝度値である。SADでは、これらの輝度値f(i,j),g(i,j)についての差の絶対値を計算し、その総和を求めることで、相関値S_SADを得る。相関値S_SADの値が小さいほど、テンプレートブロック401と相関値算出ブロック403との間の輝度値の差分が小さい、つまりこれらのブロック内のテクスチャが類似していることを示している。
Figure 2015173388
In Equation 1, f (i, j) is a luminance value at the coordinates (i, j) in the template block 401, and g (i, j) is a correlation value for which a correlation value is calculated in the search range 402. Each luminance value in the calculation block 403. In SAD, a correlation value S_SAD is obtained by calculating an absolute value of a difference between these luminance values f (i, j) and g (i, j) and obtaining a sum thereof. The smaller the correlation value S_SAD, the smaller the difference in luminance value between the template block 401 and the correlation value calculation block 403, that is, the textures in these blocks are similar.

サーチ範囲402の全領域について相関値算出ブロック403を移動させて、テンプレートブロック401との相関値を算出し、相関が最も高くなる位置を判定する。これにより、原画像400上のテンプレートブロック401が参照画像450においてどの位置に移動したかを示す、画像間の動きベクトルを検出することができる。   The correlation value calculation block 403 is moved for the entire region of the search range 402, the correlation value with the template block 401 is calculated, and the position where the correlation is highest is determined. Thereby, it is possible to detect a motion vector between images that indicates where the template block 401 on the original image 400 has moved in the reference image 450.

動きベクトル検出部107は、このような動きベクトル検出処理を、入力されたフレーム画像間の複数の領域で行い、検出した動きベクトル群を、動きベクトル予測部108及び第1幾何変形パラメータ推定部109へ供給する。   The motion vector detection unit 107 performs such a motion vector detection process in a plurality of regions between the input frame images, and uses the detected motion vector group as the motion vector prediction unit 108 and the first geometric deformation parameter estimation unit 109. To supply.

ステップS205では、動きベクトル予測部108が、ステップS203で絞り込んだ幾何変形パラメータに従い、ステップS204で検出された現在フレームの動きベクトル群とそれ以前のフレームの動きベクトル群とから、次の動きベクトル群を予測する。図5は、動きベクトルの時間変動を模式的に示す図である。動きベクトルは、時間の経過にしたがって変化していく。例えば、時刻t2の動きベクトルm2を予測するには、下記の式2に示すように、時刻t0,t1での動きベクトルm0,m1による一次式による外挿補間によって求めることができる。   In step S205, the motion vector prediction unit 108 determines the next motion vector group from the motion vector group of the current frame detected in step S204 and the motion vector group of the previous frame in accordance with the geometric deformation parameter narrowed down in step S203. Predict. FIG. 5 is a diagram schematically showing temporal variation of the motion vector. The motion vector changes as time passes. For example, in order to predict the motion vector m2 at time t2, it can be obtained by extrapolation using a linear expression based on the motion vectors m0 and m1 at times t0 and t1, as shown in Equation 2 below.

Figure 2015173388
なお、外挿補間方法は、一次式によるものに限られず、多次式によるものを用いてもよい。ステップS205では、このような動きベクトル予測処理が所定のベクトル数だけ行われ、予測された動きベクトル群は、防振処理制御部106に供給される。
Figure 2015173388
Note that the extrapolation method is not limited to a linear expression, and a multi-order expression may be used. In step S <b> 205, such motion vector prediction processing is performed for a predetermined number of vectors, and the predicted motion vector group is supplied to the image stabilization processing control unit 106.

ステップS206では、第1幾何変形パラメータ推定部109が、ステップS205で求められた次の動きベクトルを用いて、防振処理制御部106が指示する幾何変形パラメータの値を推定する。本実施形態では、幾何変形手段の一例としてホモグラフィ行列と呼ばれる3×3の行列式を用いるものとして、以下に説明する。   In step S206, the first geometric deformation parameter estimation unit 109 estimates the value of the geometric deformation parameter instructed by the image stabilization processing control unit 106 using the next motion vector obtained in step S205. In the present embodiment, the following description will be given assuming that a 3 × 3 determinant called a homography matrix is used as an example of the geometric deformation means.

まず、下記の式3で示される画像上のある点aが、次フレームにおいて下記の式4で示される点a´に移動したとする。ここで、式3及び式4に示される添え字Tは、転置行列であること示す。式3の点aと式4の点a´の対応関係は、ホモグラフィ行列Hを用いることにより、下記の式5で表すことができる。ここで、ホモグラフィ行列Hは、画像間の並進、回転、変倍、せん断及びあおりによる変形量を示す行列式であり、下記の式6で表される。   First, it is assumed that a certain point a on the image represented by the following expression 3 moves to a point a ′ represented by the following expression 4 in the next frame. Here, the subscript T shown in Equation 3 and Equation 4 indicates a transposed matrix. By using the homography matrix H, the correspondence relationship between the point a in Expression 3 and the point a ′ in Expression 4 can be expressed by the following Expression 5. Here, the homography matrix H is a determinant representing the amount of deformation caused by translation, rotation, scaling, shearing, and tilting between images, and is represented by the following Expression 6.

Figure 2015173388
ホモグラフィ行列Hの各要素は、ステップS204で得られる動きベクトル群、つまりフレーム画像間における代表点の対応関係を用いて推定することにより求めることができる。上記の式6のホモグラフィ行列Hでは、パラメータh13,h23が並進の動き成分を、パラメータh11,h12,h21,h22が回転、変倍及びせん断の動き成分を、パラメータh31,h32があおりの動き成分をそれぞれ表している。
Figure 2015173388
Each element of the homography matrix H can be obtained by estimation using the motion vector group obtained in step S204, that is, the correspondence of representative points between frame images. In the homography matrix H of Equation 6 above, the parameters h 13 and h 23 are the translational motion components, the parameters h 11 , h 12 , h 21 and h 22 are the rotational, scaling and shearing motion components, and the parameter h Reference numerals 31 and h 32 denote the movement components of the cage, respectively.

あおりの動き成分までを防振の対象とする場合には、これら8個のパラメータの全てを推定しなければならないため、8自由度の最小二乗法を使用する必要がある。これに対して、回転の動き成分までを防振の対象とする場合には、あおりの動き成分を表すパラメータh31,h32を推定する必要はないため、それ以外の6個のパラメータ推定、つまり6自由度での最小二乗法による推定を行えばよいことになる。また、並進の動き成分のみを防振の対象とする場合には、式5におけるパラメータh13,h23についてのみ推定を行えばよい。このとき、並進の動き成分は画像の平行移動という簡単な動きであるため、最小二乗法のような統計的な推定方法を使用する必要はなく、ヒストグラム処理のような単純な処理でも精度良く推定を行うことができる。なお、本実施形態では、幾何変形量の推定方法として最小二乗法やヒストグラム処理を用いることとしているが、これに限られるものではなく、他の推定手法を用いてもよい。 In the case where even the motion component of the tilt is targeted for image stabilization, since all of these eight parameters must be estimated, it is necessary to use the least square method with 8 degrees of freedom. On the other hand, in the case where the rotational motion component is the target of vibration isolation, it is not necessary to estimate the parameters h 31 and h 32 representing the tilt motion component, so the other six parameter estimations, That is, it is sufficient to perform estimation by the least square method with six degrees of freedom. When only translational motion components are to be subject to image stabilization, only the parameters h 13 and h 23 in Equation 5 need to be estimated. At this time, since the translational motion component is a simple motion such as translation of the image, there is no need to use a statistical estimation method such as the least square method, and the estimation is accurately performed even with a simple processing such as a histogram processing. It can be performed. In the present embodiment, the least square method or the histogram processing is used as the geometric deformation amount estimation method, but the present invention is not limited to this, and other estimation methods may be used.

ステップS206では、動きベクトル予測部108で算出された動きベクトル群を用い、上記の式3乃至式6を参照して説明した選択された幾何変形パラメータに基づいて、フレーム画像間の幾何変形量の推定を行い、ぶれの補正量を算出する。即ち、上記の方法で推定されたホモグラフィ行列Hは、撮像装置100のぶれによる画像の変形量を表しているため、画像のぶれを補正するには、ぶれによる変形を打ち消す画像変形量となるようにホモグラフィ行列Hを変換すればよい。つまり、ホモグラフィ行列Hを逆行列H−1に変換する。点aから点a´への移動が撮像装置100のぶれによる場合に、点aと点a´との対応関係は下記の式7で表され、式7により、ぶれが生じた後の点a´をぶれが生じる前の点aと同じ座標に戻すことが可能となる。 In step S206, the motion vector group calculated by the motion vector prediction unit 108 is used, and the geometric deformation amount between the frame images is determined based on the selected geometric deformation parameter described with reference to the above equations 3 to 6. Estimate and calculate the amount of blur correction. That is, the homography matrix H estimated by the above method represents the amount of deformation of the image due to the blur of the imaging apparatus 100. Therefore, in order to correct the blur of the image, the amount of image deformation cancels the deformation due to the blur. Thus, the homography matrix H may be converted. That is, the homography matrix H is converted into an inverse matrix H- 1 . When the movement from the point a to the point a ′ is caused by the shake of the imaging apparatus 100, the correspondence relationship between the point a and the point a ′ is expressed by the following Expression 7, and the point a after the shake occurs according to the Expression 7. It becomes possible to return ′ to the same coordinates as the point a before the shake occurs.

Figure 2015173388
ステップS207において、防振処理制御部106は、ステップS205で求められた予測された動きベクトル群とステップS206で算出された幾何変形パラメータとから、撮像素子102の読み出し領域を決定する。図6は、撮像素子102における被写体像の結像領域と、結像領域の一部に設定される読み出し領域を説明する図である。第1の領域600は、被写体像の結像領域、つまり、撮像素子102の全読み出し領域であり、1フレームの画像領域である。第2の領域601は、ぶれが生じていないときに読み出したい領域である。第3の領域602は、ぶれが生じていることにより読み出しが必要となった領域を示している。第4の領域603は、実際に読み出す必要がある領域を示している。
Figure 2015173388
In step S207, the image stabilization processing control unit 106 determines a reading area of the image sensor 102 from the predicted motion vector group obtained in step S205 and the geometric deformation parameter calculated in step S206. FIG. 6 is a diagram for explaining the imaging region of the subject image in the image sensor 102 and the readout region set as a part of the imaging region. The first area 600 is an imaging area of a subject image, that is, an entire reading area of the image sensor 102, and is an image area of one frame. The second area 601 is an area to be read when there is no blurring. A third area 602 indicates an area that needs to be read due to blurring. A fourth area 603 indicates an area that actually needs to be read.

ぶれが生じていないときに読み出したい第2の領域601の座標に対して、上記の式7の逆行列H−1での変換を行うことにより、ぶれにより読み出しが必要となる第3の領域602を求めることができる。つまり、第3の領域602が後述するステップS209での幾何変形処理の対象領域となる。このとき、ホモグラフィ行列Hのみで幾何変形が示されるならば、第2の領域601の頂点4つの座標計算で第3の領域602を求めることができる。しかし、歪曲収差やローリングひずみぶれの影響までも含めた幾何変形処理の場合には、第3の領域602は必ずしも矩形にはならないため、第2の領域601の4辺の座標計算を行う必要がある。第3の領域602が求められると、第3の領域602が内接する矩形である第4の領域603が求められ、この第4の領域603を撮像素子102から実際に信号を読み出す読み出し領域として決定する。 By converting the coordinates of the second region 601 to be read when there is no blurring with the inverse matrix H −1 of Equation 7 above, the third region 602 that needs to be read due to shaking. Can be requested. That is, the third area 602 becomes a target area for geometric deformation processing in step S209 described later. At this time, if the geometric deformation is indicated only by the homography matrix H, the third region 602 can be obtained by calculating the coordinates of the four vertices of the second region 601. However, in the case of geometric deformation processing including the effects of distortion and rolling distortion, the third region 602 is not necessarily rectangular, and it is necessary to perform coordinate calculation of the four sides of the second region 601. is there. When the third region 602 is obtained, a fourth region 603, which is a rectangle inscribed in the third region 602, is obtained, and this fourth region 603 is determined as a readout region for actually reading a signal from the image sensor 102. To do.

ステップ208では、第2幾何変形パラメータ推定部110が、幾何変形パラメータの値を推定する。なお、ステップS206では、第1幾何変形パラメータ推定部109は、動きベクトル予測部108が出力する予測ベクトルを用いたが、第2幾何変形パラメータ推定部110は、動きベクトル検出部107の出力する現在フレームの動きベクトル群の情報を用いる。第2幾何変形パラメータ推定部110での幾何変形パラメータの値の推定方法は、第1幾何変形パラメータ推定部109によるステップS206での幾何変形パラメータの値の推定方法と同じであるため、その説明は省略する。   In step 208, the second geometric deformation parameter estimation unit 110 estimates the value of the geometric deformation parameter. In step S206, the first geometric deformation parameter estimation unit 109 uses the prediction vector output from the motion vector prediction unit 108, but the second geometric deformation parameter estimation unit 110 outputs the current vector output from the motion vector detection unit 107. Information on a frame motion vector group is used. The method of estimating the value of the geometric deformation parameter in the second geometric deformation parameter estimating unit 110 is the same as the method of estimating the value of the geometric deformation parameter in step S206 by the first geometric deformation parameter estimating unit 109. Omitted.

ステップS209では、幾何変形処理部111が、ステップS208で得られた幾何変形量を用いて、第3の領域602の画像に対して幾何変換処理を施し、これにより防振処理が完了する。続くステップS210において、画像記憶部112は、防振処理が施された画像を不図示の記憶装置に記憶し、また、画像表示部113は、防振処理が施された画像を不図示の表示装置に表示する。   In step S209, the geometric deformation processing unit 111 performs a geometric conversion process on the image of the third region 602 using the geometric deformation amount obtained in step S208, thereby completing the image stabilization process. In subsequent step S210, the image storage unit 112 stores the image subjected to the image stabilization process in a storage device (not illustrated), and the image display unit 113 displays the image subjected to the image stabilization process (not illustrated). Display on the device.

ところで、図2のフローチャートに従う防振処理では、ステップS203において、姿勢変化情報取得部105が取得した撮像装置100の姿勢変化情報に基づいて用いる幾何変形パラメータを切り替えている。このとき、単純に幾何変形パラメータを切り替えてしまうと、切り替わりの前後のフレーム画像間で動きに不連続さが生じてしまう可能性がある。そのため、これを解消するために、用いる幾何変形パラメータとその値に時間方向に(時間の経過に従う)平滑化処理を施すことが好ましい。   By the way, in the image stabilization processing according to the flowchart of FIG. 2, the geometric deformation parameter used based on the posture change information of the imaging device 100 acquired by the posture change information acquisition unit 105 is switched in step S203. At this time, if the geometric deformation parameters are simply switched, there is a possibility that discontinuity occurs in the motion between the frame images before and after the switching. Therefore, in order to solve this problem, it is preferable to perform a smoothing process in the time direction (according to the passage of time) on the geometric deformation parameter and its value to be used.

この平滑化処理では、防振処理を行っている間は、過去の数フレーム分の幾何変形パラメータを記憶保持しておき、切り替わった直後の数フレームに対して過去の幾何変形パラメータの影響を残した幾何変形パラメータに補正して防振処理を行う。これにより、幾何変形パラメータの切り替わりの瞬間に不連続な動きが生じることを解消し、徐々に異なる幾何変形パラメータを用いた防振処理に切り替えていくことが可能となる。平滑化処理の方法には特に制限は無く、例えば移動平均やIIR(Infinite impulse response)フィルタ等の方法を用いることができ、平滑化処理は、第1幾何変形パラメータ推定部109及び第2幾何変形パラメータ推定部110において行われる。   In this smoothing process, while the image stabilization process is being performed, the geometric deformation parameters for the past several frames are stored and retained, and the influence of the past geometric deformation parameters is left on the few frames immediately after switching. Vibration correction processing is performed by correcting the geometric deformation parameters. As a result, it is possible to eliminate the occurrence of discontinuous movement at the moment of switching of the geometric deformation parameters, and to gradually switch to the image stabilization processing using different geometric deformation parameters. The smoothing method is not particularly limited. For example, a method such as a moving average or an IIR (Infinite impulse response) filter can be used. The smoothing process is performed using the first geometric deformation parameter estimation unit 109 and the second geometric deformation. This is performed in the parameter estimation unit 110.

また、ステップS205において動きベクトル群を予測しているが、動きベクトルは画像から検出されるため、被写体の大きさや動き、背景の動きによっては情報の質に変動を生じる可能性がある。例えば、姿勢変化情報取得部105がジャイロセンサである場合、ヨー、ピッチ、ロールの各方向での回転角α、β、γの回転ブレを検出すると、ホモグラフィ行列Hgとして得られる幾何変形パラメータは、下記の式8により表すことができる。   Further, although a motion vector group is predicted in step S205, since the motion vector is detected from the image, the quality of information may vary depending on the size and motion of the subject and the motion of the background. For example, when the posture change information acquisition unit 105 is a gyro sensor, the geometric deformation parameters obtained as the homography matrix Hg when detecting rotational shakes of the rotation angles α, β, and γ in the yaw, pitch, and roll directions are as follows: Can be represented by the following formula 8.

Figure 2015173388
画像のぶれを補正するには、ぶれによる変形を打ち消すような画像変形量となるようにホモグラフィ行列Hを変換する必要があったのと同様に、ホモグラフィ行列Hgを逆行列Hg−1に変換する必要がある。そこで、第1幾何変形パラメータ推定部109及び第2幾何変形パラメータ推定部110のそれぞれにおいて、逆行列H−1と逆行列Hg−1とを線形合成し、その際に、逆行列H−1と逆行列Hg−1との差分が大きくなったら、Hg−1の比率を高くするようにする。これにより、動きベクトルの情報品質の変動を補正して、ベクトル予測が外れたことによる幾何変形の参照領域不足を解消することができる。
Figure 2015173388
In order to correct image blurring, the homography matrix Hg is converted to the inverse matrix Hg −1 in the same manner as the homography matrix H needs to be converted so as to obtain an image deformation amount that cancels the deformation due to blurring. Need to convert. Therefore, in each of the first geometric deformation parameter estimation unit 109 and the second geometric deformation parameter estimation unit 110, the inverse matrix H −1 and the inverse matrix Hg −1 are linearly combined, and at that time, the inverse matrix H −1 and When the difference from the inverse matrix Hg −1 increases, the ratio of Hg −1 is increased. Thereby, it is possible to correct the variation in the information quality of the motion vector and solve the shortage of the reference area of the geometric deformation due to the vector prediction being deviated.

以上の説明の通り、本実施形態では、撮像装置100の姿勢変化に応じて撮像素子102からの入力データ量を削減することができるため、システムリソースの大規模化を回避すると共に、防振処理に要する処理時間を削減することができる。また、これにより、消費電力を抑制することができる。   As described above, in the present embodiment, the amount of input data from the image sensor 102 can be reduced in accordance with a change in the attitude of the image capturing apparatus 100, thereby avoiding an increase in the scale of system resources and the image stabilization process. The processing time required for the process can be reduced. Thereby, power consumption can be suppressed.

<第2実施形態>
図7は、本発明の第2実施形態に係る撮像装置700の概略構造を示すブロック図である。第1実施形態で説明した撮像装置100では、防振処理制御部106が読み出し制御部114を制御する構成となっていたが、第2実施形態に係る撮像装置700では、現像処理部を103を介して、メモリ104の記憶領域を制御する。そこで、図7では、撮像装置700の構成要素のうち、図1に示した撮像装置100の構成要素と共通するものについては同じ符号を付して、説明を省略することとする。
Second Embodiment
FIG. 7 is a block diagram showing a schematic structure of an imaging apparatus 700 according to the second embodiment of the present invention. In the imaging device 100 described in the first embodiment, the image stabilization processing control unit 106 is configured to control the readout control unit 114. However, in the imaging device 700 according to the second embodiment, the development processing unit is set to 103. The storage area of the memory 104 is controlled. Therefore, in FIG. 7, among the constituent elements of the imaging apparatus 700, the same constituent elements as those of the imaging apparatus 100 shown in FIG.

撮像装置700では、処理データを削減するために、現像処理部103は、防振処理制御部106からの指示に従って、撮像素子102から取得したアナログ信号をA/D変換した後のデジタル信号を、一旦、メモリ104に記憶する。そして、メモリ104に記憶されたデジタル信号を、再度、現像処理部103に読み出し、現像処理部103においてAGC及びAWBによって信号レベル補正や白レベル補正を施して、画像信号に変換する。   In the imaging apparatus 700, in order to reduce the processing data, the development processing unit 103 performs a digital signal after A / D conversion of the analog signal acquired from the imaging element 102 in accordance with an instruction from the image stabilization processing control unit 106. Once stored in the memory 104. Then, the digital signal stored in the memory 104 is read again to the development processing unit 103, and signal level correction and white level correction are performed by the AGC and AWB in the development processing unit 103 to convert them into image signals.

図8は、撮像装置700の撮像動作を示すフローチャートである。図7に示す各処理は、CPUがROMに格納されているプログラムをRAMに展開し、実行することにより、撮像装置100の各ブロックが所定の動作と処理を実行することにより実現される。   FIG. 8 is a flowchart showing the imaging operation of the imaging apparatus 700. Each process illustrated in FIG. 7 is realized by causing each block of the imaging apparatus 100 to execute a predetermined operation and process when the CPU expands and executes a program stored in the ROM in the RAM.

図8のフローチャートでは、図2のフローチャートの処理と同じ処理については、同じ符号を付しており、それら(ステップS202〜S206,S208〜S210)については、ここでの説明を省略する。   In the flowchart of FIG. 8, the same processes as those in the flowchart of FIG. 2 are denoted by the same reference numerals, and description thereof is omitted here (steps S <b> 202 to S <b> 206 and S <b> 208 to S <b> 210).

図2のステップS201に代えてステップS801で行われる画像入力では、撮像光学系101により被写体光学像が撮像素子102に結像すると、撮像素子102は読み出し制御部114が指示する領域の画素の蓄積電荷をアナログ信号として現像処理部103に出力する。現像処理部103は、撮像素子102から取得したアナログ信号のうち、防振処理制御部106が指示する領域のアナログ信号のみをA/D変換し、生成したRAW画像に所定の現像処理を施し、生成した画像信号をメモリ104に記憶させる。画像信号は、フレーム毎にメモリ104に記憶される。   In the image input performed in step S801 instead of step S201 in FIG. 2, when the subject optical image is formed on the image sensor 102 by the imaging optical system 101, the image sensor 102 accumulates pixels in an area designated by the read control unit 114. The charge is output to the development processing unit 103 as an analog signal. The development processing unit 103 A / D-converts only the analog signal in the area instructed by the image stabilization processing control unit 106 among the analog signals acquired from the image sensor 102, and performs predetermined development processing on the generated RAW image. The generated image signal is stored in the memory 104. The image signal is stored in the memory 104 for each frame.

撮像装置700では、所定のフレームレートで、順次、ステップS801の処理によるフレーム画像が生成され、メモリ104に記憶、保持されたフレーム画像が動きベクトル検出部107に入力される。このとき、メモリ104に記憶、保持されているフレーム画像は、順次、更新される。   In the imaging apparatus 700, frame images are sequentially generated by the processing in step S801 at a predetermined frame rate, and the frame images stored and held in the memory 104 are input to the motion vector detection unit 107. At this time, the frame images stored and held in the memory 104 are sequentially updated.

なお、ステップS801では、次のように処理を行ってもよい。即ち、先ず、撮像素子102の全領域の画素から蓄積電荷を読み出し、現像処理部103においてA/D変換を施した後のデジタル信号を、一旦、メモリ104に記憶する。そして、現像処理部103が、防振処理制御部106が指示する領域のみのデジタル信号をメモリ104から読み出し、信号レベル補正や白レベル補正等の現像処理を行い、生成した画像信号をメモリ104に記憶するようにしてもよい。これに限らず、A/D変換後のデジタル信号に対して信号レベル補正や白レベル補正を行った後の現像信号を、一旦、メモリ104に記憶させ、そこから防振処理制御部106が指示する領域の画像信号を取り出すようにしても構わない。但し、現像処理部103における処理の早い段階でメモリ104にデータを書き出すことにより、信号処理のデータ量を抑制する効果は高くなる。   In step S801, processing may be performed as follows. That is, first, accumulated charges are read from the pixels in the entire area of the image sensor 102, and a digital signal after A / D conversion is performed in the development processing unit 103 is temporarily stored in the memory 104. Then, the development processing unit 103 reads out the digital signal of only the area designated by the image stabilization processing control unit 106 from the memory 104, performs development processing such as signal level correction and white level correction, and stores the generated image signal in the memory 104. You may make it memorize | store. Not limited to this, the development signal after the signal level correction and the white level correction are performed on the digital signal after A / D conversion is temporarily stored in the memory 104, and the image stabilization processing control unit 106 instructs from there. The image signal of the area to be processed may be taken out. However, by writing data to the memory 104 at an early stage of processing in the development processing unit 103, the effect of suppressing the data amount of signal processing is enhanced.

ステップS802では、図6を参照して説明した第4の領域603を決定し、この第4の領域603に対応する画像信号をメモリ104への書き出し領域として決定する。図9は、メモリ104のデータ保持領域の一部を模式的に示す図である。第1の記憶領域900は、撮像素子102の全読み出し領域である第1の領域601のデータを保持することができる領域である。第2の記憶領域901は、ぶれにより撮像素子102からの読み出しが必要となった第3の領域602に対応する画像信号を保持することができる領域である。第3の記憶領域902は、実際に撮像素子102からの読み出す必要のある第4の領域603に対応する画像信号を保持することができる領域である。本実施形態では、第3の記憶領域902のみを用いることで、メモリ104の使用領域を削減し、メモリ104に対するデータの書き込みと読み出しに係る負荷を低減させることが可能となる。   In step S802, the fourth area 603 described with reference to FIG. 6 is determined, and an image signal corresponding to the fourth area 603 is determined as an area to be written to the memory 104. FIG. 9 is a diagram schematically showing a part of the data holding area of the memory 104. The first storage area 900 is an area that can hold data of the first area 601 that is the entire reading area of the image sensor 102. The second storage area 901 is an area that can hold an image signal corresponding to the third area 602 that needs to be read from the image sensor 102 due to a shake. The third storage area 902 is an area that can hold an image signal corresponding to the fourth area 603 that actually needs to be read from the image sensor 102. In the present embodiment, by using only the third storage area 902, it is possible to reduce the use area of the memory 104 and reduce the load related to writing and reading data to the memory 104.

ステップS803の画像入力とは、現像処理部103が、ステップS802で決定された実際に読み出す必要がある第4の領域603の現像処理済み(信号レベル補正や白レベル補正の処理済み)の画像信号のみをメモリ104への書き出す処理である。ここでも、ステップS801と同様に、撮像素子102の全領域から蓄積電荷の読み出しを行い、第4の領域603のみの現像処理を行ってメモリ104へ書き出すようにしてもよい。但し、書き出し時に画像信号を制限する制御とすることで、メモリ104のバス帯域の余裕度を確保する効果やアクセス時間を短縮できる効果、消費電力を抑制する効果が最大に得られる。   The image input in step S803 refers to an image signal that has been developed (signal level correction or white level correction processed) in the fourth area 603 that the development processing unit 103 actually needs to read, determined in step S802. Is a process of writing only to the memory 104. Here, as in step S801, the accumulated charge may be read from the entire area of the image sensor 102, and only the fourth area 603 may be developed and written to the memory 104. However, by controlling the image signal at the time of writing, the effect of ensuring the margin of the bus bandwidth of the memory 104, the effect of shortening the access time, and the effect of suppressing the power consumption are maximized.

以上の説明の通り、本実施形態では、撮像装置700の姿勢変化に応じてメモリ104の入出力データ量を削減する。これにより、防振処理に要する処理時間を削減し、メモリバス帯域の余裕度を確保し、また、消費電力を抑制することができる。   As described above, in the present embodiment, the input / output data amount of the memory 104 is reduced in accordance with the posture change of the imaging apparatus 700. As a result, the processing time required for the image stabilization process can be reduced, the margin of the memory bus bandwidth can be ensured, and the power consumption can be suppressed.

<その他の実施形態>
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
<Other embodiments>
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

本発明は以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

101 撮像光学系
102 撮像素子
103 現像処理部
104 メモリ
105 姿勢変化情報取得部
106 防振処理制御部
107 動きベクトル検出部
108 動きベクトル予測部
109 第1幾何変形パラメータ推定部
110 第2幾何変形パラメータ推定部
111 幾何変形処理部
112 画像記憶部
113 画像表示部
114 読み出し制御部
DESCRIPTION OF SYMBOLS 101 Image pick-up optical system 102 Image pick-up element 103 Development processing part 104 Memory 105 Attitude change information acquisition part 106 Anti-vibration process control part 107 Motion vector detection part 108 Motion vector prediction part 109 1st geometric deformation parameter estimation part 110 2nd geometric deformation parameter estimation Unit 111 geometric deformation processing unit 112 image storage unit 113 image display unit 114 read control unit

Claims (8)

光学系を通して被写体像が結像する撮像素子から信号の読み出しを行う読み出し手段と、前記撮像素子から読み出された信号から画像を生成する現像手段とを備える撮像装置であって、
前記撮像装置の姿勢変化を検出し、姿勢変化情報を出力する姿勢変化検出手段と、
前記現像手段により生成された時間的に連続する複数の画像から動きベクトルを検出する検出手段と、
現在と過去の前記動きベクトルから前記現像手段により生成される次の画像との間の動きベクトルを予測する予測手段と、
前記撮像素子から信号を読み出す読み出し領域を決定するための第1の幾何変形パラメータを前記姿勢変化情報と前記予測した動きベクトルから推定する第1の推定手段と、
前記読み出し領域に含まれる幾何変形処理の対象領域を読み出すための第2の幾何変形パラメータを前記姿勢変化情報と前記動きベクトルから推定する第2の推定手段と、
前記第1の幾何変形パラメータに基づいて前記撮像素子の前記読み出し領域から信号を読み出すように前記読み出し手段を制御する制御手段と、
前記第2の幾何変形パラメータを用いて前記対象領域の画像に対して幾何変形処理を施す幾何変形手段とを備えることを特徴とする撮像装置。
An image pickup apparatus comprising: a reading unit that reads a signal from an image sensor on which a subject image is formed through an optical system; and a developing unit that generates an image from the signal read from the image sensor.
Posture change detection means for detecting posture change of the imaging device and outputting posture change information;
Detecting means for detecting a motion vector from a plurality of temporally continuous images generated by the developing means;
Prediction means for predicting a motion vector between a current image and a previous image generated by the developing means from the past motion vector;
First estimation means for estimating a first geometric deformation parameter for determining a readout region for reading a signal from the image sensor from the posture change information and the predicted motion vector;
Second estimation means for estimating a second geometric deformation parameter for reading a target region of the geometric deformation process included in the read region from the posture change information and the motion vector;
Control means for controlling the reading means so as to read a signal from the reading area of the image sensor based on the first geometric deformation parameter;
An imaging apparatus comprising: a geometric deformation unit that performs a geometric deformation process on the image of the target region using the second geometric deformation parameter.
光学系を通して撮像素子に結像する被写体像から画像を生成する撮像装置であって、
前記撮像素子から出力される信号のうち所定の領域の信号から画像を生成し、前記画像を記憶手段に記憶させる現像手段と、
前記撮像装置の姿勢変化を検出し、姿勢変化情報を出力する姿勢変化検出手段と、
前記現像手段により生成された時間的に連続する複数の画像から動きベクトルを検出する検出手段と、
現在と過去の前記動きベクトルから前記現像手段により生成される次の画像との間の動きベクトルを予測する予測手段と、
前記記憶手段に記憶された画像から読み出す読み出し領域を決定するための第1の幾何変形パラメータを前記姿勢変化情報と前記予測した動きベクトルから推定する第1の推定手段と、
前記読み出し領域に含まれる幾何変形処理の対象領域を読み出すための第2の幾何変形パラメータを前記姿勢変化情報と前記動きベクトルから推定する第2の推定手段と、
前記第1の幾何変形パラメータに基づいて前記記憶手段に記憶された画像から前記読み出し領域の画像を読み出す制御手段と、
前記第2の幾何変形パラメータを用いて前記対象領域の画像に対して幾何変形処理を施す幾何変形手段とを備えることを特徴とする撮像装置。
An imaging device that generates an image from a subject image formed on an imaging device through an optical system,
A developing unit that generates an image from a signal in a predetermined region among signals output from the image sensor, and stores the image in a storage unit;
Posture change detection means for detecting posture change of the imaging device and outputting posture change information;
Detecting means for detecting a motion vector from a plurality of temporally continuous images generated by the developing means;
Prediction means for predicting a motion vector between a current image and a previous image generated by the developing means from the past motion vector;
First estimation means for estimating a first geometric deformation parameter for determining a read area to be read from an image stored in the storage means from the posture change information and the predicted motion vector;
Second estimation means for estimating a second geometric deformation parameter for reading a target region of the geometric deformation process included in the read region from the posture change information and the motion vector;
Control means for reading out the image of the readout area from the image stored in the storage means based on the first geometric deformation parameter;
An imaging apparatus comprising: a geometric deformation unit that performs a geometric deformation process on the image of the target region using the second geometric deformation parameter.
前記制御手段は、前記光学系の焦点距離および/または対物距離に応じて、前記第1の推定手段が値を推定する前記第1の幾何変形パラメータおよび前記第2の推定手段が値を推定する前記第2の幾何変形パラメータを変更することを特徴とする請求項1又は2に記載の撮像装置。   The control means is configured to estimate the value by the first geometric deformation parameter and the second estimation means that the first estimation means estimates values according to a focal length and / or an objective distance of the optical system. The imaging apparatus according to claim 1, wherein the second geometric deformation parameter is changed. 前記第1の推定手段が値を推定する前記第1の幾何変形パラメータは、過去に用いた第1の幾何変形パラメータを時間方向に平滑化したものであり、
前記第2の推定手段が値を推定する前記第2の幾何変形パラメータは、過去に用いた第2の幾何変形パラメータを時間方向に平滑化したものであることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
The first geometric deformation parameter whose value is estimated by the first estimating means is obtained by smoothing the first geometric deformation parameter used in the past in the time direction,
4. The second geometric deformation parameter whose value is estimated by the second estimating means is obtained by smoothing a second geometric deformation parameter used in the past in a time direction. The imaging device according to any one of the above.
前記第1の幾何変形パラメータは、前記動きベクトルから求めた幾何変形パラメータと前記姿勢変化情報から求めた幾何変形パラメータとからなり、
前記制御手段は、前記動きベクトルから求めた幾何変形パラメータと前記姿勢変化情報から求めた幾何変形パラメータとの差分が大きくなるに従って、前記姿勢変化情報から求めた幾何変形パラメータの比率を高めるように、前記第1の幾何変形パラメータを設定することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
The first geometric deformation parameter includes a geometric deformation parameter obtained from the motion vector and a geometric deformation parameter obtained from the posture change information.
The control means increases the ratio of the geometric deformation parameter obtained from the posture change information as the difference between the geometric deformation parameter obtained from the motion vector and the geometric deformation parameter obtained from the posture change information increases. The imaging apparatus according to any one of claims 1 to 4, wherein the first geometric deformation parameter is set.
前記第2の幾何変形パラメータは、前記予測した動きベクトルから求めた幾何変形パラメータと前記姿勢変化情報から求めた幾何変形パラメータとからなり、
前記制御手段は、前記予測した動きベクトルから求めた幾何変形パラメータと前記姿勢変化情報から求めた幾何変形パラメータとの差分が大きくなるに従って、前記姿勢変化情報から求めた幾何変形パラメータの比率を高めるように、前記第2の幾何変形パラメータを設定することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。
The second geometric deformation parameter includes a geometric deformation parameter obtained from the predicted motion vector and a geometric deformation parameter obtained from the posture change information,
The control means increases the ratio of the geometric deformation parameter obtained from the posture change information as the difference between the geometric deformation parameter obtained from the predicted motion vector and the geometric deformation parameter obtained from the posture change information increases. The imaging apparatus according to claim 1, wherein the second geometric deformation parameter is set.
撮像装置の制御方法であって、
光学系を通して被写体像を撮像素子に結像させ、前記撮像素子から信号を読み出す読み出しステップと、
前記撮像素子から読み出された信号から画像を生成する現像ステップと、
前記撮像装置の姿勢変化を検出し、姿勢変化情報を取得する取得ステップと、
前記現像ステップで生成された時間的に連続する複数の画像から動きベクトルを検出する検出ステップと、
現在と過去の前記動きベクトルから前記現像ステップにより生成される次の画像との間の動きベクトルを予測する予測ステップと、
前記撮像素子から信号を読み出す読み出し領域を決定するための第1の幾何変形パラメータを前記姿勢変化情報と前記予測した動きベクトルから推定する第1の推定ステップと、
前記読み出し領域に含まれる幾何変形処理の対象領域を読み出すための第2の幾何変形パラメータを前記姿勢変化情報と前記動きベクトルから推定する第2の推定ステップと、
前記第1の幾何変形パラメータに基づいて前記撮像素子の前記読み出し領域から信号を読み出すように前記読み出しステップを制御する制御ステップと、
前記第2の幾何変形パラメータを用いて前記対象領域の画像に対して幾何変形処理を施す幾何変形ステップとを備えることを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus,
A reading step of forming a subject image on an image sensor through an optical system and reading a signal from the image sensor;
A development step of generating an image from a signal read from the image sensor;
An acquisition step of detecting posture change of the imaging device and acquiring posture change information;
A detection step of detecting a motion vector from a plurality of temporally continuous images generated in the development step;
A prediction step of predicting a motion vector between a current image and a past image generated by the development step from the past motion vector;
A first estimation step of estimating a first geometric deformation parameter for determining a readout region for reading a signal from the image sensor from the posture change information and the predicted motion vector;
A second estimating step for estimating a second geometric deformation parameter for reading a target region of the geometric deformation process included in the read region from the posture change information and the motion vector;
A control step of controlling the readout step so as to read out a signal from the readout region of the imaging device based on the first geometric deformation parameter;
And a geometric deformation step for performing a geometric deformation process on the image of the target region using the second geometric deformation parameter.
撮像装置の制御方法であって、
光学系を通して被写体像を撮像素子に結像させ、前記撮像素子から出力される信号のうちの所定の領域の信号から画像を生成する現像ステップと、
前記現像ステップで生成された画像を記憶手段に記憶させる記憶ステップと、
前記撮像装置の姿勢変化を検出し、姿勢変化情報を取得する取得ステップと、
前記現像ステップにより生成された時間的に連続する複数の画像から動きベクトルを検出する検出ステップと、
現在と過去の前記動きベクトルから前記現像ステップにより生成される次の画像との間の動きベクトルを予測する予測ステップと、
前記記憶手段に記憶された画像から読み出す読み出し領域を決定するための第1の幾何変形パラメータを前記姿勢変化情報と前記予測した動きベクトルから推定する第1の推定ステップと、
前記読み出し領域に含まれる幾何変形処理の対象領域を前記記憶手段から読み出すための第2の幾何変形パラメータを前記姿勢変化情報と前記動きベクトルから推定する第2の推定ステップと、
前記第1の幾何変形パラメータに基づいて前記記憶手段に記憶された画像から前記読み出し領域の画像を読み出す読み出しステップと、
前記第2の幾何変形パラメータを用いて前記対象領域の画像に対して幾何変形処理を施す幾何変形ステップと有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus,
A developing step of forming a subject image on an image sensor through an optical system, and generating an image from a signal in a predetermined region among signals output from the image sensor;
A storage step of storing the image generated in the developing step in a storage unit;
An acquisition step of detecting posture change of the imaging device and acquiring posture change information;
A detection step of detecting a motion vector from a plurality of temporally continuous images generated by the developing step;
A prediction step of predicting a motion vector between a current image and a past image generated by the development step from the past motion vector;
A first estimation step for estimating a first geometric deformation parameter for determining a read area to be read from an image stored in the storage means from the posture change information and the predicted motion vector;
A second estimation step of estimating a second geometric deformation parameter for reading out a target area of the geometric deformation process included in the readout area from the storage unit, from the posture change information and the motion vector;
A reading step of reading an image of the reading area from an image stored in the storage unit based on the first geometric deformation parameter;
A control method for an imaging apparatus, comprising: a geometric deformation step of performing a geometric deformation process on the image of the target region using the second geometric deformation parameter.
JP2014048763A 2014-03-12 2014-03-12 Imaging apparatus and control method thereof Active JP6316030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014048763A JP6316030B2 (en) 2014-03-12 2014-03-12 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014048763A JP6316030B2 (en) 2014-03-12 2014-03-12 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2015173388A true JP2015173388A (en) 2015-10-01
JP6316030B2 JP6316030B2 (en) 2018-04-25

Family

ID=54260462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014048763A Active JP6316030B2 (en) 2014-03-12 2014-03-12 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP6316030B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107699A (en) * 2016-12-27 2018-07-05 株式会社東芝 Image processing device and image processing method
WO2019138868A1 (en) * 2018-01-09 2019-07-18 ソニーセミコンダクタソリューションズ株式会社 Image processing device and method, and image processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007267232A (en) * 2006-03-29 2007-10-11 Fujifilm Corp Electronic camera shake correction method and apparatus thereof, and imaging apparatus
JP2013138324A (en) * 2011-12-28 2013-07-11 Xacti Corp Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007267232A (en) * 2006-03-29 2007-10-11 Fujifilm Corp Electronic camera shake correction method and apparatus thereof, and imaging apparatus
JP2013138324A (en) * 2011-12-28 2013-07-11 Xacti Corp Imaging apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107699A (en) * 2016-12-27 2018-07-05 株式会社東芝 Image processing device and image processing method
WO2019138868A1 (en) * 2018-01-09 2019-07-18 ソニーセミコンダクタソリューションズ株式会社 Image processing device and method, and image processing system
KR20200106153A (en) * 2018-01-09 2020-09-11 소니 세미컨덕터 솔루션즈 가부시키가이샤 Image processing apparatus and method, and image processing system
US11388340B2 (en) 2018-01-09 2022-07-12 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and image processing system for image stabilization
KR102658707B1 (en) * 2018-01-09 2024-04-19 소니 세미컨덕터 솔루션즈 가부시키가이샤 Image processing apparatus and method, and image processing system

Also Published As

Publication number Publication date
JP6316030B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
KR101856947B1 (en) Photographing apparatus, motion estimation apparatus, method for image compensation, method for motion estimation, computer-readable recording medium
JP5284048B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US8274570B2 (en) Image processing apparatus, image processing method, hand shake blur area estimation device, hand shake blur area estimation method, and program
JP5189678B2 (en) Image stabilization apparatus and method for moving image
US20130076855A1 (en) Image processing device capable of generating wide-range image
JP2008160300A (en) Image processor, and imaging apparatus
US20140368682A1 (en) Real-time image processing method and device
JP2017175364A (en) Image processing device, imaging device, and control method of image processing device
JP2007243335A (en) Camera shake correction method, camera shake correction apparatus, and imaging apparatus
KR102592745B1 (en) Posture estimating apparatus, posture estimating method and computer program stored in recording medium
JP6282133B2 (en) Imaging device, control method thereof, and control program
JP6316030B2 (en) Imaging apparatus and control method thereof
CN114390188B (en) Image processing method and electronic equipment
JP6223161B2 (en) Image processing apparatus, imaging apparatus including the same, and image processing method
JP6178646B2 (en) Imaging apparatus and image shake correction processing method
KR20190087119A (en) Image processing device stabilizing image and method of stabilizing image
JP6231816B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
KR101012481B1 (en) Apparatus and Method for Correcting Moving Image Wavering
JP6245968B2 (en) Image processing apparatus, imaging apparatus, and control method
JP6271969B2 (en) Imaging apparatus and image correction method
JP2020136774A (en) Image processing apparatus for detecting motion vector, control method of the same, and program
JP6602089B2 (en) Image processing apparatus and control method thereof
JP6016546B2 (en) Imaging device, control method thereof, and control program
JP7077115B2 (en) Image processing equipment, image processing methods, and programs
JP2020129019A (en) Imaging device and control method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180327

R151 Written notification of patent or utility model registration

Ref document number: 6316030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151