JP2010213238A - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- JP2010213238A JP2010213238A JP2009060116A JP2009060116A JP2010213238A JP 2010213238 A JP2010213238 A JP 2010213238A JP 2009060116 A JP2009060116 A JP 2009060116A JP 2009060116 A JP2009060116 A JP 2009060116A JP 2010213238 A JP2010213238 A JP 2010213238A
- Authority
- JP
- Japan
- Prior art keywords
- data
- image
- correction
- captured image
- encoded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、手ブレや被写体ブレによって発生する画像劣化を補正するための技術に関するものである。 The present invention relates to a technique for correcting image degradation caused by camera shake or subject blur.
被写体を撮像する撮像装置には様々なものがあるが、その代表例としてディジタルカメラがある。ディジタルカメラでは、被写体を形成する光がレンズなどの光学系を通過した後、CCDやCMOSなどの撮像素子に写像される。撮像素子は、写像された光を離散的な電気信号に変換することで、被写体のディジタル信号を得る。この撮像素子には、ディジタル信号に変換するための適切な光量レンジが予め設定されており、適切な光量レンジよりも多くの光が入力されると、信号が飽和してしまうことがある。また逆に、適切な光量よりも少ない光が入力されると、S/Nが悪化してしまう。 There are various types of imaging devices for imaging a subject, and a typical example is a digital camera. In a digital camera, light that forms a subject passes through an optical system such as a lens and is then mapped onto an image sensor such as a CCD or CMOS. The image sensor obtains a digital signal of the subject by converting the mapped light into a discrete electrical signal. An appropriate light amount range for conversion into a digital signal is set in advance in this image sensor, and the signal may be saturated when more light is input than the appropriate light amount range. Conversely, if less light than the appropriate amount of light is input, the S / N deteriorates.
このような理由により、一般的にディジタルカメラでは、予めシャッタースピードと呼ばれる露光時間を設定してから撮像する。この露光時間を、被写体の光量に基づいて設定することで、光量の多少に関わらず、撮像素子の光量レンジ内の好適な光量を得ることができる。例えば、被写体から入力される光量が少ない場合は、露光時間を相対的に長く設定し、逆に被写体から入力される光量が多い場合は、露光時間を相対的に短く設定することで、好適な光量レンジ内の信号値を得ることができる。 For this reason, digital cameras generally capture images after setting an exposure time called a shutter speed in advance. By setting the exposure time based on the amount of light of the subject, a suitable amount of light within the light amount range of the image sensor can be obtained regardless of the amount of light. For example, when the amount of light input from the subject is small, the exposure time is set to be relatively long. Conversely, when the amount of light input from the subject is large, it is preferable to set the exposure time to be relatively short. A signal value within the light amount range can be obtained.
しかしながら、撮像装置を手で持って撮像する場合など、撮像装置が固定されていない場合は、露光時間が相対的に長くなると、露光している間に撮像装置がブレたりすることがあり、その結果、撮像画像がぼけてしまう。このぼけた撮像画像を補正するためには、ジャイロセンサなどを用いてボケの分布を計測し、ボケの周波数特性の逆特性を用いて補正する。これにより、このボケを除去することができる可能性がある。しかしながら、逆特性が求まらない場合、ボケは除去できない。即ち、撮像画像は元には戻らない。 However, when the image pickup device is not fixed, such as when holding the image pickup device by hand, if the exposure time is relatively long, the image pickup device may be shaken during exposure. As a result, the captured image is blurred. In order to correct this blurred captured image, a blur distribution is measured using a gyro sensor or the like, and correction is performed using a reverse characteristic of the blur frequency characteristic. Thereby, there is a possibility that this blur can be removed. However, if the reverse characteristic is not obtained, the blur cannot be removed. That is, the captured image is not restored.
そこで、上述した手ブレの抑制等、画像品質向上を目的とする技術が提案されている(非特許文献1)。係る技術によれば、複数回の露光を離散的に制御し、その露光情報を利用する事によって、ブレた画像を元に戻すことが可能となる。 Therefore, a technique for improving image quality, such as suppression of camera shake described above, has been proposed (Non-Patent Document 1). According to such a technique, it is possible to restore a blurred image by controlling a plurality of exposures discretely and using the exposure information.
しかしながら、ブレ補正をしない方が画像としてのダイナミック感が得られることもあり、補正処理の必要性は、撮像画像の再生時の環境に依存する。本発明は以上の問題に鑑みてなされたものであり、撮像画像中の動き暈けを補正するか否かを適宜選択可能にするための技術を提供することを目的とする。更に、本発明の別の目的は、動き暈けを補正するために撮像画像に添付する情報のサイズをできるだけ小さくすることにある。 However, there is a case in which a dynamic feeling as an image can be obtained without performing the blur correction, and the necessity for the correction processing depends on the environment at the time of reproducing the captured image. The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for appropriately selecting whether or not to correct motion blur in a captured image. Furthermore, another object of the present invention is to make the size of information attached to a captured image as small as possible in order to correct motion blur.
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。即ち、撮像画像を取得する手段と、前記撮像画像中の動き暈けを補正するための補正データを取得する取得手段と、前記撮像画像を符号化することで符号化画像データを生成すると共に、前記補正データを符号化することで符号化補正データを生成する手段と、前記符号化画像データと、前記符号化補正データと、をセットにして出力する手段とを備えることを特徴とする。 In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement. That is, means for acquiring a captured image, acquisition means for acquiring correction data for correcting motion blur in the captured image, and generating encoded image data by encoding the captured image, It comprises: means for generating encoded correction data by encoding the correction data; and means for outputting the encoded image data and the encoded correction data as a set.
本発明の構成によれば、撮像画像中の動き暈けを補正するか否かを適宜選択可能にすることができる。更に、動き暈けを補正するために撮像画像に添付する情報のサイズをできるだけ小さくすることができる。 According to the configuration of the present invention, it is possible to appropriately select whether or not to correct motion blur in a captured image. Furthermore, the size of information attached to the captured image for correcting motion blur can be reduced as much as possible.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
図1は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。係る画像処理装置は、撮像機能と、撮像した画像に対して後述する処理を施す機能と、を有している装置であれば如何なる装置であっても良いのであるが、本実施形態では、ディジタルカメラを例に取り説明する。また、図1には、本実施形態についての説明で用いる構成のみを示しており、全ての構成を示しているわけではない。即ち、電源のような、一般的に用いられるものについては図1では図示は省略している。 FIG. 1 is a block diagram illustrating a functional configuration example of the image processing apparatus according to the present embodiment. The image processing apparatus may be any apparatus as long as it has an imaging function and a function for performing a process to be described later on the captured image. A description will be given by taking a camera as an example. Further, FIG. 1 shows only the configuration used in the description of the present embodiment, and does not show all the configurations. In other words, a commonly used device such as a power supply is not shown in FIG.
図1に示す如く、本実施形態に係る画像処理装置は、制御部199、撮像装置100、露光パターン・動き量の入力部109、画像符号化装置103、暈け補正データ付加装置104、暈け補正情報符号化装置105、出力端子110、を有している。 As shown in FIG. 1, the image processing apparatus according to the present embodiment includes a control unit 199, an imaging device 100, an exposure pattern / motion amount input unit 109, an image encoding device 103, a blur correction data adding device 104, a blur. A correction information encoding device 105 and an output terminal 110 are provided.
露光パターン・動き量の入力部109には、撮像装置100の動き量を示す動き量データと、撮像装置100の露光パターンを示す露光パターンデータと、が入力される。撮像装置100の動き量については、例えば、撮像装置100にジャイロセンサなどの動きセンサを装着し、このジャイロセンサによる計測結果を、撮像装置100の動き量データとして取得すればよい。露光パターンについては予め設定されているものとする。 The exposure pattern / motion amount input unit 109 receives motion amount data indicating the amount of motion of the image capturing apparatus 100 and exposure pattern data indicating the exposure pattern of the image capturing apparatus 100. Regarding the amount of motion of the imaging device 100, for example, a motion sensor such as a gyro sensor may be attached to the imaging device 100, and a measurement result by the gyro sensor may be acquired as motion amount data of the imaging device 100. It is assumed that the exposure pattern is set in advance.
露光パターン・動き量の入力部109は、この入力された動き量データ、露光パターンデータを後段の暈け補正情報符号化装置105に送出すると共に、露光パターンデータのみを撮像装置100に送出する。 The exposure pattern / motion amount input unit 109 sends the input motion amount data and exposure pattern data to the subsequent blur correction information encoding device 105 and sends only the exposure pattern data to the imaging device 100.
撮像装置100は、レンズや光学LPFなどの光学部101、メカニカルシャッターやCCD、CMOSなどから構成される撮像素子部102を有している。被写体を含む外界からの光は、この光学部101を介して撮像素子部102に入光する。撮像素子部102は、露光パターン・動き量の入力部109から受けた露光パターンデータが示す露光パターンに応じて露光し、光学部101から入光した光量に基づいた電気信号を、データとして画像符号化装置103に入力する。即ち、撮像装置100が露光パターンデータに基づいて撮像した撮像画像は、データとして画像符号化装置103に入力される。 The imaging apparatus 100 includes an optical unit 101 such as a lens or an optical LPF, and an imaging element unit 102 including a mechanical shutter, a CCD, a CMOS, and the like. Light from the outside including the subject enters the image sensor unit 102 through the optical unit 101. The image sensor unit 102 performs exposure according to the exposure pattern indicated by the exposure pattern data received from the exposure pattern / motion amount input unit 109, and uses an electrical signal based on the amount of light received from the optical unit 101 as image data. Is input to the conversion apparatus 103. That is, a captured image captured by the image capturing apparatus 100 based on the exposure pattern data is input to the image encoding apparatus 103 as data.
なお、撮像装置100が露光パターンデータに基づいて露光を行うことで撮像画像をデータとして取得するための仕組みについては従来と同じであるため、これについてのこれ以上の説明は省略する。 Note that the mechanism for acquiring the captured image as data by performing exposure based on the exposure pattern data by the imaging apparatus 100 is the same as that in the past, and thus further description thereof will be omitted.
画像符号化装置103は、撮像装置100から送出された撮像画像を符号化することで、符号化画像データを生成する。係る符号化は、例えば、H.264方式に従って行う。 The image encoding device 103 generates encoded image data by encoding the captured image sent from the imaging device 100. Such encoding is performed, for example, according to the H.264 scheme.
暈け補正情報符号化装置105は、計算部106,計算部107、セレクタ108を有している。計算部106は、露光パターン・動き量の入力部109から動き量データと露光パターンデータとを受ける。そして計算部106は、露光パターンデータと動き量データのセットのデータ長を計算する。一方、計算部107は、露光パターン・動き量の入力部109から動き量データと露光パターンデータとを受ける。そして計算部107は、露光パターンデータと動き量データとから、撮像画像中の動き暈けを補正するための逆フィルタデータを生成し、生成した逆フィルタデータのデータ長を計算する。セレクタ108は、露光パターンデータと動き量データのセット、逆フィルタデータ、のうちデータ長の短い方を、撮像画像中の動き暈けを補正するために用いる補正データとして選択する。そしてセレクタ108は、選択した方のデータを符号化し、符号化補正データを生成する。そしてセレクタ108は、この符号化補正データを暈け補正データ付加装置104に送出する。 The blur correction information encoding apparatus 105 includes a calculation unit 106, a calculation unit 107, and a selector 108. The calculation unit 106 receives motion amount data and exposure pattern data from the exposure pattern / motion amount input unit 109. Then, the calculation unit 106 calculates the data length of the set of exposure pattern data and motion amount data. On the other hand, the calculation unit 107 receives motion amount data and exposure pattern data from the exposure pattern / motion amount input unit 109. Then, the calculation unit 107 generates reverse filter data for correcting motion blur in the captured image from the exposure pattern data and the motion amount data, and calculates the data length of the generated reverse filter data. The selector 108 selects the shorter one of the exposure pattern data and the motion amount data set and the inverse filter data as the correction data used to correct the motion blur in the captured image. The selector 108 encodes the selected data and generates encoded correction data. The selector 108 sends the encoded correction data to the correction data adding device 104.
暈け補正データ付加装置104は、画像符号化装置103から受けた符号化画像データと、暈け補正情報符号化装置105から受けた符号化補正データとをセットにして出力する。出力端子110からは、暈け補正データ付加装置104から出力されたセットが出力される。制御部199は、画像処理装置を構成している上記各部の動作制御を行う。 The blur correction data adding device 104 outputs the encoded image data received from the image encoding device 103 and the encoded correction data received from the blur correction information encoding device 105 as a set. From the output terminal 110, the set output from the blur correction data adding device 104 is output. The control unit 199 performs operation control of the above-described units constituting the image processing apparatus.
図3は、画像処理装置が行う処理のフローチャートである。先ずステップS301では、露光パターン・動き量の入力部109は、撮像装置100の動き量を示す動き量データと、撮像装置100の露光パターンを示す露光パターンデータと、を取得する。露光パターン・動き量の入力部109は、この入力された動き量データ、露光パターンデータを後段の暈け補正情報符号化装置105に送出すると共に、露光パターンデータのみを撮像装置100に送出する。 FIG. 3 is a flowchart of processing performed by the image processing apparatus. First, in step S <b> 301, the exposure pattern / motion amount input unit 109 acquires motion amount data indicating the motion amount of the imaging apparatus 100 and exposure pattern data indicating the exposure pattern of the imaging apparatus 100. The exposure pattern / motion amount input unit 109 sends the input motion amount data and exposure pattern data to the subsequent blur correction information encoding device 105 and sends only the exposure pattern data to the imaging device 100.
次に、ステップS302では、撮像装置100は、光学部101、メカニカルシャッターにより、被写体を含む外界を撮像し、撮像画像を取得する。そして撮像装置100は、この撮像画像を画像符号化装置103に入力する。次に、ステップS303では、画像符号化装置103は、撮像装置100から送出された撮像画像を符号化することで、符号化画像データを生成する。 Next, in step S <b> 302, the imaging apparatus 100 captures the outside world including the subject using the optical unit 101 and the mechanical shutter, and acquires a captured image. The imaging device 100 inputs this captured image to the image encoding device 103. Next, in step S <b> 303, the image encoding device 103 generates encoded image data by encoding the captured image sent from the imaging device 100.
次に、ステップS304では、暈け補正情報符号化装置105は、露光パターン・動き量の入力部109から動き量データと露光パターンデータとを受ける。そして、これらのデータのセット、若しくはこれらのデータに基づいて算出される逆フィルタデータ、のうちデータ長の短い方を、撮像画像中の動き暈けを補正するために用いる補正データとして選択する。そして選択した方のデータを符号化し、符号化補正データを生成する。そして暈け補正情報符号化装置105は、この符号化補正データを暈け補正データ付加装置104に送出する。ステップS304における処理の詳細については後述する。 In step S304, the blur correction information encoding apparatus 105 receives the motion amount data and the exposure pattern data from the exposure pattern / motion amount input unit 109. Then, the shorter data length of the set of these data or the inverse filter data calculated based on these data is selected as the correction data used for correcting the motion blur in the captured image. Then, the selected data is encoded to generate encoded correction data. Then, the blur correction information encoding device 105 sends the encoded correction data to the blur correction data adding device 104. Details of the processing in step S304 will be described later.
次に、ステップS305では、暈け補正データ付加装置104は、画像符号化装置103から受けた符号化画像データに、暈け補正情報符号化装置105から受けた符号化補正データを付加することで、それぞれのデータをセットにする。もちろん、それぞれのデータをセットにするための方法はこれに限定するものではない。 Next, in step S <b> 305, the blur correction data adding device 104 adds the encoded correction data received from the blur correction information encoding device 105 to the encoded image data received from the image encoding device 103. , Set each data as a set. Of course, the method for setting each data is not limited to this.
次に、ステップS306では、暈け補正データ付加装置104は、ステップS305でセットにしたデータ群を出力端子110を介して出力する。次に、ステップS304で行う暈け補正情報符号化装置105の動作についてより詳細に説明する。 Next, in step S306, the blur correction data adding apparatus 104 outputs the data group set in step S305 via the output terminal 110. Next, the operation of the blur correction information encoding apparatus 105 performed in step S304 will be described in more detail.
撮像画像中の動き暈けを補正する処理は、露光パターンデータと動き量データとから算出可能な逆フィルタを用いて行われる。従って、係る補正を行うために、補正側の装置には、露光パターンデータと動き量データのセット、若しくはこのセットを用いて算出可能な逆フィルタデータ、を補正データとして与えればよいことになる。即ち、補正データとして、露光パターンデータと動き量データとのセットを用いても良いし、これらのデータから算出した逆フィルタデータを用いても良い。 The process for correcting the motion blur in the captured image is performed using an inverse filter that can be calculated from the exposure pattern data and the motion amount data. Therefore, in order to perform such correction, the correction-side apparatus may be provided with a set of exposure pattern data and motion amount data, or inverse filter data that can be calculated using this set, as correction data. That is, as the correction data, a set of exposure pattern data and motion amount data may be used, or inverse filter data calculated from these data may be used.
補正データとして露光パターンデータと動き量データとのセットを用いた場合、補正側では、係るセットに基づいて逆フィルタデータを生成し、生成した逆フィルタデータを用いて撮像画像に対する暈け補正処理を行えばよい。一方、補正データとして逆フィルタデータを用いた場合には、この逆フィルタデータを用いて撮像画像に対する暈け補正処理を行えばよい。 When a set of exposure pattern data and motion amount data is used as correction data, the correction side generates inverse filter data based on the set, and performs blur correction processing on the captured image using the generated inverse filter data. Just do it. On the other hand, when inverse filter data is used as the correction data, the blur correction process may be performed on the captured image using the inverse filter data.
何れにせよ、補正側が係る補正処理を行うためには、補正データには露光パターンデータと動き量データとのセットを用いても良いし、逆フィルタデータそのものを用いても良い。 In any case, in order to perform the correction process on the correction side, a set of exposure pattern data and motion amount data may be used as correction data, or inverse filter data itself may be used.
しかし、補正処理の精度という点では、補正データは何れの形式であっても良いが、データサイズという観点では、補正データはなるべくサイズの小さいデータであることが好ましい。そこで、補正データとして、露光パターンデータと動き量データのセット、逆フィルタデータのうち、ディジタルデータとしてより少ないビットで表現可能な方を選択する。 However, the correction data may be in any format in terms of the accuracy of the correction processing, but from the viewpoint of the data size, the correction data is preferably data having a size as small as possible. Therefore, as the correction data, one that can be expressed with fewer bits as digital data is selected from the set of exposure pattern data and motion amount data, and the inverse filter data.
図6は、ステップS304における処理の詳細を示すフローチャートである。先ず、ステップS1001では、計算部106は、露光パターン・動き量の入力部109から動き量データと露光パターンデータとを受ける。 FIG. 6 is a flowchart showing details of the processing in step S304. In step S1001, the calculation unit 106 receives motion amount data and exposure pattern data from the exposure pattern / motion amount input unit 109.
次に、ステップS1002では、計算部106は、露光パターンデータと動き量データのセットのデータ長Rを計算する。露光パターンはシャッタースピードを単位(1Tick)として表現されるので、32Tickで露光パターンを表現している場合、32bitとしてデータ量を計算する。さらに動き量は可変長データとして扱い、1画素動いたら1bitとして、2画素の場合は2bitといったように計算する。 Next, in step S1002, the calculation unit 106 calculates the data length R of the set of exposure pattern data and motion amount data. Since the exposure pattern is expressed by using the shutter speed as a unit (1 Tick), when the exposure pattern is expressed by 32 Tick, the data amount is calculated as 32 bits. Furthermore, the amount of motion is handled as variable length data, and is calculated as 1 bit when moving 1 pixel, 2 bits in the case of 2 pixels.
次に、ステップS1003では、計算部107は、露光パターン・動き量の入力部109から動き量データと露光パターンデータとを受ける。そして計算部107は、露光パターンデータと動き量データとから、撮像画像中の動き暈けを補正するための逆フィルタデータを生成する。 In step S1003, the calculation unit 107 receives motion amount data and exposure pattern data from the exposure pattern / motion amount input unit 109. Then, the calculation unit 107 generates inverse filter data for correcting motion blur in the captured image from the exposure pattern data and the motion amount data.
ここで、逆フィルタデータを求める方法について説明する。なお、以下に説明する、逆フィルタデータを求める方法については、FIRフィルタなど、一般のフィルタを求めるための処理方法であって周知である。従って、以下では主要な部分についてのみ説明し、その詳細な部分についての説明は省略する。 Here, a method for obtaining the inverse filter data will be described. The method for obtaining inverse filter data described below is a processing method for obtaining a general filter such as an FIR filter and is well known. Accordingly, only the main part will be described below, and the detailed part will not be described.
図7は、逆フィルタデータを求めるための処理を説明する図である。図7に示す如く、シャッタースピード1/2000(=1Tick)の条件で、1画素/1Tickの等速で6画素右に移動する被写体(図7上図)を、図7下図のような露光パターンで撮影する場合を仮定する。等速運動している信号xi tの時刻tにおける水平座標iは以下のようになる。 FIG. 7 is a diagram for explaining processing for obtaining inverse filter data. As shown in FIG. 7, an object that moves 6 pixels to the right at a constant speed of 1 pixel / 1 Tick (upper figure in FIG. 7) under the condition of shutter speed 1/2000 (= 1 Tick) is an exposure pattern as shown in the lower figure of FIG. Assume that you are shooting with The horizontal coordinate i of the signal x i t moving at a constant speed at time t is as follows.
i=i0+α×t
1画素/Tickの等速で動いている場合の水平方向の速度は以下のようになる。
i = i 0 + α × t
The horizontal speed when moving at a constant speed of 1 pixel / tick is as follows.
Δi=α
着目している画素の初期座標i=i0を0に置き換えると以下の式(1)が得られる。
Δi = α
When the initial coordinate i = i 0 of the pixel of interest is replaced with 0, the following equation (1) is obtained.
Δi=1 (1)
以降では説明を簡単にする為、図8に示す撮像画像において、上から5ライン目の1ライン(太線で囲っている1ライン:処理対象ラインと呼称する)に対する処理を説明する。実際には、同様の処理をその他のラインについても行う。図8においてそれぞれの矩形は1つの画素を示している。
Δi = 1 (1)
In the following, in order to simplify the description, a process for one line of the fifth line from the top (one line surrounded by a thick line: referred to as a processing target line) in the captured image shown in FIG. Actually, the same processing is performed for the other lines. In FIG. 8, each rectangle represents one pixel.
図9の上部には、処理対象ラインを時間軸方向に並べた結果を示す。そして、シャッターパターンatで時間軸方向に加算した信号は図9の中部に示すようになり、これをディジタル表現すると図9の下部に示すようになる。 The upper part of FIG. 9 shows the result of arranging the processing target lines in the time axis direction. The signal obtained by adding the time axis direction in the shutter pattern a t is as shown in the middle of FIG. 9, which as shown in the lower part of FIG. 9 when the digital representation.
ディジタル化された信号yi Tは、以下の式(2)に示す如く、シャッターパターンatと信号のパワーxi tの内積で表せる。 Digitized signal y i T, as shown in the following equation (2) can be expressed by the inner product of the power x i t of the shutter pattern a t signal.
例えば、時刻Tにおける水平座標の位置i=6でディジタル化された信号y6 Tは以下のようになる。 For example, the signal y 6 T digitized at the horizontal coordinate position i = 6 at time T is as follows.
上記式(1)より以下の式が成り立つ。 From the above formula (1), the following formula is established.
(数3)に示した式を用いて(数2)に示した式を以下のように表す。 Using the equation shown in (Equation 3), the equation shown in (Equation 2) is expressed as follows.
一般化式は以下のようになる。 The generalized formula is as follows.
ここで、以下のようなAを定義する。 Here, the following A is defined.
ただしnは暈け補正対象の画素数。 However, n is the number of pixels for blur correction.
m=t=6、n=7の場合、上記Aは以下のようになる。 When m = t = 6 and n = 7, A is as follows.
Aを以下のように表現する。 A is expressed as follows.
そして以下の群を定義する。 Then define the following groups:
そしてこの群によって、図10に示す如く、行列Fを生成する。この行列Fがボケを発生させる行列となる。 By this group, a matrix F is generated as shown in FIG. This matrix F is a matrix that generates blur.
m=3、t=6、n=7の場合、以下のようになる。先ず、0.5画素/Tickの等速で動いている場合は以下のようになる。 When m = 3, t = 6, and n = 7, the following results. First, when moving at a constant speed of 0.5 pixels / tick, it is as follows.
(数11)に示した式を用いて、(数3)に示した式を以下のように表す。 Using the equation shown in (Equation 11), the equation shown in (Equation 3) is expressed as follows.
そして、(数10)に示した式の生成手順に従い、図11に示す如く、ボケを発生させる行列Fを定義する。そして上記式により、時刻Tにおける暈け画像YTを以下のように表す。なお、以下の式13を画像として表すと図12に示すような画像となる。 Then, in accordance with the procedure for generating the equation shown in (Equation 10), a matrix F that generates blur is defined as shown in FIG. And according to the above equation, expressed blur as follows image Y T at time T. When the following expression 13 is expressed as an image, an image as shown in FIG. 12 is obtained.
また、ボケのない入力画像をXTとする。この場合、入力画像XTと、行列Fと、暈け画像YTとの間には以下の関係が成り立つ。 Further, an input image with no blurring and X T. In this case, the input image X T, and the matrix F, between the blur image Y T holds the following relationship.
然るに、ボケを補正する為のフィルタ、即ち、求めるべき逆フィルタは、行列Fの逆行列である。以上説明した処理により、計算部107は、ステップS1003において逆フィルタを求めることができる。 However, a filter for correcting blur, that is, an inverse filter to be obtained is an inverse matrix of the matrix F. Through the processing described above, the calculation unit 107 can obtain an inverse filter in step S1003.
次に、ステップS1004では、計算部107は、ステップS1003で生成した逆フィルタデータのデータ長Fを計算する。逆フィルタデータのデータ長は、各係数を8ビットで表現した場合、その係数分だけデータ長が増える。例えば、逆行列が3x3の場合、8x3x3=72ビットである。 Next, in step S1004, the calculation unit 107 calculates the data length F of the inverse filter data generated in step S1003. As for the data length of the inverse filter data, when each coefficient is expressed by 8 bits, the data length increases by the coefficient. For example, when the inverse matrix is 3 × 3, 8 × 3 × 3 = 72 bits.
一方、16ビットで露光パターンデータを表現し、可変長データで動き量を表現する場合、例えば動き量が0の時は合計データ長は16ビット、動き量が1画素の場合は16+1で17ビットとなる。図5は、動き量に応じて、二つの情報がどのように増えていくかを示した図である。この場合、動き量が14ピクセルまでは逆フィルタの方がデータ量が少なく、15ピクセルからは露光パターンデータと動き量データの合計の方が少ない。よって、動き量が14ピクセルまでは逆フィルタの情報を画像に付加し、15ピクセルからは露光パターンデータと動き量データを画像に付加した方が、総合的な情報量は少なくなる。 On the other hand, when the exposure pattern data is expressed by 16 bits and the motion amount is expressed by variable length data, for example, when the motion amount is 0, the total data length is 16 bits, and when the motion amount is 1 pixel, 16 + 1 is 17 bits. It becomes. FIG. 5 is a diagram showing how two pieces of information increase according to the amount of movement. In this case, the data amount of the inverse filter is smaller when the motion amount is up to 14 pixels, and the total of the exposure pattern data and the motion amount data is smaller from 15 pixels. Therefore, if the amount of motion is up to 14 pixels, the information of the inverse filter is added to the image, and if the exposure pattern data and the amount of motion data are added to the image from 15 pixels, the total amount of information becomes smaller.
次に、ステップS1005では、セレクタ108は、露光パターンデータのデータ長と動き量データのデータ長との合計長Rと、逆フィルタデータのデータ長Fとの大小比較を行う。係る大小比較の結果、F>Rの場合には処理をステップS1007に進め、F≦Rの場合には処理をステップS1006に進める。 In step S1005, the selector 108 compares the total length R of the exposure pattern data length and the motion amount data length with the data length F of the inverse filter data. If F> R as a result of the magnitude comparison, the process proceeds to step S1007. If F ≦ R, the process proceeds to step S1006.
ステップS1006では、セレクタ108は、撮像画像中の動き暈けを補正するために用いる補正データとして、逆フィルタデータを選択する。そして、選択した逆フィルタデータを符号化し、符号化補正データを生成する。 In step S1006, the selector 108 selects inverse filter data as correction data used for correcting motion blur in the captured image. Then, the selected inverse filter data is encoded to generate encoded correction data.
一方、ステップS1007では、セレクタ108は、撮像画像中の動き暈けを補正するために用いる補正データとして、露光パターンデータと動き量データのセットを選択する。そして選択したこのセットを符号化し、符号化補正データを生成する。即ち、セレクタ108は、よりデータ長の短い方を、撮像画像中の動き暈けを補正するために用いる補正データとして選択し、選択した方を符号化する。次に、ステップS1008では、セレクタ108は、符号化補正データを暈け補正データ付加装置104に送出する。 On the other hand, in step S1007, the selector 108 selects a set of exposure pattern data and motion amount data as correction data used to correct motion blur in the captured image. Then, the selected set is encoded to generate encoded correction data. That is, the selector 108 selects the shorter data length as correction data used to correct motion blur in the captured image, and encodes the selected data. In step S <b> 1008, the selector 108 sends the encoded correction data to the correction data adding apparatus 104.
なお、以上説明した画像処理装置の動作は、1フレーム分の撮像画像に対するものである。従って、動画像のように複数フレームの撮像画像が画像処理装置に入力された場合は、各フレームの撮像画像について同様の処理を行えばよい。 The operation of the image processing apparatus described above is for a captured image for one frame. Therefore, when a captured image of a plurality of frames is input to the image processing apparatus like a moving image, the same processing may be performed on the captured image of each frame.
次に、図1に示した構成でもって生成された、符号化画像データと符号化補正データのセットを受け取り、これを処理する補正装置について説明する。なお、この補正装置は、図1に示した構成を有する画像処理装置内に納められた装置であるとしても良いし、この画像処理装置に接続されているPCなどのコンピュータであるとしても良い。前者の場合、この補正装置は、画像処理装置において撮像画像をプレビュー表示する際に機能することができるし、後者の場合、この補正装置は、画像処理装置から取得した画像を編集する際に機能することができる。然るに以下の説明は何れの場合であっても同様に適用することができる。 Next, a correction apparatus that receives a set of encoded image data and encoded correction data generated by the configuration shown in FIG. 1 and processes the set will be described. The correction device may be a device housed in the image processing apparatus having the configuration shown in FIG. 1, or may be a computer such as a PC connected to the image processing apparatus. In the former case, the correction device can function when a captured image is displayed as a preview in the image processing device. In the latter case, the correction device functions when editing an image acquired from the image processing device. can do. However, the following description can be similarly applied to any case.
図2は、補正装置の機能構成例を示す図である。図2に示す如く、補正装置は、入力端子200、分離装置201、画像復号装置202、暈け補正情報復号装置204、画像補正装置203、出力端子205、を有する。 FIG. 2 is a diagram illustrating a functional configuration example of the correction apparatus. As illustrated in FIG. 2, the correction device includes an input terminal 200, a separation device 201, an image decoding device 202, a blur correction information decoding device 204, an image correction device 203, and an output terminal 205.
入力端子200には、上記画像処理装置が生成した、符号化補正データが付加された符号化画像データが入力される。符号化補正データが付加された符号化画像データは、後段の分離装置201に入力される。 The input terminal 200 is supplied with encoded image data to which encoded correction data is added, generated by the image processing apparatus. The encoded image data to which the encoding correction data is added is input to the subsequent separation device 201.
分離装置201は、符号化画像データと符号化補正データとを分離し、符号化画像データについては画像復号装置202に送出し、符号化補正データについては暈け補正情報復号装置204に送出する。 The separation device 201 separates the encoded image data and the encoded correction data, sends the encoded image data to the image decoding device 202, and sends the encoded correction data to the blur correction information decoding device 204.
画像復号装置202は、入力された符号化画像データを復号することで、撮像画像を復元する。そして画像復号装置202は、復元した撮像画像を後段の画像補正装置203に送出する。 The image decoding device 202 restores the captured image by decoding the input encoded image data. Then, the image decoding device 202 sends the restored captured image to the subsequent image correction device 203.
暈け補正情報復号装置204は、入力された符号化補正データを復号することで、補正データを復元する。そして暈け補正情報復号装置204は、復元した補正データを後段の画像補正装置203に送出する。 The blur correction information decoding apparatus 204 restores the correction data by decoding the input encoded correction data. Then, the blur correction information decoding apparatus 204 sends the restored correction data to the subsequent image correction apparatus 203.
画像補正装置203は撮像画像、補正データを受けると先ず、この補正データを用いて撮像画像を補正するか否かをユーザに選択させるための画面を、補正装置が有する不図示の表示画面上に表示する。係る表示では、例えば、「補正する」、「補正しない」のそれぞれを指示するためのボタン画像を表示する。そして、ユーザが係る画面上若しくは不図示の操作部を用いて何れかのボタン画像を選択すると、その選択指示は画像補正装置203に入力され、画像補正装置203は、係る選択指示に基づいて処理を行う。 When the image correction apparatus 203 receives the captured image and the correction data, first, a screen for allowing the user to select whether or not to correct the captured image using the correction data is displayed on a display screen (not shown) of the correction apparatus. indicate. In such a display, for example, a button image for instructing “correct” and “not correct” is displayed. When the user selects any button image on the screen or using an operation unit (not shown), the selection instruction is input to the image correction apparatus 203, and the image correction apparatus 203 performs processing based on the selection instruction. I do.
補正する旨の指示を受けた場合、画像補正装置203は、暈け補正情報復号装置204から受けた補正データを用いて、画像復号装置202が復元した撮像画像中の動き暈けを補正し、補正後の撮像画像を、出力端子205を介して出力する。なお、上述の通り、補正データが逆フィルタデータである場合にはそのまま補正データを用いるのであるが、補正データが露光パターンデータと動き量データのセットである場合には、このセットを用いて逆フィルタデータを生成する必要がある。一方、補正しない旨の指示を受けた場合、画像補正装置203は、画像復号装置202が復元した撮像画像をそのまま出力端子205を介して出力する。 When receiving the instruction to correct, the image correction device 203 corrects the motion blur in the captured image restored by the image decoding device 202 using the correction data received from the blur correction information decoding device 204, and The corrected captured image is output via the output terminal 205. As described above, when the correction data is inverse filter data, the correction data is used as it is. However, when the correction data is a set of exposure pattern data and motion amount data, this set is used for the reverse. You need to generate filter data. On the other hand, when receiving an instruction not to correct, the image correction apparatus 203 outputs the captured image restored by the image decoding apparatus 202 via the output terminal 205 as it is.
図4は、補正装置が行う処理のフローチャートである。先ず、ステップS401では、入力端子200は、上記画像処理装置が生成した、符号化補正データが付加された符号化画像データを取得する。そして符号化補正データが付加された符号化画像データは、後段の分離装置201に入力される。 FIG. 4 is a flowchart of processing performed by the correction apparatus. First, in step S401, the input terminal 200 acquires encoded image data to which encoded correction data is added, generated by the image processing apparatus. The encoded image data to which the encoding correction data is added is input to the subsequent separation device 201.
次に、ステップS402では、分離装置201は、符号化画像データと符号化補正データとを分離し、符号化画像データについては画像復号装置202に送出し、符号化補正データについては暈け補正情報復号装置204に送出する。 Next, in step S402, the separation device 201 separates the encoded image data and the encoded correction data, sends the encoded image data to the image decoding device 202, and obtains the correction information for the encoded correction data. The data is sent to the decryption device 204.
次に、ステップS403では、画像復号装置202は、入力された符号化画像データを復号することで、撮像画像を復元する。そして画像復号装置202は、復元した撮像画像を後段の画像補正装置203に送出する。 Next, in step S403, the image decoding apparatus 202 restores the captured image by decoding the input encoded image data. Then, the image decoding device 202 sends the restored captured image to the subsequent image correction device 203.
一方、暈け補正情報復号装置204は、入力された符号化補正データを復号することで、補正データを復元する。そして暈け補正情報復号装置204は、復元した補正データを後段の画像補正装置203に送出する。 On the other hand, the blur correction information decoding apparatus 204 restores the correction data by decoding the input encoded correction data. Then, the blur correction information decoding apparatus 204 sends the restored correction data to the subsequent image correction apparatus 203.
次に、ステップS404では、画像補正装置203は撮像画像、補正データを受けると先ず、この補正データを用いて撮像画像を補正するか否かをユーザに選択させるための画面を、補正装置が有する不図示の表示画面上に表示する。補正する旨の指示を受けた場合、処理をステップS405に進める。一方、補正しない旨の指示を受けた場合、処理をステップS407に進める。 Next, in step S404, when the image correction apparatus 203 receives the captured image and the correction data, the correction apparatus first has a screen for allowing the user to select whether or not to correct the captured image using the correction data. It is displayed on a display screen (not shown). If an instruction to correct is received, the process proceeds to step S405. On the other hand, if an instruction not to correct is received, the process proceeds to step S407.
ステップS405では、画像補正装置203は、暈け補正情報復号装置204から受けた補正データを用いて、画像復号装置202が復元した撮像画像中の動き暈けを補正する。そしてステップS406では、画像補正装置203は、補正後の撮像画像を、出力端子205を介して出力する。 In step S405, the image correction apparatus 203 corrects the motion blur in the captured image restored by the image decoding apparatus 202 using the correction data received from the blur correction information decoding apparatus 204. In step S <b> 406, the image correction apparatus 203 outputs the corrected captured image via the output terminal 205.
一方、ステップS407では、画像補正装置203は、画像復号装置202が復元した撮像画像をそのまま出力端子205を介して出力する。なお、符号化画像データと符号化補正データとのセットが複数フレームについて入力された場合、それぞれのフレームについて同様の処理を行えばよい。 On the other hand, in step S407, the image correction apparatus 203 outputs the captured image restored by the image decoding apparatus 202 as it is through the output terminal 205. When a set of encoded image data and encoded correction data is input for a plurality of frames, the same processing may be performed for each frame.
<変形例>
第1の実施形態では、補正データを決定するために、露光パターンデータと動き量データの合計長と、逆フィルタデータのデータ長との大小比較を行っている。しかし、ランレングス符号化や、算術符号化、コンテキスト符号化など、従来の符号化方式によって符号化を施した後のそれぞれのデータ量を比較し、データ量の少ない方を補正データとするようにしても良い。
<Modification>
In the first embodiment, in order to determine correction data, the total length of the exposure pattern data and the motion amount data is compared with the data length of the inverse filter data. However, the data amounts after encoding by conventional encoding methods such as run-length encoding, arithmetic encoding, and context encoding are compared, and the smaller data amount is used as correction data. May be.
また、第1の実施形態では、画像単位でこのような大小比較処理を行っているが、小矩形単位、ピクセル単位であってもよい。その場合、着目している小矩形、あるいはピクセルに定義したRやFと、空間的、時間的、動き補償後に位置しているRやFとの相関などを利用した従来のMPEG方式に見られる圧縮を施した後のデータ長を比較しても構わない。 In the first embodiment, such a size comparison process is performed in units of images, but may be in units of small rectangles or pixels. In that case, it can be seen in the conventional MPEG system that uses the correlation between R and F defined in the small rectangle or pixel of interest and R and F located after spatial, temporal, and motion compensation. Data lengths after compression may be compared.
また、第1の実施形態では、撮像画像の符号化はH.264に従って行っているが、MPEG2など、その他の符号化方式を用いても良い。また、図1,2に示した各部は全てハードウェアでもって構成されているものとしているが、その一部若しくは全部をソフトウェアでもって構成しても良い。 In the first embodiment, the captured image is encoded according to H.264, but other encoding methods such as MPEG2 may be used. 1 and 2 are all configured by hardware, but a part or all of them may be configured by software.
Claims (5)
前記撮像画像中の動き暈けを補正するための補正データを取得する取得手段と、
前記撮像画像を符号化することで符号化画像データを生成すると共に、前記補正データを符号化することで符号化補正データを生成する手段と、
前記符号化画像データと、前記符号化補正データと、をセットにして出力する手段と
を備えることを特徴とする画像処理装置。 Means for acquiring a captured image;
Acquisition means for acquiring correction data for correcting motion blur in the captured image;
Means for generating encoded image data by encoding the captured image, and generating encoded correction data by encoding the correction data;
An image processing apparatus comprising: means for outputting the encoded image data and the encoded correction data as a set.
前記撮像画像を撮像する際の露光パターンを示す露光パターンデータ、前記撮像画像を撮像した装置の動き量を示す動き量データを、を取得する手段と、
前記露光パターンデータのデータ長と前記動き量データのデータ長との合計長Rを計算する手段と、
前記露光パターンデータと前記動き量データとを用いて、前記撮像画像中のぼけを補正するための逆フィルタを計算し、当該逆フィルタを示す逆フィルタデータのデータ長Fを計算する手段と、
F>Rの場合には、前記露光パターンデータと前記動き量データとのセットを前記補正データとして取得し、F≦Rの場合には、前記逆フィルタデータを前記補正データとして取得する手段と
を備えることを特徴とする請求項1に記載の画像処理装置。 The acquisition means includes
Means for acquiring exposure pattern data indicating an exposure pattern at the time of capturing the captured image, and motion amount data indicating a motion amount of a device that captured the captured image;
Means for calculating a total length R of the data length of the exposure pattern data and the data length of the motion amount data;
Means for calculating an inverse filter for correcting blur in the captured image using the exposure pattern data and the motion amount data, and calculating a data length F of the inverse filter data indicating the inverse filter;
Means for acquiring a set of the exposure pattern data and the motion amount data as the correction data when F> R, and acquiring the inverse filter data as the correction data when F ≦ R; The image processing apparatus according to claim 1, further comprising:
前記復号手段が復号した補正データを用いて、前記復号手段が復号した撮像画像における動き暈けを補正するか否かを示す指示を受け付ける手段と、
入力された前記指示が補正することを示す場合には、前記復号手段が復号した補正データを用いて、前記復号手段が復号した撮像画像における動き暈けを補正する手段と
補正後の撮像画像、若しくは復号した撮像画像の何れかを出力する手段と
を備えることを特徴とする請求項1又は2に記載の画像処理装置。 Decoding means for decoding the encoded image data and decoding the encoded correction data;
Means for receiving an instruction indicating whether to correct motion blur in the captured image decoded by the decoding means using the correction data decoded by the decoding means;
When the input instruction indicates correction, the correction data decoded by the decoding unit is used to correct motion blur in the captured image decoded by the decoding unit, and the corrected captured image; The image processing apparatus according to claim 1, further comprising: a unit that outputs any one of the decoded captured images.
前記撮像画像中の動き暈けを補正するための補正データを取得する取得工程と、
前記撮像画像を符号化することで符号化画像データを生成すると共に、前記補正データを符号化することで符号化補正データを生成する工程と、
前記符号化画像データと、前記符号化補正データと、をセットにして出力する工程と
を備えることを特徴とする画像処理方法。 Obtaining a captured image;
An acquisition step of acquiring correction data for correcting motion blur in the captured image;
Generating encoded image data by encoding the captured image, and generating encoded correction data by encoding the correction data;
An image processing method comprising: outputting the encoded image data and the encoded correction data as a set.
前記復号工程で復号した補正データを用いて、前記復号工程で復号した撮像画像における動き暈けを補正するか否かを示す指示を受け付ける工程と、
入力された前記指示が補正することを示す場合には、前記復号工程で復号した補正データを用いて、前記復号工程で復号した撮像画像における動き暈けを補正する工程と
補正後の撮像画像、若しくは復号した撮像画像の何れかを出力する工程と
を備えることを特徴とする請求項4に記載の画像処理方法。 A decoding step of decoding the encoded image data and decoding the encoded correction data;
Receiving an instruction indicating whether to correct motion blur in the captured image decoded in the decoding step using the correction data decoded in the decoding step;
If the input instruction indicates that correction is to be performed, the correction data decoded in the decoding step is used to correct motion blur in the captured image decoded in the decoding step, and the corrected captured image; Or outputting the decoded captured image. The image processing method according to claim 4, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060116A JP5507865B2 (en) | 2009-03-12 | 2009-03-12 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060116A JP5507865B2 (en) | 2009-03-12 | 2009-03-12 | Image processing apparatus and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010213238A true JP2010213238A (en) | 2010-09-24 |
JP2010213238A5 JP2010213238A5 (en) | 2012-04-19 |
JP5507865B2 JP5507865B2 (en) | 2014-05-28 |
Family
ID=42972904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009060116A Expired - Fee Related JP5507865B2 (en) | 2009-03-12 | 2009-03-12 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5507865B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017510398A (en) | 2014-03-06 | 2017-04-13 | ザ プロクター アンド ギャンブル カンパニー | Multi-component top sheet |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066669A (en) * | 1992-06-22 | 1994-01-14 | Hitachi Ltd | Camcorder |
JP2006086762A (en) * | 2004-09-15 | 2006-03-30 | Nikon Corp | Image pickup device |
JP2007208849A (en) * | 2006-02-03 | 2007-08-16 | Casio Comput Co Ltd | Moving picture reproducing device and its program |
JP2007251299A (en) * | 2006-03-14 | 2007-09-27 | Seiko Epson Corp | Photographed image display system, image receiving apparatus, and control method thereof and server |
JP2007288413A (en) * | 2006-04-14 | 2007-11-01 | Seiko Epson Corp | Camera shake detector, camera shake detection method, and camera shake detection program |
JP2007318190A (en) * | 2006-05-23 | 2007-12-06 | Sanyo Electric Co Ltd | Digital camera |
JP2008167322A (en) * | 2006-12-28 | 2008-07-17 | Samsung Techwin Co Ltd | Imaging apparatus and method, and computer program |
JP2008228282A (en) * | 2007-02-13 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Image processing device |
JP2008271245A (en) * | 2007-04-20 | 2008-11-06 | Sanyo Electric Co Ltd | Blur correction device, blur correction method, electronic device equipped with the blur correction device, image file, and image file creating device |
JP2009021810A (en) * | 2007-07-11 | 2009-01-29 | Canon Inc | Imaging apparatus and image processing method |
-
2009
- 2009-03-12 JP JP2009060116A patent/JP5507865B2/en not_active Expired - Fee Related
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH066669A (en) * | 1992-06-22 | 1994-01-14 | Hitachi Ltd | Camcorder |
JP2006086762A (en) * | 2004-09-15 | 2006-03-30 | Nikon Corp | Image pickup device |
JP2007208849A (en) * | 2006-02-03 | 2007-08-16 | Casio Comput Co Ltd | Moving picture reproducing device and its program |
JP2007251299A (en) * | 2006-03-14 | 2007-09-27 | Seiko Epson Corp | Photographed image display system, image receiving apparatus, and control method thereof and server |
JP2007288413A (en) * | 2006-04-14 | 2007-11-01 | Seiko Epson Corp | Camera shake detector, camera shake detection method, and camera shake detection program |
JP2007318190A (en) * | 2006-05-23 | 2007-12-06 | Sanyo Electric Co Ltd | Digital camera |
JP2008167322A (en) * | 2006-12-28 | 2008-07-17 | Samsung Techwin Co Ltd | Imaging apparatus and method, and computer program |
JP2008228282A (en) * | 2007-02-13 | 2008-09-25 | Matsushita Electric Ind Co Ltd | Image processing device |
JP2008271245A (en) * | 2007-04-20 | 2008-11-06 | Sanyo Electric Co Ltd | Blur correction device, blur correction method, electronic device equipped with the blur correction device, image file, and image file creating device |
JP2009021810A (en) * | 2007-07-11 | 2009-01-29 | Canon Inc | Imaging apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5507865B2 (en) | 2014-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8581992B2 (en) | Image capturing apparatus and camera shake correction method, and computer-readable medium | |
JP6055332B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
US7509039B2 (en) | Image sensing apparatus with camera shake correction function | |
JP2017011327A (en) | Image processing apparatus, image processing method, and program | |
JP2010166512A (en) | Imaging apparatus | |
JP2010263520A (en) | Image capturing apparatus, data generating apparatus, and data structure | |
JP2007243335A (en) | Camera shake correction method, camera shake correction apparatus, and imaging apparatus | |
JP6261397B2 (en) | Imaging apparatus and control method thereof | |
JP4742813B2 (en) | Image processing apparatus and image processing method | |
JP6083162B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JP3937924B2 (en) | Imaging apparatus and control method thereof | |
JP2023174740A (en) | Imaging apparatus | |
JP2007134788A (en) | Image processing apparatus and program | |
JP5507865B2 (en) | Image processing apparatus and image processing method | |
JP2007202050A (en) | Image generating apparatus and program | |
JP7478006B2 (en) | Imaging device, control method thereof, and program | |
JP2010171491A (en) | Imaging device, imaging method, and program | |
JP2019016893A (en) | Image processing apparatus, control method therefor, and program | |
JP2014011780A (en) | Image composition apparatus, control method therefor, control program therefor, and recording medium | |
JP5482428B2 (en) | Imaging apparatus, camera shake correction method, and program | |
JP5482427B2 (en) | Imaging apparatus, camera shake correction method, and program | |
JP2009200981A (en) | Video camera | |
JP2019075640A (en) | Image processing device and image processing method | |
JP5663989B2 (en) | Imaging apparatus and image composition program | |
JP2012147087A (en) | Apparatus and method for generating image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120305 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130408 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140320 |
|
LAPS | Cancellation because of no payment of annual fees |