JP2006003926A - Image processing device, image processing method and image processing program - Google Patents

Image processing device, image processing method and image processing program Download PDF

Info

Publication number
JP2006003926A
JP2006003926A JP2004176304A JP2004176304A JP2006003926A JP 2006003926 A JP2006003926 A JP 2006003926A JP 2004176304 A JP2004176304 A JP 2004176304A JP 2004176304 A JP2004176304 A JP 2004176304A JP 2006003926 A JP2006003926 A JP 2006003926A
Authority
JP
Japan
Prior art keywords
image data
image
information
orientation
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004176304A
Other languages
Japanese (ja)
Inventor
Masashi Aiiso
政司 相磯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2004176304A priority Critical patent/JP2006003926A/en
Publication of JP2006003926A publication Critical patent/JP2006003926A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enhance the quality of a generated image when generating image data of higher resolution from a plurality of image data. <P>SOLUTION: A CPU 200 acquires a plurality of time series image data F0 to F3, and acquires angular velocities V<SB>X</SB>, V<SB>Y</SB>and V<SB>Z</SB>including an angular velocity corresponding to a rotational displacement of a subject for a straight line perpendicular to a pickup image, as information on the movement of a digital still camera 10 associated with the generation of each of the image data F0 to F3. The CPU 200 uses the angular velocities V<SB>X</SB>, V<SB>Y</SB>and V<SB>Z</SB>to calculate displacement correction amount to the subject between images represented by the image data F0 to F3. The CPU 200 corrects displacements according to the calculated displacement correction amount, and synthesizes the corrected image data F0 to F3 to generate high resolution image data of higher resolution. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理に関し、特に、比較的低解像度の複数の画像データから高解像度の画像データを生成する技術に関する。   The present invention relates to image processing, and more particularly to a technique for generating high-resolution image data from a plurality of relatively low-resolution image data.

デジタルビデオカメラで生成された動画像データを構成するフレーム画像や、デジタルスチルカメラによって連続撮影された画像データのように、時系列に並ぶ複数の近似した画像データが取得される場合がある。これらの近似した複数の画像データが表す画像間に生じている被写体のずれを画素単位より細かい単位で算出し、このずれを考慮して複数の画像データを合成することで、元画像データより高解像度の画像データを生成する技術が知られている。また、このような被写体のずれを、被写体の上下方向のずれに対応する撮像装置の角度変化および左右方向のずれに対応する撮像装置の角度変化に起因するものとして捉え、撮像装置の角速度センサによって検出されたこれらの角度変化情報に基づいて被写体のずれを算出する技術が知られている(例えば、特許文献1)。   A plurality of approximate image data arranged in time series may be acquired, such as frame images constituting moving image data generated by a digital video camera or image data continuously captured by a digital still camera. By calculating the subject shift that occurs between the images represented by these approximated multiple image data in units smaller than the pixel unit and combining the multiple image data in consideration of this shift, it is higher than the original image data. Techniques for generating resolution image data are known. Also, such a subject shift is regarded as being caused by an angle change of the imaging device corresponding to a vertical shift of the subject and an angle change of the imaging device corresponding to a horizontal shift, and is detected by an angular velocity sensor of the imaging device. A technique for calculating the shift of the subject based on the detected angle change information is known (for example, Patent Document 1).

特開2001−309234号公報JP 2001-309234 A 特開平11−164264号公報JP-A-11-164264

しかしながら、被写体のずれには、実際は、撮像画像に対して垂直な直線を軸とした回転方向のずれも含まれている。上記従来技術では、このような回転方向のずれが無視できないほど大きい場合には、被写体のずれを十分に高い精度で算出できない場合がある。かかる場合には、生成される画像において、被写体が二重化する等の画質劣化が生じてしまうおそれがあった。   However, the shift of the subject actually includes a shift in the rotation direction about a straight line perpendicular to the captured image. In the above-described prior art, when such a deviation in the rotation direction is so large that it cannot be ignored, the deviation of the subject may not be calculated with sufficiently high accuracy. In such a case, in the generated image, there is a possibility that image quality deterioration such as a doubled subject occurs.

また、上記課題は、デジタルビデオカメラで生成された動画像データを用いる場合に限らず、デジタルスチルカメラで連続撮影された複数の画像データを用いる場合などにも共通した課題である。   In addition, the above-described problem is not limited to the case of using moving image data generated by a digital video camera, but is also a problem common to the case of using a plurality of image data continuously photographed by a digital still camera.

本発明は、上記課題を解決するためになされたものであり、複数の画像データに基づいてより高解像度の画像データを生成する画像処理において、生成画像の高画質化を図ることを目的とする。   The present invention has been made to solve the above-described problem, and an object of the present invention is to improve the quality of a generated image in image processing for generating higher-resolution image data based on a plurality of image data. .

上記課題を解決するために本発明の第1の態様は、画像処理装置を提供する。本発明の第1の態様に係る画像処理装置は、撮像装置によって生成された画像データであって、時系列に並ぶ複数の画像データを取得する画像データ取得手段と、前記複数の画像データのそれぞれの生成時に対応する前記撮像装置の向きの変化に関する情報であって、撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化に関する情報を少なくとも含むと共に前記複数の画像データと関連付けられた情報を取得する情報取得手段と、前記複数の画像データが表す各画像間における被写体の位置ずれを補正するための補正量であって、取得された前記向きの変化に関する情報を用いて推定される補正量を算出する位置ずれ補正量算出手段と、前記算出された補正量に基づいて、前記複数の画像データにおける前記位置ずれを補正すると共に、前記補正された複数の画像データを合成して、前記複数の画像データより解像度の高い高解像度画像データを生成する高解像度画像生成手段とを備えることを特徴とする。   In order to solve the above problems, a first aspect of the present invention provides an image processing apparatus. An image processing apparatus according to a first aspect of the present invention includes image data acquisition means for acquiring a plurality of image data arranged in time series, which is image data generated by an imaging apparatus, and each of the plurality of image data Information relating to a change in the orientation of the imaging device corresponding to the generation of the image, wherein the information includes at least information relating to an angular change corresponding to a shift in the rotation direction of the subject about a straight line perpendicular to the captured image. Information acquisition means for acquiring information associated with the image data, and a correction amount for correcting the positional deviation of the subject between the images represented by the plurality of image data, the acquired information regarding the change in the orientation And a misregistration correction amount calculation means for calculating a correction amount estimated by using the correction amount, and based on the calculated correction amount, the plurality of image data in the plurality of image data While correcting the location shift, by combining the corrected plurality of image data, characterized by comprising a high resolution image generation means for generating a high resolution high-resolution image data from said plurality of image data.

本発明の第1の態様に係る画像処理装置によれば、複数の画像データと共に、複数の画像データのそれぞれの生成時に対応する撮像装置の向きの変化に関する情報であって、複数の画像データと関連付けられた情報を取得する。そして、各画像間における被写体の位置ずれを補正するための補正量(位置ずれ補正量)であって、取得された撮像装置の向きの変化に関する情報を用いて推定される補正量を算出する。撮像装置の向きの変化に関する情報には、撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化に関する情報が含まれるため、補正量の算出精度が向上する。この結果、合成される高解像度画像データが表す画像を高画質化することができる。   According to the image processing device of the first aspect of the present invention, the information regarding the change in the orientation of the imaging device corresponding to the generation of each of the plurality of image data together with the plurality of image data, Get associated information. Then, a correction amount (position shift correction amount) for correcting the positional deviation of the subject between the images, which is estimated using the acquired information on the change in the orientation of the imaging device, is calculated. The information related to the change in the orientation of the imaging device includes information related to the change in angle corresponding to the shift in the rotation direction of the subject about the straight line perpendicular to the captured image, so that the correction amount calculation accuracy is improved. As a result, it is possible to improve the image quality of the image represented by the high-resolution image data to be synthesized.

本発明の第1の態様に係る画像処理装置において、前記位置ずれ補正量の算出は、前記複数の画像データが表す画像を構成する画素単位より細かい精度で実行されるのが好ましい。画素単位より細かい精度で位置ずれ補正量を算出することにより、合成される高解像度画像データが表す画像を高画質化することができる。   In the image processing apparatus according to the first aspect of the present invention, it is preferable that the calculation of the misregistration correction amount is performed with an accuracy finer than a pixel unit constituting an image represented by the plurality of image data. By calculating the misregistration correction amount with an accuracy finer than a pixel unit, it is possible to improve the image quality of the image represented by the combined high-resolution image data.

本発明の第1の態様に係る画像処理装置において、前記撮像装置の向きの変化に関する情報は、さらに、撮像画像において被写体の上下方向のずれに対応する角度変化に関する情報と、撮像画像において被写体の左右方向のずれに対応する角度変化に関する情報とを含んでも良い。かかる場合には、被写体の上下方向、左右方向、回転方向の3方向のずれに対応する角度変化を用いて、位置ずれ補正量を算出するので、補正量の算出精度がより向上する。この結果、合成される高解像度画像データが表す画像をより高画質にすることができる。   In the image processing device according to the first aspect of the present invention, the information related to the change in the orientation of the imaging device further includes information related to an angle change corresponding to a vertical displacement of the subject in the captured image, and information on the subject in the captured image. It may also include information on angle change corresponding to the shift in the left-right direction. In such a case, since the positional deviation correction amount is calculated using an angle change corresponding to the deviation in the three directions of the subject in the vertical direction, the horizontal direction, and the rotation direction, the calculation accuracy of the correction amount is further improved. As a result, the image represented by the high-resolution image data to be synthesized can have higher image quality.

本発明の第1の態様に係る画像処理装置において、前記撮像装置の向きの変化に関する情報は、前記撮像装置に備えられたセンサによって検出された情報、または、前記センサによって検出された情報を加工して得られた情報であっても良い。かかる場合には、センサによって検出された情報に基づいて、精度良く位置ずれ補正量を算出することができる。   In the image processing device according to the first aspect of the present invention, the information related to the change in the orientation of the imaging device is information detected by a sensor provided in the imaging device or information detected by the sensor. It may be the information obtained. In such a case, the positional deviation correction amount can be accurately calculated based on the information detected by the sensor.

本発明の第1の態様に係る画像処理装置において、前記撮像装置の向きの変化に関する情報は、前記撮像装置の向きの変化に関する角変位量、角速度、角加速度のいずれかであっても良い。かかる場合には、角変位量、角速度、角加速度のいずれかに基づいて、精度良く位置ずれ補正量を算出することができる。   In the image processing device according to the first aspect of the present invention, the information related to the change in the orientation of the imaging device may be any of an angular displacement amount, an angular velocity, and an angular acceleration related to the change in the orientation of the imaging device. In such a case, the misregistration correction amount can be accurately calculated based on any one of the angular displacement amount, the angular velocity, and the angular acceleration.

本発明の第2の態様は、画像処理方法を提供する。本発明の第2の態様に係る画像処理方法は、撮像装置によって生成された画像データであって、時系列に並ぶ複数の画像データを取得し、前記複数の画像データのそれぞれの生成時に対応する前記撮像装置の向きの変化に関する情報であって、撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化に関する情報を少なくとも含むと共に前記複数の画像データと関連付けられた情報を取得し、前記複数の画像データが表す各画像間における被写体の位置ずれを補正するための補正量であって、取得された前記向きの変化に関する情報を用いて推定される補正量を算出し、前記算出された補正量に基づいて、前記複数の画像データにおける前記位置ずれを補正すると共に、前記補正された複数の画像データを合成して、前記複数の画像データより解像度の高い高解像度画像データを生成することを特徴とする。   A second aspect of the present invention provides an image processing method. The image processing method according to the second aspect of the present invention is image data generated by an imaging device, acquires a plurality of image data arranged in time series, and corresponds to the generation time of each of the plurality of image data. Information relating to a change in orientation of the imaging device, the information including at least information relating to a change in angle corresponding to a shift in the rotation direction of the subject about a straight line perpendicular to the captured image and associated with the plurality of image data A correction amount for correcting the positional deviation of the subject between the images represented by the plurality of image data, and a correction amount estimated using the acquired information regarding the change in the orientation. Calculating, correcting the positional deviation in the plurality of image data based on the calculated correction amount, and combining the plurality of corrected image data. , And generates a high high-resolution image data resolution than the plurality of image data.

本発明の第3の態様は、画像処理を実行するコンピュータプログラムを提供する。本発明の第3の態様に係るコンピュータプログラムは、撮像装置によって生成された画像データであって、時系列に並ぶ複数の画像データを取得する画像データ取得機能と、前記複数の画像データのそれぞれの生成時に対応する前記撮像装置の向きの変化に関する情報であって、撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化に関する情報を少なくとも含むと共に前記複数の画像データと関連付けられた情報を取得する情報取得機能と、前記複数の画像データが表す各画像間における被写体の位置ずれを補正するための補正量であって、取得された前記向きの変化に関する情報を用いて推定される補正量を算出する位置ずれ補正量算出機能と、前記算出された補正量に基づいて、前記複数の画像データにおける前記位置ずれを補正すると共に、前記補正された複数の画像データを合成して、前記複数の画像データより解像度の高い高解像度画像データを生成する高解像度画像生成機能とをコンピュータに実現させることを特徴とする。   A third aspect of the present invention provides a computer program that executes image processing. A computer program according to a third aspect of the present invention is an image data generated by an imaging device, the image data acquisition function for acquiring a plurality of image data arranged in time series, and each of the plurality of image data A plurality of images including at least information on a change in orientation of the imaging device corresponding to the generation time, and information on a change in angle corresponding to a shift in the rotation direction of the subject about a straight line perpendicular to the captured image An information acquisition function for acquiring information associated with the data, and a correction amount for correcting the positional deviation of the subject between the images represented by the plurality of image data, the information regarding the acquired change in the orientation; A positional deviation correction amount calculation function for calculating a correction amount estimated by using the correction amount; and the plurality of image data based on the calculated correction amount. And a computer that realizes a high-resolution image generation function for generating high-resolution image data having a higher resolution than the plurality of image data by correcting the misalignment of the image and combining the corrected image data. It is characterized by.

本発明の第2の態様に係る画像処理方法および本発明の第3の態様に係るコンピュータプログラムによれば、本発明の第1の態様に係る画像処理装置と同様の作用効果を得ることができる。また、本発明の第2の態様に係る画像処理方法および本発明の第3の態様に係るコンピュータプログラムは、本発明の第1の態様に係る画像処理装置と同様にして種々の態様にて実現され得る。また、本発明の第3の態様に係るコンピュータプログラムは、コンピュータプログラムを記録したコンピュータが読み取り可能な記録媒体としても実現され得る。   According to the image processing method according to the second aspect of the present invention and the computer program according to the third aspect of the present invention, it is possible to obtain the same operational effects as those of the image processing apparatus according to the first aspect of the present invention. . The image processing method according to the second aspect of the present invention and the computer program according to the third aspect of the present invention are realized in various aspects in the same manner as the image processing apparatus according to the first aspect of the present invention. Can be done. The computer program according to the third aspect of the present invention can also be realized as a computer-readable recording medium that records the computer program.

本発明の第4の態様は、撮像装置を提供する。本発明の第4の態様に係る撮像装置は、時系列に並ぶ複数の画像データを生成する画像データ生成手段と、前記撮像装置の向きの変化を検出するセンサと、検出された前記向きの変化を用いて、前記複数の画像データのそれぞれの生成時に対応する前記向きの変化に関する情報を生成する情報生成手段と、前記複数の画像データと前記生成された情報とを関連付けて出力する画像データ出力手段とを備えることを特徴とする。   A fourth aspect of the present invention provides an imaging device. An imaging device according to a fourth aspect of the present invention includes an image data generation unit that generates a plurality of image data arranged in time series, a sensor that detects a change in the orientation of the imaging device, and a change in the detected orientation. And an image data output unit for generating information relating to the change in the orientation corresponding to the generation time of the plurality of image data, and outputting the plurality of image data and the generated information in association with each other Means.

本発明の第4の態様に係る撮像装置によれば、複数の画像データのそれぞれの生成時に対応する撮像装置の向きの変化に関する情報を複数の画像データに関連付けて出力するので、本態様に係る撮像装置から複数の画像データを取得した外部の画像処理装置において、出力された向きの変化に関する情報を用いて、複数の画像データが表す各画像について位置ずれ補正量を算出することができる。この結果、外部の画像処理装置において、複数の画像データを合成してより高解像度の画像データを生成する際に、精度良く位置ずれ補正量を算出でき、生成される高解像度画像データが表す画像を高画質にすることができる。   According to the imaging device according to the fourth aspect of the present invention, the information regarding the change in the orientation of the imaging device corresponding to the generation of each of the plurality of image data is output in association with the plurality of image data. In an external image processing apparatus that has acquired a plurality of image data from the imaging apparatus, it is possible to calculate a positional deviation correction amount for each image represented by the plurality of image data, using the output information regarding the change in orientation. As a result, when an external image processing apparatus generates a higher resolution image data by synthesizing a plurality of image data, the misregistration correction amount can be accurately calculated, and the image represented by the generated high resolution image data Can be improved in image quality.

本発明の第4の態様に係る撮像装置において、前記向きの変化に関する情報は、前記向きの変化に関する情報は、撮像画像において被写体の上下方向のずれに対応する角度変化、撮像画像において被写体の左右方向のずれに対応する角度変化、撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化、の全部または一部に関する情報であっても良い。かかる場合には、外部の画像処理装置において、被写体の上下方向、左右方向、回転方向の3方向のずれに対応する角度変化の全部または一部を用いて、より精度良く位置ずれ補正量を算出することができる。   In the imaging device according to the fourth aspect of the present invention, the information related to the change in orientation is the information related to the change in orientation, the angle change corresponding to the vertical displacement of the subject in the captured image, and the left and right of the subject in the captured image. Information on all or part of an angle change corresponding to a direction shift and an angle change corresponding to a rotation direction shift of the subject about a straight line perpendicular to the captured image may be used. In such a case, the external image processing apparatus calculates the positional deviation correction amount with higher accuracy by using all or part of the angular change corresponding to the deviation in the three directions of the subject in the vertical direction, the horizontal direction, and the rotation direction. can do.

本発明の第4の態様に係る撮像装置において、前記センサの検出する角度変化は、角変位量、角速度、角加速度のいずれかであっても良い。かかる場合には、外部の画像処理装置において、角変位量、角速度、角加速度のいずれかを用いて、精度良く位置ずれ補正量を算出することができる。   In the imaging device according to the fourth aspect of the present invention, the angle change detected by the sensor may be any one of an angular displacement amount, an angular velocity, and an angular acceleration. In such a case, the positional deviation correction amount can be calculated with high accuracy using any one of the angular displacement amount, the angular velocity, and the angular acceleration in the external image processing apparatus.

以下、本発明にかかる画像処理装置について、図面を参照しつつ、実施例に基づいて説明する。   Hereinafter, an image processing apparatus according to the present invention will be described based on examples with reference to the drawings.

A.実施例
・画像処理システムの構成:
図1は、本発明の実施例に係る撮像装置および画像処理装置を含む画像処理システムの一例を示す説明図である。本発明の実施例に係る撮像装置および画像処理装置を適用可能な画像処理システムの構成について図1を参照して説明する。
A. Configuration of Example / Image Processing System:
FIG. 1 is an explanatory diagram illustrating an example of an image processing system including an imaging device and an image processing device according to an embodiment of the present invention. A configuration of an image processing system to which an imaging apparatus and an image processing apparatus according to an embodiment of the present invention can be applied will be described with reference to FIG.

画像処理システムは、画像データを生成する撮像装置としてのディジタルスチルカメラ10、ディジタルスチルカメラ10にて生成された複数の画像データから、高解像度の画像データを生成する画像処理装置としてのパーソナルコンピュータ20、画像データを用いて画像を出力する出力装置としてのカラープリンタ30を備えている。また、出力装置としては、プリンタ30の他に、例えば、LCDディスプレイのモニタ25、表示装置40が用いられ得る。   The image processing system includes a digital still camera 10 as an imaging device that generates image data, and a personal computer 20 as an image processing device that generates high-resolution image data from a plurality of image data generated by the digital still camera 10. A color printer 30 is provided as an output device that outputs an image using image data. In addition to the printer 30, for example, a monitor 25 of an LCD display and a display device 40 can be used as the output device.

パーソナルコンピュータ20は、一般的に用いられるタイプのコンピュータであり、高解像度の画像データを生成する処理を含む画像処理プログラムを実行するCPU200、CPU200における演算結果、画像データ等を一時的に格納するRAM201、画像処理プログラムを格納するハードディスクドライブ(HDD)202を備えている。パーソナルコンピュータ20は、メモリカードMCを装着するためのカードスロット203、ディジタルスチルカメラ10からの接続ケーブルを接続するための入出力端子204を備えている。   The personal computer 20 is a commonly used type of computer. The CPU 200 executes an image processing program including processing for generating high-resolution image data, and the RAM 201 temporarily stores calculation results in the CPU 200, image data, and the like. A hard disk drive (HDD) 202 for storing an image processing program. The personal computer 20 includes a card slot 203 for inserting a memory card MC and an input / output terminal 204 for connecting a connection cable from the digital still camera 10.

プリンタ30は、カラー画像の出力が可能なプリンタであり、例えば、シアン、マゼンタ、イエロー、ブラックの4色の色インクを印刷媒体上に噴射してドットパターンを形成することによって画像を形成するインクジェット方式のプリンタである。あるいは、カラートナーを印刷媒体上に転写・定着させて画像を形成する電子写真方式のプリンタである。色インクには、上記4色に加えて、ライトシアン(薄いシアン)、ライトマゼンタ(薄いマゼンタ)、レッド、ブルーを用いても良い。   The printer 30 is a printer that can output a color image. For example, an inkjet that forms an image by ejecting four color inks of cyan, magenta, yellow, and black onto a print medium to form a dot pattern. Printer. Alternatively, it is an electrophotographic printer that forms an image by transferring and fixing color toner onto a printing medium. In addition to the above four colors, light cyan (light cyan), light magenta (light magenta), red, and blue may be used as the color ink.

表示装置40は、画像を表示するための表示ディスプレイ45を有し、例えば、電子式の写真フレームとして機能する表示装置である。表示ディスプレイ45は、例えば、液晶表示ディスプレイ、有機EL表示ディスプレイが用いられ得る。   The display device 40 includes a display display 45 for displaying an image, and is a display device that functions as an electronic photo frame, for example. As the display 45, for example, a liquid crystal display or an organic EL display can be used.

プリンタ30および表示装置40は、スタンドアローンにて画像処理、画像出力を実行するために、パーソナルコンピュータ20が備える画像処理機能を備えても良い。かかる場合には、プリンタ30、表示装置40は、パーソナルコンピュータ20を介さずに、例えば、メモリーカードMC等の記憶媒体、あるいは、ケーブルを介してディジタルスチルカメラ10から画像データを取得し、プリンタ30、表示装置40がそれぞれ本実施例における画像処理装置として機能することができる。   The printer 30 and the display device 40 may include an image processing function included in the personal computer 20 in order to execute image processing and image output in a stand-alone manner. In such a case, the printer 30 and the display device 40 acquire image data from the digital still camera 10 via, for example, a storage medium such as a memory card MC or a cable without using the personal computer 20, and the printer 30. The display device 40 can function as an image processing device in this embodiment.

以下の説明では、ディジタルスチルカメラ10で生成された画像データが、パーソナルコンピュータ20に送出され、パーソナルコンピュータ20にて高解像度の画像データを生成する画像処理が実行される場合について説明する。   In the following description, a case will be described in which image data generated by the digital still camera 10 is sent to the personal computer 20 and image processing for generating high-resolution image data is executed by the personal computer 20.

・ディジタルスチルカメラ10の構成:
図2は、ディジタルスチルカメラ10の概略構成を示す説明図である。ディジタルスチルカメラ10は、光の情報を撮像素子(例えば、CCDやCMOS)に結像させることにより画像をデジタルデータとして取得するカメラである。ディジタルスチルカメラ10は、静止画像データだけでなく、時系列に並ぶ複数のフレーム画像データから構成される動画像データを生成する機能を備える。すなわち、ディジタルスチルカメラ10は、静止画撮影モードと動画撮影モードを、ユーザーにより選択可能となっている。以下の説明では、動画撮影モードが選択され、動画像データが生成される場合について説明する。
Configuration of the digital still camera 10:
FIG. 2 is an explanatory diagram showing a schematic configuration of the digital still camera 10. The digital still camera 10 is a camera that acquires an image as digital data by imaging light information on an image sensor (for example, CCD or CMOS). The digital still camera 10 has a function of generating not only still image data but also moving image data composed of a plurality of frame image data arranged in time series. That is, the digital still camera 10 can select a still image shooting mode and a moving image shooting mode by the user. In the following description, a case where the moving image shooting mode is selected and moving image data is generated will be described.

図2に示すように、ディジタルスチルカメラ10は、光情報を収集し、電気信号として出力する光学回路140、光学回路140から出力された電気信号をA/D変換して数値化し、画像データを生成する画像データ生成回路130、生成された画像データを加工処理するための画像処理回路120、3つの角速度センサ161、162、163を備えている。さらに、ディジタルスチルカメラ10は、各回路を制御する制御回路100、制御回路100に撮像モードを始めとする利用者の意図を伝えるコントローラ110、画像データを画像ファイルとしてメモリカードMCに保存するメモリカードドライブ150を備えている。   As shown in FIG. 2, the digital still camera 10 collects optical information, outputs an optical signal 140 as an electric signal, A / D converts the electric signal output from the optical circuit 140, and digitizes the image data. An image data generation circuit 130 to be generated, an image processing circuit 120 for processing the generated image data, and three angular velocity sensors 161, 162, and 163 are provided. Further, the digital still camera 10 includes a control circuit 100 that controls each circuit, a controller 110 that conveys the user's intention including the imaging mode to the control circuit 100, and a memory card that stores image data in the memory card MC as an image file. A drive 150 is provided.

光学回路140は、複数の画素を有し、撮像画像の光情報を受光して画素単位の電気信号として出力する撮像素子144と、撮像素子144の受光部に光情報を集めるレンズ142と、撮像素子144の受光量を調節する絞り146とを備えている。撮像素子144には、図2に示すように、複数の画素CPが配置されている。本実施例では、互いに隣接し合う画素CPの中心間距離(以下、画素ピッチという。)は、縦方向(図2のy方向)、横方向(図2のx方向)共に、sである。   The optical circuit 140 includes a plurality of pixels, an image sensor 144 that receives optical information of a captured image and outputs it as an electrical signal in pixel units, a lens 142 that collects optical information in a light receiving unit of the image sensor 144, and an image A diaphragm 146 that adjusts the amount of light received by the element 144 is provided. As shown in FIG. 2, the imaging element 144 has a plurality of pixels CP. In the present embodiment, the distance between the centers of the adjacent pixels CP (hereinafter referred to as pixel pitch) is s in both the vertical direction (y direction in FIG. 2) and the horizontal direction (x direction in FIG. 2).

3つの角速度センサ161、162、163は、それぞれ、ディジタルスチルカメラ10のX軸回り、Y軸回り、Z軸回りの向きの変化を角速度として検出する装置である。角速度センサ161、162、163としては、種々のジャイロスコープが知られている。例えば、機械式のコマジャイロ、音片・音叉の振動を用いる振動ジャイロ 、光学式の光ファイバジャイロ等を用いることができる。   The three angular velocity sensors 161, 162, and 163 are devices that detect changes in the direction of the digital still camera 10 about the X axis, the Y axis, and the Z axis as angular velocities, respectively. Various gyroscopes are known as the angular velocity sensors 161, 162, and 163. For example, a mechanical coma gyro, a vibration gyro using vibration of a sound piece / tuning fork, an optical fiber gyro, or the like can be used.

図3は、ディジタルスチルカメラ10のX軸周り、Y軸周り、Z軸周りの向きの変化を説明する概略図である。X軸は、撮像素子144の露光面に平行な軸であり、ディジタルスチルカメラ10の左右方向を表す軸をいい、Y軸は、撮像素子144の露光面に平行な軸であり、ディジタルスチルカメラ10の上下方向を表す軸をいうものとする。そして、Z軸は、撮像素子144の露光面に対して垂直な方向を表す軸をいうものとする。そして、XYZの3軸が交わる原点は、撮像素子144の露光面の中心Ccに位置する。   FIG. 3 is a schematic diagram for explaining a change in direction of the digital still camera 10 around the X axis, the Y axis, and the Z axis. The X-axis is an axis parallel to the exposure surface of the image sensor 144 and refers to the axis representing the left-right direction of the digital still camera 10, and the Y-axis is an axis parallel to the exposure surface of the image sensor 144. An axis representing the vertical direction of 10 shall be said. The Z axis is an axis representing a direction perpendicular to the exposure surface of the image sensor 144. The origin where the three axes of XYZ intersect is located at the center Cc of the exposure surface of the image sensor 144.

以下、図3に示すように、XYZ軸回りの変位量をそれぞれ、θX、θY、θZとする。そして、角速度センサ161、162、163が検出するXYZ軸回りの角速度をそれぞれVX、VY、VZとする。θXおよびVXは、ディジタルスチルカメラ10で撮像された撮像画像において被写体の上下方向の位置ずれに対応する角度変化(いわゆる、ピッチ方向のぶれ)であり、θZおよびVZは、ディジタルスチルカメラ10で撮像された撮像画像において被写体の左右方向の位置ずれに対応する角度変化(いわゆる、ヨー方向のぶれ)である。また、θYおよびVYは、ディジタルスチルカメラ10で撮像された撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化(いわゆる、ロール方向のぶれ)である。 Hereinafter, as shown in FIG. 3, the amounts of displacement around the XYZ axes are θ X , θ Y , and θ Z , respectively. The angular velocities around the XYZ axes detected by the angular velocity sensors 161, 162, and 163 are defined as V X , V Y , and V Z , respectively. θ X and V X are angle changes (so-called pitch blur) in the captured image captured by the digital still camera 10, and θ Z and V Z are digital stills. This is an angle change (so-called yaw direction blur) corresponding to a lateral displacement of the subject in a captured image captured by the camera 10. Further, θ Y and V Y are angle changes (so-called blur in the roll direction) corresponding to a shift in the rotation direction of the subject about a straight line perpendicular to the captured image captured by the digital still camera 10. .

図2に戻って、説明を続ける。制御回路100は、周知のコンピュータであり、制御プログラムを実行するCPU102、CPU102の扱うデータ、演算結果等を一時的に格納するRAM104、制御プログラム等を格納するROM106を備えている。制御回路100は、制御プログラムを実行することにより、図2に示すように、情報生成部M110と、画像データ出力部M120として機能することができる。   Returning to FIG. 2, the description will be continued. The control circuit 100 is a well-known computer, and includes a CPU 102 that executes a control program, a RAM 104 that temporarily stores data handled by the CPU 102, calculation results, and the like, and a ROM 106 that stores a control program and the like. The control circuit 100 can function as an information generation unit M110 and an image data output unit M120 as shown in FIG. 2 by executing a control program.

情報生成部M110は、角速度センサ161、162、163が検出した電気信号を取得し、これに基づいて各フレーム画像データGDの生成時に対応するディジタルスチルカメラ10の角速度VX、VY、VZのデータ(以下、単に、角速度VX、VY、VZともいう。)を生成する。画像データ出力部M120は、画像データ生成回路130が生成した時系列に並ぶ複数のフレーム画像データGDと、情報生成部M110が生成した角速度VX、VY、VZを関連付けて、画像ファイルGFとしてメモリカードMCに出力する。ここで、複数のフレーム画像データと角速度VX、VY、VZとが関連付けられているとは、フレーム画像データのそれぞれの生成タイミングと角速度VX、VY、VZの検出タイミングとの、時間軸上における対応関係が認識できるようにされていることをいう。 The information generation unit M110 acquires the electrical signals detected by the angular velocity sensors 161, 162, and 163, and based on this, the angular velocities V X , V Y , and V Z of the digital still camera 10 corresponding to the generation of each frame image data GD. (Hereinafter, also simply referred to as angular velocities V X , V Y , V Z ). The image data output unit M120 associates the plurality of frame image data GD arranged in time series generated by the image data generation circuit 130 with the angular velocities V X , V Y , V Z generated by the information generation unit M110, and generates an image file GF. To the memory card MC. Here, the plurality of frame image data and the angular velocities V X , V Y , and V Z are associated with each other between the generation timing of the frame image data and the detection timings of the angular velocities V X , V Y , and V Z. This means that the correspondence on the time axis can be recognized.

・画像処理システムが用いる画像ファイルの構成:
図4は、画像ファイルGFの内部構成を概念的に示す説明図である。画像ファイルGFは、動画像データMDおよび音声データADを格納する主情報格納領域R100と、動画像データMDと関連付けられた付属情報を格納する付属情報格納領域R110を備えている。付属情報格納領域R110には、上述した角速度VX、VY、VZに加えて、画素ピッチsおよび焦点距離fが格納されている。
-Image file structure used by the image processing system:
FIG. 4 is an explanatory diagram conceptually showing the internal structure of the image file GF. The image file GF includes a main information storage area R100 that stores moving image data MD and audio data AD, and an attached information storage area R110 that stores attached information associated with the moving image data MD. In the attached information storage area R110, in addition to the angular velocities V X , V Y , and V Z described above, the pixel pitch s and the focal length f are stored.

本実施例では、動画像データMDは、時系列に並ぶn個のフレーム画像データGD1〜GDnから構成されている。各フレーム画像データは、ドットマトリクス状の各画素の階調値(以下、「画素値」とも呼ぶ。)を示す階調データ(以下、「画素データ」とも呼ぶ。)で構成されている。画素データは、Y(輝度)、Cb(ブルーの色差)、Cr(レッドの色差)からなるYCbCrデータや、R(レッド)、G(グリーン)、B(ブルー)からなるRGBデータ等が用いられ得る。   In the present embodiment, the moving image data MD is composed of n frame image data GD1 to GDn arranged in time series. Each frame image data is composed of gradation data (hereinafter also referred to as “pixel data”) indicating a gradation value (hereinafter also referred to as “pixel value”) of each pixel in a dot matrix form. The pixel data is YCbCr data composed of Y (luminance), Cb (blue color difference), Cr (red color difference), RGB data composed of R (red), G (green), and B (blue). obtain.

角速度VX、VY、VZとしては、フレーム画像データGD1〜GDnのそれぞれの生成時に対応する角速度VX(1)〜VX(n)、VY(1)〜VY(n)、VZ(1)〜VZ(n)が、付属情報格納領域R110に格納されている。すなわち、動画像データMDが、毎秒30フレームの動画像データであるとすると、角速度もVX、VY、VZの値も1/30秒ごとに記録されている。 As the angular velocities V X , V Y , and V Z , the angular velocities V X (1) to V X (n), V Y (1) to V Y (n) corresponding to the generation of the frame image data GD1 to GDn, V Z (1) to V Z (n) are stored in the attached information storage area R110. That is, if the moving image data MD is moving image data of 30 frames per second, the angular velocity and the values of V X , V Y , and V Z are recorded every 1/30 seconds.

・パーソナルコンピュータ20の機能的構成:
図5は、本実施例に係るパーソナルコンピュータ20(CPU200)の機能ブロック図である。図5を参照してパーソナルコンピュータ20(CPU200)の機能的構成の概要について説明する。
-Functional configuration of the personal computer 20:
FIG. 5 is a functional block diagram of the personal computer 20 (CPU 200) according to the present embodiment. The outline of the functional configuration of the personal computer 20 (CPU 200) will be described with reference to FIG.

画像データ取得部M210は、画像ファイルGFの動画像データMDを構成するフレーム画像データGDから選択された時系列に並ぶ複数のフレーム画像データを取得する。情報取得部M220は、フレーム画像データGDと関連付けられた付属情報(図4参照)を取得する。付属情報情報には、ディジタルスチルカメラ10の向きの変化に関する情報(例えば、角速度VX、VY、VZ)が含まれる。 The image data acquisition unit M210 acquires a plurality of frame image data arranged in time series selected from the frame image data GD constituting the moving image data MD of the image file GF. The information acquisition unit M220 acquires attached information (see FIG. 4) associated with the frame image data GD. The attached information information includes information (for example, angular velocities V X , V Y , V Z ) regarding the change in the orientation of the digital still camera 10.

位置ずれ補正量算出部M230は、情報取得部M220から得られた付属情報を用いて、位置ずれ補正量を算出する。位置ずれ補正量は、画像データ取得部M210が取得した複数のフレーム画像データが表す各画像間に生じている位置ずれを補正するための補正量である。   The misregistration correction amount calculation unit M230 calculates the misregistration correction amount using the attached information obtained from the information acquisition unit M220. The misregistration correction amount is a correction amount for correcting misregistration generated between the images represented by the plurality of frame image data acquired by the image data acquisition unit M210.

高解像度画像生成部M240は、位置ずれ補正量算出部M230によって算出された位置ずれ補正量に基づいて、上述した各画像間に生じている位置ずれを補正する。そして、高解像度画像生成部M240は、補正された各画像のフレーム画像データを合成して、フレーム画像データより解像度の高い画像データを新たに生成する。   The high-resolution image generation unit M240 corrects the above-described misregistration between the images based on the misregistration correction amount calculated by the misregistration correction amount calculation unit M230. Then, the high-resolution image generation unit M240 combines the corrected frame image data of each image to newly generate image data having a higher resolution than the frame image data.

・パーソナルコンピュータ20における画像処理:
図6〜図11を参照してパーソナルコンピュータ20において実行される画像処理について説明する。
Image processing in the personal computer 20:
Image processing executed in the personal computer 20 will be described with reference to FIGS.

図6は、本実施例に係る画像処理の処理ルーチンを示すフローチャートである。パーソナルコンピュータ20(CPU200)は、スロット203にメモリカードMCが差し込まれると自動的に、あるいは、ユーザーの指示に従って、本画像処理のプログラムを起動する。CPU200は、ユーザの指示に従ってメモリカードMCから画像ファイルGFを読み出し、画像ファイルGFに記録された動画像データMDを再生する。   FIG. 6 is a flowchart illustrating the processing routine of the image processing according to the present embodiment. The personal computer 20 (CPU 200) activates the image processing program automatically when the memory card MC is inserted into the slot 203 or in accordance with a user instruction. The CPU 200 reads the image file GF from the memory card MC according to a user instruction, and reproduces the moving image data MD recorded in the image file GF.

動画像データMDの再生中に、ユーザによってフレーム画像データの取得指示が入力されると、CPU200は、動画像データMDを構成するフレーム画像データGD1〜GDnの中から、連続する複数のフレーム画像データを取得する(ステップS1)。本実施例では、CPU200は、ユーザーに指示されたタイミングから時系列に連続する4フレーム分のフレーム画像データを取得するものとする。CPU200は、取得した4つのフレーム画像データをRAM201に一時的に格納する。   When an instruction to acquire frame image data is input by the user during reproduction of the moving image data MD, the CPU 200 selects a plurality of continuous frame image data from the frame image data GD1 to GDn constituting the moving image data MD. Is acquired (step S1). In this embodiment, it is assumed that the CPU 200 acquires frame image data for four frames continuous in time series from the timing instructed by the user. The CPU 200 temporarily stores the acquired four frame image data in the RAM 201.

以下の説明では、取得した4つのフレーム画像データの番号(以下、「フレーム番号」とも呼ぶ。)をaとし、フレーム番号aのフレーム画像データをフレーム画像データFa(a=0,1,2,3)と呼ぶこととする。そして、フレーム画像データFaが表す画像を画像fa(a=0,1,2,3)と呼ぶこととする。   In the following description, the number of the acquired four frame image data (hereinafter also referred to as “frame number”) is a, and the frame image data of frame number a is the frame image data Fa (a = 0, 1, 2, We will call it 3). An image represented by the frame image data Fa is referred to as an image fa (a = 0, 1, 2, 3).

CPU200は、続いて、画像ファイルGFから付属情報を取得する(ステップS2)。取得される付属情報は、フレーム画像データF0〜F3と関連付けられた角速度VX、VY、VZと、画素ピッチsおよび焦点間距離fである。以下、フレーム画像データFaと関連付けられた角速度、すなわち、フレーム画像データFaの生成時におけるXYZ軸回り角速度を、それぞれVXa、VYa、VZa(a=0,1,2,3)と呼ぶこととする。 Subsequently, the CPU 200 acquires attached information from the image file GF (step S2). Acquired information is the angular velocities V X , V Y , V Z associated with the frame image data F0 to F3, the pixel pitch s, and the interfocal distance f. Hereinafter, the angular velocities associated with the frame image data Fa, that is, the angular velocities around the XYZ axes at the time of generation of the frame image data Fa are respectively expressed as V X a, V Y a, V Z a (a = 0, 1, 2, 3). ).

ユーザによって、取得したフレーム画像について、高解像度の静止画像を生成する指示が入力されると、まず、CPU200は、フレーム画像データF0〜F3が表す画像f0〜f3間において生じている被写体の位置ずれ(以下、単に位置ずれという。)を解消する補正(以下、位置ずれ補正という。)に用いる補正量を算出する(ステップS3)。ここで、位置ずれおよび位置ずれ補正について説明しておく。   When the user inputs an instruction to generate a high-resolution still image for the acquired frame image, first, the CPU 200 first causes the subject position shift that occurs between the images f0 to f3 represented by the frame image data F0 to F3. A correction amount used for correction (hereinafter simply referred to as positional deviation correction) for eliminating (hereinafter simply referred to as positional deviation) is calculated (step S3). Here, the positional deviation and the positional deviation correction will be described.

図7は、フレーム画像データF0が表す画像f0とフレーム画像データF3が表す画像f3間の位置ずれを示す説明図である。また、図8は、フレーム画像データF0を基準画像データとして、フレーム画像データF3に対して行う位置ずれ補正について示す説明図である。位置ずれ補正量を算出するにあたって、基準となるフレーム画像データは、F0〜F4のいずれであっても良いが、以下の説明では、フレーム画像データF0を基準とする。すなわち、フレーム画像データF0に対する位置ずれ補正量を、他の3つのフレーム画像データF1〜F3について、それぞれ算出するものとする。   FIG. 7 is an explanatory diagram showing a positional deviation between the image f0 represented by the frame image data F0 and the image f3 represented by the frame image data F3. FIG. 8 is an explanatory diagram showing the positional deviation correction performed on the frame image data F3 using the frame image data F0 as reference image data. In calculating the misregistration correction amount, the reference frame image data may be any of F0 to F4, but in the following description, the frame image data F0 is used as a reference. That is, it is assumed that the misalignment correction amount for the frame image data F0 is calculated for each of the other three frame image data F1 to F3.

位置ずれは、画像の横方向および縦方向の並進のずれ(以下、単に、並進ずれという。)と、画像の中心を軸とした回転方向のずれ(以下、単に、回転ずれという。)との組み合わせで表される。図7では、基準となる画像f0が表す画像に対する、画像f3のずれ量を分かり易く示すため、画像f0の縁と、画像f3の縁とを重ねて示すとともに、画像f0が表す画像上の中心位置に仮想の十字画像X0を追記し、この十字画像X0が、画像f3と同様にずれたとして、画像f3上に、ずれた結果の画像である十字画像X3を示すようにしている。更に、このずれ量を、より分かり易く示すために、画像f0および十字画像X0を太い実線で示すとともに、画像f3および十字画像X3を細い破線で示すようにしている。   The positional deviation is a translational deviation in the horizontal and vertical directions of the image (hereinafter simply referred to as translational deviation) and a deviation in the rotational direction about the center of the image (hereinafter simply referred to as rotational deviation). Expressed in combination. In FIG. 7, the edge of the image f <b> 0 and the edge of the image f <b> 3 are overlapped and the center of the image represented by the image f <b> 0 is shown in order to easily show the shift amount of the image f <b> 3 from the image represented by the reference image f <b> 0. A virtual cross image X0 is additionally written at the position, and it is assumed that the cross image X0 is shifted in the same manner as the image f3, and the cross image X3 that is the shifted image is shown on the image f3. Further, in order to show the shift amount more easily, the image f0 and the cross image X0 are indicated by a thick solid line, and the image f3 and the cross image X3 are indicated by a thin broken line.

本実施例では、並進ずれ量として横方向を「um」、縦方向を「vm」と表し、回転ずれ量を「δm」と表し、画像fa(a=1,2,3)の画像f0に対するずれ量を「uma」、「vma」、「δma」と表すこととする。例えば、図7に示すように、画像f3は、画像f0に対して、並進ずれ、および回転ずれが生じており、そのずれ量は、um3、vm3、δm3と表される。   In this embodiment, the translational displacement amount is represented by “um” in the horizontal direction, “vm” in the longitudinal direction, “δm” in the vertical direction, and the image fa (a = 1, 2, 3) with respect to the image f0. The deviation amounts are expressed as “uma”, “vma”, and “δma”. For example, as shown in FIG. 7, the image f3 has a translational shift and a rotational shift with respect to the image f0, and the shift amounts are expressed as um3, vm3, and δm3.

また、補正とは、画像の各画素の位置を、横方向にuの移動、縦方向にvの移動、および画像の中心を軸としたδの回転を施した位置に移動させるように、フレーム画像データにおいて各画素データの座標を変換することを意味する。uは、横方向の並進補正量を表し、vは、縦方向の並進補正量を表している。そして、δは、回転補正量を表している。   Further, the correction means that the position of each pixel of the image is moved to a position where u is moved in the horizontal direction, v is moved in the vertical direction, and δ is rotated about the center of the image. This means that the coordinates of each pixel data are converted in the image data. u represents the translation correction amount in the horizontal direction, and v represents the translation correction amount in the vertical direction. Δ represents the rotation correction amount.

フレーム画像データF0に対するフレーム画像データFa(a=1,2,3)の位置ずれ補正量を「ua」、「va」、「δa」と表すこととすると、位置ずれ補正量と、上述した位置ずれとの間には、ua=−uma、va=−vma、δa=−δmaの関係が成り立つ。例えば、対象フレーム画像F3についての位置ずれ補正量u3、v3、δ3は、u3=−um3、v3=−vm3、δ3=−δm3で表される。   When the positional deviation correction amount of the frame image data Fa (a = 1, 2, 3) with respect to the frame image data F0 is expressed as “ua”, “va”, “δa”, the positional deviation correction amount and the position The relationship of ua = −uma, va = −vma, and δa = −δma is established between the deviations. For example, the misregistration correction amounts u3, v3, and δ3 for the target frame image F3 are represented by u3 = −um3, v3 = −vm3, and δ3 = −δm3.

以上説明したように、例えば、図8に示すように、位置ずれ補正量u3、v3、δ3を用いて、フレーム画像データF3に対して補正を実行するすることにより、画像f3を基画像f0に一致させることができる。このとき、補正後のフレーム画像データF3が表す画像f3(以下、補正後画像f3という。)と、画像f0とを重ね合わせて表示させると、図8に示すように、補正後画像f3は、画像f0に対して部分一致する。なお、この補正の結果を分かり易く示すため、図8においても、図7と同じ仮想の十字画像X0および十字画像X3を表記しており、図8に示すように、補正の結果として、十字画像X3は十字画像X0と一致することとなる。   As described above, for example, as shown in FIG. 8, the image f3 is changed to the base image f0 by performing correction on the frame image data F3 using the positional deviation correction amounts u3, v3, and δ3. Can be matched. At this time, when the image f3 represented by the corrected frame image data F3 (hereinafter referred to as the corrected image f3) and the image f0 are displayed so as to overlap each other, as shown in FIG. Partially matches the image f0. In order to show the correction result in an easy-to-understand manner, the same virtual cross image X0 and cross image X3 as in FIG. 7 are shown in FIG. 8, and as shown in FIG. X3 coincides with the cross image X0.

なお、上述の「部分一致する」とは、以下のことを意味するものである。すなわち、図8に示すように、例えば、ハッチングを施した領域P1は、画像f3にのみ存在する領域であり、画像f0には、該当する領域は存在しない。このように、上述の補正を行ったとしても、ずれに起因して、画像f0にのみ、または、f3にのみ存在する領域が生じてしまうため、画像f3は、画像f0に対して完全一致することはなく、部分一致することとなる。   Note that the above-mentioned “partial match” means the following. That is, as shown in FIG. 8, for example, a hatched area P1 is an area that exists only in the image f3, and no corresponding area exists in the image f0. As described above, even if the above-described correction is performed, an area that exists only in the image f0 or only in the f3 is generated due to the shift. Therefore, the image f3 completely matches the image f0. There will be no partial match.

図6に戻って、上述した位置ずれ補正量ua、va、δa(a=1,2,3)の算出処理について説明する。CPU200は、ステップS2において取得した付属情報を用いて、位置ずれ補正量を算出する(ステップS3)。   Returning to FIG. 6, the calculation processing of the above-described misregistration correction amounts ua, va, δa (a = 1, 2, 3) will be described. The CPU 200 calculates a misalignment correction amount using the attached information acquired in step S2 (step S3).

図9は、ディジタルスチルカメラ10のX軸回りの向きの変化と撮像素子144上における被写体の位置ずれとの関係を示す概略図である。図9は、ディジタルスチルカメラ10の向きがθXだけ変位する(ぶれる)ことによって、撮像素子144およびレンズレンズ142に対する被写体の位置が、記号Hで示す位置から記号H’で示す位置へと変化した様子を模式的に示している。これに対応する撮像素子144上における被写体のずれ量Vは、変位量θXから算出可能であることがわかる。そして、ずれ量Vは、そのまま生成される画像に反映されるため、画像に生じているずれ量vmそのものであるから、変位量θXから上述した位置ずれ補正量が算出可能であるといえる。 FIG. 9 is a schematic diagram showing the relationship between the change in the orientation of the digital still camera 10 around the X axis and the positional deviation of the subject on the image sensor 144. In FIG. 9, the orientation of the digital still camera 10 is displaced (blurred) by θ X, so that the position of the subject with respect to the image sensor 144 and the lens lens 142 changes from the position indicated by symbol H to the position indicated by symbol H ′. This is shown schematically. It can be seen that the shift amount V of the subject on the image sensor 144 corresponding to this can be calculated from the displacement amount θ X. The shift amount V is to be reflected in the image produced directly, since those that shift amount vm caused in the image, the misalignment correction amount described above from displacement theta X is said to be calculated.

位置ずれ補正量の算出について具体的に説明すると、基準となるフレーム画像データF0の生成時から補正対象であるフレーム画像データFaの生成時までの期間におけるXYZ軸回りの変位量をθaX、θaY、θaZとし、図9に示すように、撮像素子144上における1画素分(画素ピッチs分)のずれに相当するX軸およびY軸回りの変位量をθ_pixとすると、位置ずれ補正量ua、va、δaは以下の式(1a)〜(1c)で表される。 The calculation of the positional deviation correction amount will be specifically described. The displacement amounts around the XYZ axes in the period from the generation of the reference frame image data F0 to the generation of the frame image data Fa to be corrected are expressed as θa X and θa. Assuming that Y and θa Z are as shown in FIG. 9 and the displacement amount around the X axis and Y axis corresponding to the displacement of one pixel (pixel pitch s) on the image sensor 144 is θ_pix, the positional deviation correction amount ua, va, and δa are expressed by the following formulas (1a) to (1c).

ua = θYa/θ_pix …(1)
va = −θXa/θ_pix …(2)
δa = θZa …(3)
ua = θ Y a / θ_pix (1)
va = −θ X a / θ_pix (2)
δa = θ Z a ... (3)

すなわち、変位量θXa、θYa、θZaは、図3を参照して先に説明したとおり、それぞれ、ディジタルスチルカメラ10のいわゆるピッチ方向、ヨー方向、ロール方向のぶれを表す角度変化であるので、それぞれのぶれに起因する上下方向、左右方向、および回転方向の位置ずれに対する補正量が算出できることがわかる。 That is, the displacement amounts θ X a, θ Y a, and θ Z a are angles representing blurs in the so-called pitch direction, yaw direction, and roll direction of the digital still camera 10, respectively, as described above with reference to FIG. Since it is a change, it can be seen that the correction amount for the positional deviation in the vertical direction, the horizontal direction, and the rotation direction due to each shake can be calculated.

ここで、θ_pixは、図9に示すディジタルスチルカメラ10の焦点間距離f、撮像素子144の画素ピッチsを用いて、以下の式(4)で表される。
θ_pix=tan-1(s/f)≒s/f …(4)
Here, θ_pix is expressed by the following equation (4) using the interfocal distance f of the digital still camera 10 and the pixel pitch s of the image sensor 144 shown in FIG.
θ_pix = tan −1 (s / f) ≈s / f (4)

また、XYZ軸回りの変位量θXa、θYa、θZa は、XYZ軸回りの角速度をフレーム画像データF0の生成時t0からフレーム画像データFaの生成時taまで積分した値によって与えられる。また、変位量θXa、θYa、θZaは、フレーム画像データFaの生成時における角速度VXa、VYa、VZa(a=1,2,3)と、角速度が記録される時間間隔Tとを用いて、以下の式(5)〜(7)によって近似できる。 Also, the displacements around the XYZ axes θ X a, θ Y a, θ Z a Is given by a value obtained by integrating the angular velocity about the XYZ axes from the generation time t0 of the frame image data F0 to the generation time ta of the frame image data Fa. Further, the displacement amounts θ X a, θ Y a, θ Z a are the angular velocities V X a, V Y a, V Z a (a = 1, 2, 3) and the angular velocities at the time of generating the frame image data Fa. Using the recorded time interval T, it can be approximated by the following equations (5) to (7).

Figure 2006003926
Figure 2006003926

ここで、本実施例では、1フレームごとに角速度が記録されているので、時間間隔Tは、フレームレートの逆数で表される。例えば、角速度の単位(degree/sec)であり、フレームレートが30(1/sec)であれば、時間間隔Tは、1/30(sec)である。式(1)〜式(7)から、結局、位置ずれ補正量ua、va、δaは、以下の式(8)〜(9)で表される。   Here, in this embodiment, since the angular velocity is recorded for each frame, the time interval T is expressed by the reciprocal of the frame rate. For example, if the angular velocity is a unit (degree / sec) and the frame rate is 30 (1 / sec), the time interval T is 1/30 (sec). From the equations (1) to (7), the positional deviation correction amounts ua, va, and δa are eventually expressed by the following equations (8) to (9).

Figure 2006003926
Figure 2006003926

CPU200は、ステップS2において、付属情報として取得した角速度VXa、VYa、VZa、画素ピッチsおよび焦点間距離fを、上記の式(8)〜(9)に代入することによって、容易に位置ずれ補正量ua、va、δaを算出することができる。位置ずれ補正量の算出精度は、ディジタルスチルカメラ10の角速度センサ161、162、163の性能に依存するが、後に生成される高解像度画像データにおいて十分な画質を確保するためには、位置ずれ補正量は、画像f0〜faの画素単位より細かい精度(いわゆるサブピクセルレベルの精度)で算出される必要がある。例えば、並進補正量ua、vaは、1/16画素単位で、回転補正量δaは、1/100度単位で算出される。 In step S2, the CPU 200 substitutes the angular velocities V X a, V Y a, V Z a, the pixel pitch s, and the interfocal distance f acquired as the auxiliary information into the above formulas (8) to (9). Thus, the misregistration correction amounts ua, va, δa can be easily calculated. The calculation accuracy of the misregistration correction amount depends on the performance of the angular velocity sensors 161, 162, and 163 of the digital still camera 10. However, in order to ensure sufficient image quality in the high-resolution image data generated later, misalignment correction is required. The amount needs to be calculated with an accuracy (so-called sub-pixel level accuracy) finer than the pixel unit of the images f0 to fa. For example, the translation correction amounts ua and va are calculated in units of 1/16 pixel, and the rotation correction amount δa is calculated in units of 1/100 degrees.

位置ずれ補正量が、3つの画像fa(a=1,2,3)全てについて算出されると、CPU200は、算出された位置ずれ補正量を用いて、フレーム画像データF1〜F3に対して位置ずれ補正を実行する(ステップS4)。この結果、3つの画像faと基準となる画像f0とを、部分一致するように重ね合わせることができる(図8参照)。   When the misregistration correction amounts are calculated for all three images fa (a = 1, 2, 3), the CPU 200 uses the calculated misregistration correction amounts to determine the position of the frame image data F1 to F3. Deviation correction is executed (step S4). As a result, the three images fa and the reference image f0 can be overlaid so as to partially match (see FIG. 8).

CPU200は、続いて、補正後のフレーム画像データF1〜F3と、基準となるフレーム画像データF0とを合成して、高解像度の新たな画像を表す画像データ(以下、高解像度画像データという。)を生成する処理(以下、画像合成処理という。)を実行する(ステップS5)。以下では、図10および図11を参照して画像合成処理について簡単に説明する。   Subsequently, the CPU 200 synthesizes the corrected frame image data F1 to F3 and the reference frame image data F0 to display image data representing a new high-resolution image (hereinafter referred to as high-resolution image data). Is generated (hereinafter referred to as image composition processing) (step S5). Hereinafter, the image composition processing will be briefly described with reference to FIGS. 10 and 11.

図10は、基準となる画像f0と画像f1〜f3とを、ずれを補正して配置した様子を拡大して示す説明図である。図10では、画像合成処理によって生成される高解像度画像データが表す画像(以下、高解像度画像という。)の各画素が黒丸で示されているとともに、画像f0の各画素が白抜きの四辺形で示され、画像f1〜f3の各画素が、ハッチングを施した四辺形で示されている。なお、高解像度画像の画素密度は、画像f0に対して、縦横1.5倍密に設定されるものとする。また、高解像度画像の各画素は、2画素おきに画像f0の各画素に重なる位置にあるものとする。ただし、高解像度画像の画素が、必ずしも画像f0の各画素に重なる位置にある必要はない。例えば、高解像度画像の各画素のすべてが、画像f0の各画素の中間に位置する等、種々の位置とすることができる。また、高解像度画像の画素密度も、縦横1.5倍に限定されるものではなく、自由に設定することができる。   FIG. 10 is an explanatory diagram showing, in an enlarged manner, a state in which the reference image f0 and the images f1 to f3 are arranged with the shift corrected. In FIG. 10, each pixel of an image represented by high-resolution image data generated by image synthesis processing (hereinafter referred to as a high-resolution image) is indicated by a black circle, and each pixel of the image f0 is a white quadrilateral. The pixels of the images f1 to f3 are indicated by hatched quadrilaterals. Note that the pixel density of the high-resolution image is set 1.5 times as dense as the image f0. Also, each pixel of the high resolution image is assumed to be in a position overlapping with each pixel of the image f0 every two pixels. However, the pixels of the high-resolution image do not necessarily have to be positioned so as to overlap each pixel of the image f0. For example, all the pixels of the high-resolution image can be in various positions such as being located in the middle of the pixels of the image f0. Further, the pixel density of the high-resolution image is not limited to 1.5 times in length and width, and can be freely set.

高解像度画像のある画素G(j)に注目して説明する(以下、画素G(j)を注目画素という。)。ここで、変数jは、高解像度画像の全画素を区別する番号を示している。例えば、番号jは、左上の画素から右上の画素まで、次に1つ下の列の左端の画素から右端の画素までという順番に設定される。CPU200は、各画像f0,f1,f2,f3において、注目画素G(j)に対して、それぞれ最も近い画素F(0),F(1),F(2),F(3)と、注目画素G(j)との距離L0,L1,L2,L3を算出する。そして、CPU200は、最も近い距離にある画素(以下、「最近傍画素」と呼ぶ。)を決定する。図10の例では、L3<L1<L0<L2であるので、画像f3の画素F(3)が、注目画素G(j)の最近傍画素として決定される。なお、この注目画素G(j)に対する最近傍画素が、対象フレーム画像F3のi番目の画素であったとして、以下、最近傍画素F(3,i)と表記する。   Description will be made by paying attention to a pixel G (j) having a high-resolution image (hereinafter, the pixel G (j) is referred to as a target pixel). Here, the variable j indicates a number for distinguishing all pixels of the high resolution image. For example, the number j is set in order from the upper left pixel to the upper right pixel, and then from the left end pixel to the right end pixel in the next lower row. In each of the images f0, f1, f2, and f3, the CPU 200 pays attention to the pixel F (0), F (1), F (2), and F (3) closest to the pixel of interest G (j). Distances L0, L1, L2, and L3 with the pixel G (j) are calculated. Then, the CPU 200 determines a pixel at the closest distance (hereinafter referred to as “nearest neighbor pixel”). In the example of FIG. 10, since L3 <L1 <L0 <L2, the pixel F (3) of the image f3 is determined as the nearest pixel of the target pixel G (j). Note that the nearest pixel for the target pixel G (j) is hereinafter referred to as the nearest pixel F (3, i), assuming that it is the i-th pixel of the target frame image F3.

CPU200は、高解像度画像を構成する全ての画素を注目画素として上述の処理を実行し、それぞれの画素について最近傍画素を決定する。   The CPU 200 executes the above-described processing using all pixels constituting the high-resolution image as the target pixel, and determines the nearest pixel for each pixel.

CPU200は、注目画素G(j)の画素値を、決定された最近傍画素含む画像fa(図10に示す例では、画像f3)において注目画素G(j)を囲む画素の画素値を用いて、バイ・リニア法等の補完処理によって生成する。   The CPU 200 uses the pixel value of the pixel surrounding the target pixel G (j) in the image fa (the image f3 in the example illustrated in FIG. 10) including the determined nearest pixel as the pixel value of the target pixel G (j). It is generated by a complementary process such as a bi-linear method.

図11は、バイ・リニア法による補間処理について示す説明図である。注目画素G(j)は、画像f0〜f3のいずれにも存在しない画素であるので、画素値が存在していない。そこで、CPU200は、最近傍画素F(3,i)のほか、注目画素G(j)を囲む3つの画素F(3,i+1)、F(3,k)、F(3,k+1)で区画される領域を、注目画素G(j)で4つの区画に分割し、その面積比で対角位置の画素の画素値をそれぞれ重み付けして加算することにより、注目画素G(j)の画素値を生成する。ただし、kはi番目の画素にフレーム画像F3の横方向の画素数を加えた画素の番号を示している。   FIG. 11 is an explanatory diagram showing interpolation processing by the bi-linear method. Since the target pixel G (j) is a pixel that does not exist in any of the images f0 to f3, there is no pixel value. Therefore, the CPU 200, in addition to the nearest pixel F (3, i), three pixels F (3, i + 1), F (3, k), F (3, k +) surrounding the target pixel G (j). The region partitioned in 1) is divided into four partitions by the pixel of interest G (j), and the pixel values of the pixels at the diagonal positions are weighted and added by the area ratio, thereby adding the pixel of interest G (j ) Pixel value is generated. Here, k represents the pixel number obtained by adding the number of pixels in the horizontal direction of the frame image F3 to the i-th pixel.

なお、画素値補間処理の方法については、バイ・リニア法の他、バイ・キュービック法、ニアレストネイバ法等の種々の補間方法を用いることができる。   In addition to the bi-linear method, various interpolation methods such as a bi-cubic method and a nearest neighbor method can be used as the pixel value interpolation processing method.

CPU200は、高解像度画像を構成する全ての画素について、上述した処理によって画素値を生成する。   The CPU 200 generates pixel values by the above-described processing for all the pixels constituting the high resolution image.

以上説明したように、本実施例に係る画像処理によれば、動画像データMDから取得した複数のフレーム画像データF0〜F3の合成に用いる位置ずれ補正量を、フレーム画像データF0〜F3のそれぞれの生成時におけるディジタルスチルカメラ10の向きの変化に関する情報である角速度VXa、VYa、VZa(a=1,2,3)を用いて算出する。複数の画像データを合成して高解像度画像データを生成する場合、生成される画像を高画質化するためには、画素単位より細かい高い精度で画像間における被写体の位置ずれを補正することが求められる。そして、被写体の位置ずれには、上述した回転ずれが含まれることも多い。本実施例では、被写体の並進ずれ(上下方向および左右方向のずれ)に対応する角速度VXa、VYaに加えて、被写体の回転ずれに対応する角速度VZaを用いて位置ずれ補正量を算出するので、高い精度で位置ずれ補正量を算出できる。この結果、位置ずれ補正後のフレーム画像データF0〜F3を合成した高解像度画像データが表す画像の画質を向上させることができる。 As described above, according to the image processing according to the present embodiment, the misalignment correction amount used for the synthesis of the plurality of frame image data F0 to F3 acquired from the moving image data MD is set to each of the frame image data F0 to F3. Is calculated using angular velocities V X a, V Y a, and V Z a (a = 1, 2, 3), which are information relating to changes in the orientation of the digital still camera 10 at the time of generation. When synthesizing multiple image data to generate high-resolution image data, it is necessary to correct the positional deviation of the subject between the images with high accuracy finer than a pixel unit in order to improve the image quality of the generated image. It is done. The subject positional deviation often includes the rotational deviation described above. In the present embodiment, in addition to the angular velocities V X a and V Y a corresponding to the translational deviation (vertical and lateral deviations) of the subject, the positional deviation correction is performed using the angular velocity V Z a corresponding to the rotational deviation of the subject. Since the amount is calculated, the misregistration correction amount can be calculated with high accuracy. As a result, the image quality of the image represented by the high-resolution image data obtained by combining the frame image data F0 to F3 after the positional deviation correction can be improved.

さらに、角速度センサ161〜163によって検出された情報である角速度VXa、VYa、VZa(a=1,2,3)を用いて位置ずれ補正量を算出するので、フレーム画像データF0〜F3の解析によって、位置ずれ補正量を算出するより処理時間の短縮および処理負荷の軽減を図ることができる Further, since the misregistration correction amount is calculated using the angular velocities V X a, V Y a, and V Z a (a = 1, 2, 3), which are information detected by the angular velocity sensors 161 to 163, the frame image data By analyzing F0 to F3, the processing time can be reduced and the processing load can be reduced rather than calculating the displacement correction amount.

また、本実施例に係るディジタルスチルカメラ10は、3つの角速度センサを備え、動画像データ(複数のフレーム画像データ)生成時における角速度VXa、VYa、VZaを検出すると共に、検出された角速度のデータを、生成した動画像データと関連付けて出力するため、外部の画像処理装置において、上述した画像処理を可能とし、上述した作用効果を実現することができる。 The digital still camera 10 according to this embodiment includes three angular rate sensors, the angular velocity V X a in the moving image data (a plurality of frame image data) during generation, V Y a, and detects the V Z a, Since the detected angular velocity data is output in association with the generated moving image data, the above-described image processing can be performed in the external image processing apparatus, and the above-described effects can be realized.

B.変形例:
上記実施例では、ディジタルスチルカメラ10の動画撮影モードで生成された動画像データから複数のフレーム画像データを取得しているが、高解像度画像データの生成に用いる複数の画像データの取得態様は、これに限られるものではない。例えば、デジタルビデオカメラで撮像された動画像データや、連写機能を備えたディジタルスチルカメラで連続撮影された複数の静止画像データ等、時系列に並ぶ複数の画像データであれば良い。連写機能とは、一般的に、メモリーカードにデータを転送しないで、ディジタルスチルカメラ内部の高速なメモリー(バッファメモリー)に画像データをため込むことで、複数のカットを高速で連続して撮影する機能をいう。
B. Variations:
In the above embodiment, a plurality of frame image data is acquired from the moving image data generated in the moving image shooting mode of the digital still camera 10, but the acquisition mode of the plurality of image data used for generating the high resolution image data is as follows. It is not limited to this. For example, it may be a plurality of image data arranged in time series, such as moving image data captured by a digital video camera and a plurality of still image data continuously captured by a digital still camera having a continuous shooting function. The continuous shooting function generally captures multiple cuts at a high speed by storing image data in a high-speed memory (buffer memory) inside the digital still camera without transferring the data to a memory card. Refers to function.

上記実施例に係るディジタルスチルカメラ10は、ディジタルスチルカメラ10の向きの変化を検出するセンサとして角速度センサを備えているが、角加速度を検出するセンサや、角変位量を検出するセンサを備えていても良い。CPU200は、角加速度が与えられる場合には、角加速度を積分して角速度を算出し、さらにこれを積分して角変位量を算出することが可能であるし、角変位量が与えられる場合には、そのまま位置ずれ補正量の算出に用いること可能である。   The digital still camera 10 according to the above embodiment includes an angular velocity sensor as a sensor that detects a change in the orientation of the digital still camera 10, but includes a sensor that detects angular acceleration and a sensor that detects the amount of angular displacement. May be. When the angular acceleration is given, the CPU 200 can calculate the angular velocity by integrating the angular acceleration, further calculate the angular displacement by integrating the angular acceleration, and when the angular displacement is given. Can be used for calculation of the positional deviation correction amount as it is.

また、ディジタルスチルカメラ10は、検出された角速度VX、VY、VZをそのまま、画像ファイルGFに出力しているが、ディジタルスチルカメラ10内部の制御回路100等で、積分処理を実行し、角変位量に加工してから出力しても良い。係る場合には、画像ファイルGFには、角変位量θX、θY、θZが画像データと関連付けられて出力される。CPU200は、角変位量θX、θY、θZをそのまま位置ずれ補正量の算出に用いること可能である。 The digital still camera 10 outputs the detected angular velocities V X , V Y , and V Z as they are to the image file GF. However, the digital still camera 10 executes integration processing by the control circuit 100 or the like inside the digital still camera 10. Alternatively, the angular displacement may be processed and output. In such a case, the angular displacement amounts θ X , θ Y , and θ Z are output to the image file GF in association with the image data. The CPU 200 can use the angular displacement amounts θ X , θ Y , and θ Z as they are for calculating the positional deviation correction amount.

上記実施例における画像ファイルGFには、フレーム画像データの生成時に対応する角速度が、フレーム画像データと同数だけ記録されているが、フレーム画像データ数と角速度のデータ数が同じである必要はなく、例えば、毎秒30フレームの動画像データに対して、角速度が1/120秒ごとに記録されても良い(フレーム画像データ数の4倍の数の角速度データが記録されることになる。)。かかる場合には、例えば、画像ファイルGFに、フレームレート(例えば、毎秒30フレーム)と、角速度が記録される時間間隔T(例えば、1/120秒ごと)を記録しておく等により、フレーム画像データの生成時と角速度の検出時との時間軸上における対応関係が認識できるようにされる。角速度の記録ピッチが細かくなるほど(記録されるフレーム画素データあたりの角速度のデータ数が増えるほど)、位置ずれ補正量の検出精度が向上する。   In the image file GF in the above embodiment, the same number of angular velocities corresponding to the generation of frame image data are recorded as the number of frame image data, but the number of frame image data and the number of angular velocity data need not be the same. For example, the angular velocity may be recorded every 1/120 second with respect to moving image data of 30 frames per second (an angular velocity data four times the number of frame image data is recorded). In such a case, for example, a frame image is recorded in the image file GF by recording the frame rate (for example, 30 frames per second) and the time interval T (for example, every 1/120 second) at which the angular velocity is recorded. The correspondence on the time axis between data generation and angular velocity detection can be recognized. As the angular velocity recording pitch becomes finer (as the number of angular velocity data per recorded frame pixel data increases), the detection accuracy of the positional deviation correction amount improves.

上記実施例では、ディジタルスチルカメラ10に角速度センサを備えているが、ディジタルスチルカメラ10とは、別体に角速度センサを備えても良い。例えば、ディジタルスチルカメラ10を三脚に固定する際に用いる雲台に角速度センサを備えても良い。かかる場合には、例えば、ディジタルスチルカメラ10のメモリカードMCとは別の記録媒体に、角速度センサの検出値の時間的変化を動画の撮影と同期して記録しておき、画像処理時に、動画像の各フレーム画像データの生成タイミングと角速度の検出タイミングとの時間軸上での対応関係が認識できるようにしておく。このようにすれば、上記実施例と同様の作用効果を得ることができる。   In the above embodiment, the digital still camera 10 is provided with an angular velocity sensor, but the digital still camera 10 may be provided with an angular velocity sensor separately. For example, an angular velocity sensor may be provided on a camera platform used when the digital still camera 10 is fixed to a tripod. In such a case, for example, the temporal change in the detected value of the angular velocity sensor is recorded in a recording medium different from the memory card MC of the digital still camera 10 in synchronization with the shooting of the moving image. It is possible to recognize the correspondence on the time axis between the generation timing of each frame image data of the image and the detection timing of the angular velocity. In this way, it is possible to obtain the same effect as the above embodiment.

以上、実施例、変形例に基づき本発明に係る画像処理について説明してきたが、上記した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれる。   As described above, the image processing according to the present invention has been described based on the examples and the modifications. However, the embodiments of the present invention described above are for facilitating the understanding of the present invention and limit the present invention. is not. The present invention can be changed and improved without departing from the spirit and scope of the claims, and equivalents thereof are included in the present invention.

実施例に係る撮像装置および画像処理装置(パーソナルコンピュータ)を含む画像処理システムの一例を示す説明図。1 is an explanatory diagram illustrating an example of an image processing system including an imaging device and an image processing device (personal computer) according to an embodiment. ディジタルスチルカメラ10の概略構成を示す説明図。2 is an explanatory diagram showing a schematic configuration of a digital still camera 10. FIG. ディジタルスチルカメラ10のXYZ軸周りの向きの変化を説明する概略図。FIG. 3 is a schematic diagram for explaining a change in direction around an XYZ axis of the digital still camera. 画像ファイルGFの内部構成を概念的に示す説明図。Explanatory drawing which shows notionally the internal structure of the image file GF. 実施例に係るパーソナルコンピュータ20(CPU200)の機能ブロック図。The functional block diagram of the personal computer 20 (CPU200) which concerns on an Example. 実施例に係る画像処理の処理ルーチンを示すフローチャート。6 is a flowchart illustrating a processing routine of image processing according to the embodiment. 画像f0とf3間の位置ずれを示す説明図。Explanatory drawing which shows the position shift between the images f0 and f3. フレーム画像データF3に対して行う位置ずれ補正について示す説明図。Explanatory drawing shown about the position shift correction performed with respect to the frame image data F3. ディジタルスチルカメラ10のX軸回りの向きの変化と撮像素子144上における被写体の位置ずれとの関係を示す概略図。FIG. 4 is a schematic diagram illustrating a relationship between a change in direction around the X axis of the digital still camera and a positional deviation of a subject on the image sensor 144; 画像f0〜f3を、ずれを補正して配置した様子を拡大して示す説明図。Explanatory drawing which expands and shows a mode that the image f0-f3 was correct | amended and arrange | positioned. バイ・リニア法による補間処理について示す説明図。Explanatory drawing which shows the interpolation process by a bilinear method.

符号の説明Explanation of symbols

10…ディジタルスチルカメラ(DSC)
100…制御回路
102…中央演算装置(CPU)
104…ランダムアクセスメモリ(RAM)
106…リードオンリメモリ(ROM)
110…コントローラ
120…画像処理回路
130…画像データ生成回路
140…光学回路
142…レンズ
144…撮像素子
146…絞り
150…メモリカードドライブ
161、162、163…角速度センサ
20…パーソナルコンピュータ
200…中央演算装置(CPU)
201…ランダムアクセスメモリ(RAM)
202…ハードディスク(HDD)
203…カードスロット
204…入出力端子
25…モニタ
30…プリンタ
40…表示装置
45…表示部
MC…メモリカード
M110…情報生成部
M120…画像データ出力部
M210…画像データ取得部
M220…情報取得部
M230…位置ずれ補正量算出部
M240…高解像度画像生成部
10. Digital still camera (DSC)
DESCRIPTION OF SYMBOLS 100 ... Control circuit 102 ... Central processing unit (CPU)
104: Random access memory (RAM)
106: Read only memory (ROM)
DESCRIPTION OF SYMBOLS 110 ... Controller 120 ... Image processing circuit 130 ... Image data generation circuit 140 ... Optical circuit 142 ... Lens 144 ... Imaging element 146 ... Aperture 150 ... Memory card drive 161, 162, 163 ... Angular velocity sensor 20 ... Personal computer 200 ... Central processing unit (CPU)
201: Random access memory (RAM)
202: Hard disk (HDD)
DESCRIPTION OF SYMBOLS 203 ... Card slot 204 ... Input / output terminal 25 ... Monitor 30 ... Printer 40 ... Display device 45 ... Display part MC ... Memory card M110 ... Information generation part M120 ... Image data output part M210 ... Image data acquisition part M220 ... Information acquisition part M230 ... misregistration correction amount calculation unit M240 ... high-resolution image generation unit

Claims (11)

画像処理装置であって、
撮像装置によって生成された画像データであって、時系列に並ぶ複数の画像データを取得する画像データ取得手段と、
前記複数の画像データのそれぞれの生成時に対応する前記撮像装置の向きの変化に関する情報であって、撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化に関する情報を少なくとも含むと共に前記複数の画像データと関連付けられた情報を取得する情報取得手段と、
前記複数の画像データが表す各画像間における被写体の位置ずれを補正するための補正量であって、取得された前記向きの変化に関する情報を用いて推定される補正量を算出する位置ずれ補正量算出手段と、
前記算出された補正量に基づいて、前記複数の画像データにおける前記位置ずれを補正すると共に、前記補正された複数の画像データを合成して、前記複数の画像データより解像度の高い高解像度画像データを生成する高解像度画像生成手段とを備える画像処理装置。
An image processing apparatus,
Image data acquisition means for acquiring a plurality of image data arranged in time series, which is image data generated by the imaging device;
Information relating to changes in the orientation of the imaging device corresponding to the generation of each of the plurality of image data, and information relating to angular changes corresponding to deviations in the rotation direction of the subject about a straight line perpendicular to the captured image And information acquisition means for acquiring information associated with the plurality of image data,
A misregistration correction amount for correcting a misalignment of a subject between the images represented by the plurality of image data, and calculating a correction amount estimated using the acquired information on the change in the orientation A calculation means;
Based on the calculated correction amount, the positional deviation in the plurality of image data is corrected, and the corrected plurality of image data is combined to obtain high-resolution image data having a higher resolution than the plurality of image data. An image processing apparatus comprising: high-resolution image generation means for generating
請求項1に記載の画像処理装置において、
前記位置ずれ補正量の算出は、前記複数の画像データが表す画像を構成する画素単位より細かい精度で実行される画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus is configured to calculate the misregistration correction amount with an accuracy finer than a pixel unit constituting an image represented by the plurality of image data.
請求項1または請求項2に記載の画像処理装置において、
前記撮像装置の向きの変化に関する情報は、さらに、
撮像画像において被写体の上下方向のずれに対応する角度変化に関する情報と、
撮像画像において被写体の左右方向のずれに対応する角度変化に関する情報とを含む画像処理装置。
The image processing apparatus according to claim 1 or 2,
Information regarding the change in orientation of the imaging device further includes:
Information on the angle change corresponding to the vertical displacement of the subject in the captured image;
An image processing apparatus including information related to an angle change corresponding to a lateral shift of a subject in a captured image.
請求項1ないし請求項3のいずれかに記載の画像処理装置において、
前記撮像装置の向きの変化に関する情報は、
前記撮像装置に備えられたセンサによって検出された情報、または、
前記センサによって検出された情報を加工して得られた情報である画像処理装置。
The image processing apparatus according to any one of claims 1 to 3,
Information on the change in orientation of the imaging device is
Information detected by a sensor provided in the imaging device, or
An image processing apparatus which is information obtained by processing information detected by the sensor.
請求項1ないし請求項4のいずれかに記載の画像処理装置において、
前記撮像装置の向きの変化に関する情報は、
前記撮像装置の向きの変化に関する角変位量、角速度、角加速度のいずれかである画像処理装置。
The image processing apparatus according to any one of claims 1 to 4,
Information on the change in orientation of the imaging device is
An image processing apparatus that is one of an angular displacement amount, an angular velocity, and an angular acceleration related to a change in orientation of the imaging apparatus.
画像処理方法であって、
撮像装置によって生成された画像データであって、時系列に並ぶ複数の画像データを取得し、
前記複数の画像データのそれぞれの生成時に対応する前記撮像装置の向きの変化に関する情報であって、撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化に関する情報を少なくとも含むと共に前記複数の画像データと関連付けられた情報を取得し、
前記複数の画像データが表す各画像間における被写体の位置ずれを補正するための補正量であって、取得された前記向きの変化に関する情報を用いて推定される補正量を算出し、
前記算出された補正量に基づいて、前記複数の画像データにおける前記位置ずれを補正すると共に、前記補正された複数の画像データを合成して、前記複数の画像データより解像度の高い高解像度画像データを生成する画像処理方法。
An image processing method comprising:
Image data generated by the imaging device, obtaining a plurality of image data arranged in time series,
Information relating to changes in the orientation of the imaging device corresponding to the generation of each of the plurality of image data, and information relating to angular changes corresponding to deviations in the rotation direction of the subject about a straight line perpendicular to the captured image And acquiring information associated with the plurality of image data,
A correction amount for correcting a positional deviation of the subject between the images represented by the plurality of image data, and calculating a correction amount estimated using the acquired information on the change in the orientation;
Based on the calculated correction amount, the positional deviation in the plurality of image data is corrected, and the corrected plurality of image data is combined to obtain high-resolution image data having a higher resolution than the plurality of image data. Image processing method for generating
画像処理を実行するコンピュータプログラムであって、
撮像装置によって生成された画像データであって、時系列に並ぶ複数の画像データを取得する画像データ取得機能と、
前記複数の画像データのそれぞれの生成時に対応する前記撮像装置の向きの変化に関する情報であって、撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化に関する情報を少なくとも含むと共に前記複数の画像データと関連付けられた情報を取得する情報取得機能と、
前記複数の画像データが表す各画像間における被写体の位置ずれを補正するための補正量であって、取得された前記向きの変化に関する情報を用いて推定される補正量を算出する位置ずれ補正量算出機能と、
前記算出された補正量に基づいて、前記複数の画像データにおける前記位置ずれを補正すると共に、前記補正された複数の画像データを合成して、前記複数の画像データより解像度の高い高解像度画像データを生成する高解像度画像生成機能とをコンピュータに実現させるコンピュータプログラム。
A computer program for executing image processing,
An image data acquisition function for acquiring a plurality of image data arranged in time series, which is image data generated by an imaging device;
Information relating to changes in the orientation of the imaging device corresponding to the generation of each of the plurality of image data, and information relating to angular changes corresponding to deviations in the rotation direction of the subject about a straight line perpendicular to the captured image And an information acquisition function for acquiring information associated with the plurality of image data,
A misregistration correction amount for correcting a subject misregistration between the images represented by the plurality of image data, and calculating a correction amount estimated using the acquired information on the change in the orientation A calculation function;
Based on the calculated correction amount, the positional deviation in the plurality of image data is corrected, and the corrected plurality of image data is combined to obtain high-resolution image data having a higher resolution than the plurality of image data. The computer program which makes a computer implement | achieve the high-resolution image generation function which produces | generates.
請求項7に記載のコンピュータプログラムを記録したコンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the computer program according to claim 7 is recorded. 撮像装置であって、
時系列に並ぶ複数の画像データを生成する画像データ生成手段と、
前記撮像装置の向きの変化を検出するセンサと、
検出された前記向きの変化を用いて、前記複数の画像データのそれぞれの生成時に対応する前記向きの変化に関する情報を生成する情報生成手段と、
前記複数の画像データと前記生成された情報とを関連付けて出力する画像データ出力手段とを備える撮像装置。
An imaging device comprising:
Image data generating means for generating a plurality of image data arranged in time series;
A sensor for detecting a change in orientation of the imaging device;
Using the detected change in orientation, information generating means for generating information relating to the change in orientation corresponding to the generation of each of the plurality of image data;
An image pickup apparatus comprising: image data output means for outputting the plurality of image data in association with the generated information.
請求項9に記載の撮像装置において、
前記向きの変化に関する情報は、
撮像画像において被写体の上下方向のずれに対応する角度変化、
撮像画像において被写体の左右方向のずれに対応する角度変化、
撮像画像に対して垂直な直線を軸とした被写体の回転方向のずれに対応する角度変化、
の全部または一部に関する情報である撮像装置。
The imaging device according to claim 9,
Information on the change in orientation is
Angle change corresponding to the vertical displacement of the subject in the captured image,
Angle change corresponding to the horizontal displacement of the subject in the captured image,
An angle change corresponding to a shift in the rotation direction of the subject about a straight line perpendicular to the captured image;
An imaging device that is information about all or part of the information.
請求項9または請求項10に記載の撮像装置であって、
前記向きの変化に関する情報は、角変位量、角速度、角加速度のいずれかである撮像装置。
The imaging apparatus according to claim 9 or 10, wherein:
The information relating to the change in the orientation is an imaging apparatus that is one of an angular displacement amount, an angular velocity, and an angular acceleration.
JP2004176304A 2004-06-15 2004-06-15 Image processing device, image processing method and image processing program Pending JP2006003926A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004176304A JP2006003926A (en) 2004-06-15 2004-06-15 Image processing device, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004176304A JP2006003926A (en) 2004-06-15 2004-06-15 Image processing device, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2006003926A true JP2006003926A (en) 2006-01-05

Family

ID=35772309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004176304A Pending JP2006003926A (en) 2004-06-15 2004-06-15 Image processing device, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2006003926A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100994063B1 (en) 2008-07-09 2010-11-11 가시오게산키 가부시키가이샤 Image processing device, image processing method and a computer readable storage medium having stored therein a program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100994063B1 (en) 2008-07-09 2010-11-11 가시오게산키 가부시키가이샤 Image processing device, image processing method and a computer readable storage medium having stored therein a program

Similar Documents

Publication Publication Date Title
JP4367264B2 (en) Image processing apparatus, image processing method, and image processing program
JP3925521B2 (en) Keystone correction using part of the screen edge
JP4165540B2 (en) How to adjust the position of the projected image
JP5687608B2 (en) Image processing apparatus, image processing method, and image processing program
JP4806476B2 (en) Image processing apparatus, image generation system, method, and program
EP2219366B1 (en) Image capturing device, image capturing method, and image capturing program
JP2006203463A (en) Image display method, image pick-up method, and image synthesizing method
JP4886888B2 (en) Image processing apparatus and control method thereof
JP2013165485A (en) Image processing apparatus, image capturing apparatus, and computer program
US20090295981A1 (en) Image sensing apparatus and correction method
JPH1056595A (en) Image pickup device
JP4752459B2 (en) Imaging device
JP2007274504A (en) Digital camera
JP6565326B2 (en) Imaging display device and control method thereof
JP6330371B2 (en) Image projection apparatus and image projection method
JP2010210704A (en) Image display apparatus
JP2006041604A (en) Image processing apparatus, image processing method, and image processing program
JP6274744B2 (en) Image processing apparatus and image processing method
JP4479396B2 (en) Image processing apparatus, image processing method, and image processing program
JP2006003926A (en) Image processing device, image processing method and image processing program
JP6257289B2 (en) Image processing apparatus, imaging apparatus including the same, and image processing method
JP2006005384A (en) Image processor, image processing method, and image processing program
JP2005197910A (en) Production of still picture of particular scene in animation
JP2000069353A (en) Camera-shake detector and camera-shake correction device
JP2006135501A (en) Imaging apparatus