JP2011113527A - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP2011113527A
JP2011113527A JP2009272419A JP2009272419A JP2011113527A JP 2011113527 A JP2011113527 A JP 2011113527A JP 2009272419 A JP2009272419 A JP 2009272419A JP 2009272419 A JP2009272419 A JP 2009272419A JP 2011113527 A JP2011113527 A JP 2011113527A
Authority
JP
Japan
Prior art keywords
image data
image
unit
resolution image
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009272419A
Other languages
Japanese (ja)
Inventor
Eiei Han
盈盈 范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009272419A priority Critical patent/JP2011113527A/en
Publication of JP2011113527A publication Critical patent/JP2011113527A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow estimation of depth of higher accuracy. <P>SOLUTION: A super-resolution processing unit 104 of an image processing apparatus 110 converts image data of objects that are acquired by multiple image acquisition devices 102 into high-resolution image data. A depth calculation unit 108 of the image processing apparatus 110 calculates the information on the depth of the objects, based on the high-resolution image data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、複数の撮像装置によって撮影される被写体の奥行き情報を算出するための技術に関するものである。   The present invention relates to a technique for calculating depth information of a subject photographed by a plurality of imaging devices.

画像認識における特徴抽出や、柔軟且つ効率よく映像を合成、製作、加工、編集するための映像部品データベースの構築においては、撮影された画像データから被写体の奥行き情報を抽出することが行われる。被写体の奥行き情報を得るための方法としては、2つのカメラを平行に配置したステレオマッチング法がよく知られている。   In feature extraction in image recognition and construction of a video component database for synthesizing, producing, processing, and editing video in a flexible and efficient manner, the depth information of the subject is extracted from the captured image data. As a method for obtaining depth information of a subject, a stereo matching method in which two cameras are arranged in parallel is well known.

ここで、図20を用いてステレオマッチング法について簡単に説明する。図20において、1601は被写体であって、1602は被写体1601上にある一点である。被写体表面は波の形になっている。ステレオマッチング法を用いる2台のカメラは全く性能が同じカメラである。カメラは、光学中心を通る光線で投影面への結像を実現する。図20では、1603、1604は左右カメラの光学中心である。1612、1613は左右カメラの投影面である。左の投影面中心を座標原点とする直交座標系は(u,v)である。光学中心と投影面座標原点と連接するラインは投影面に対して垂直に交わっており、その間の距離は焦点距離fである。右の投影面中心を座標原点とする直交座標系は(u´,v´)である。三次元空間の被写体1601上の座標(X,Y,Z)は両カメラの光学中心と連接し、投影面との接点は左右ステレオ画像上の画素になる。図20の1606、1607は左右投影面との接点を示している。1606の座標は(ux,vy)である。1607の座標は(ux´,vy´)である。1611と1609は左右投影面上のライン1610、1608を拡大した画素配列である。両カメラの光学中心を連接したラインは基線と呼ばれ、bはその基線の長さである基線長1605である。被写体1601上の座標(X,Y,Z)は左のカメラ座標系を基準にしている。被写体1601の奥行き値はZとする。Zについて下記の式を用いてステレオマッチング法により計算する。なお、特許文献1には、複数の撮像装置で撮像した画像データを超解像画像データに変換して仮想視点画像データを生成する技術が開示されている。 Here, the stereo matching method will be briefly described with reference to FIG. In FIG. 20, reference numeral 1601 denotes a subject, and reference numeral 1602 denotes a point on the subject 1601. The subject surface has a wave shape. Two cameras using the stereo matching method are the same performance. The camera realizes image formation on the projection surface with light rays passing through the optical center. In FIG. 20, 1603 and 1604 are the optical centers of the left and right cameras. Reference numerals 1612 and 1613 denote the projection surfaces of the left and right cameras. The orthogonal coordinate system with the left projection plane center as the coordinate origin is (u, v). The line connecting the optical center and the projection plane coordinate origin intersects perpendicularly to the projection plane, and the distance between them is the focal length f. An orthogonal coordinate system with the right projection plane center as the coordinate origin is (u ′, v ′). The coordinates (X, Y, Z) on the subject 1601 in the three-dimensional space are connected to the optical center of both cameras, and the contact point with the projection plane is a pixel on the left and right stereo images. Reference numerals 1606 and 1607 in FIG. 20 indicate contact points with the left and right projection planes. The coordinates of 1606 are (u x , v y ). The coordinates of 1607 are (u x ′, v y ′). Reference numerals 1611 and 1609 denote pixel arrays obtained by enlarging lines 1610 and 1608 on the left and right projection planes. A line connecting the optical centers of both cameras is called a base line, and b is a base line length 1605 that is the length of the base line. The coordinates (X, Y, Z) on the subject 1601 are based on the left camera coordinate system. The depth value of the subject 1601 is Z. Z is calculated by the stereo matching method using the following equation. Patent Document 1 discloses a technique for generating virtual viewpoint image data by converting image data captured by a plurality of imaging devices into super-resolution image data.

Figure 2011113527
Figure 2011113527

特開2006−119843号公報JP 2006-119843 A

しかしながら、カメラ、又はビデオカメラ等で取得した画像データはセンササイズの制限等により十分な解像度で表現できない場合がある。画素数が不足すると、ステレオマッチング法による奥行き推定精度が高くても、密で且つシャープな奥行き情報を得ることができない。   However, there are cases where image data acquired by a camera, a video camera, or the like cannot be expressed with a sufficient resolution due to a sensor size limitation or the like. If the number of pixels is insufficient, dense and sharp depth information cannot be obtained even if the depth estimation accuracy by the stereo matching method is high.

図21、図22を用いて上記の課題について詳しく説明する。図21は、拡大表示された画素配列(図20の1611、1609)と撮影対象の対応関係を示す図である。図21の1701は被写体1601の断面図である。1611は左カメラの投影面上にある1ラインの一部であり、左カメラで撮影された画像データを奥行き推定時の基準画像データとして扱う。1609は右カメラの投影面上にある1ラインの一部である。撮影対象に含まれる点A、B、C、Dは基準画像データにある画素a1、b1、c1、d1と、右カメラの投影面上の画素a2、b2、c2、d2とにそれぞれに対応している。画素a1、b1、c1、d1は基準画像データ上に連続して並んでいる画素である。画素a2、b2、c2、d2は右カメラの投影面上にあって、基準画像データ上の画素a1、b1、c1、d1に対応する画素である。画素a2、b2、c2、d2は、右カメラの投影面の1ライン上に配置されるが、必ずしも連続的に配置されるわけではない。1702は上記式1を用いて得られる点A、B、C、Dの奥行き値Zの結果を示している。横軸は点A、B、C、Dの画素位置である。縦軸は奥行き値を示している。画像解像度の制限により、被写体上にある点A、B、C、Dの間の奥行き変化を正確に表現できていないことが確認できる。   The above problem will be described in detail with reference to FIGS. FIG. 21 is a diagram illustrating a correspondence relationship between an enlarged pixel array (1611 and 1609 in FIG. 20) and an imaging target. Reference numeral 1701 in FIG. 21 is a cross-sectional view of the subject 1601. Reference numeral 1611 denotes a part of one line on the projection surface of the left camera, and image data captured by the left camera is handled as reference image data at the time of depth estimation. Reference numeral 1609 denotes a part of one line on the projection plane of the right camera. The points A, B, C, and D included in the imaging target correspond to the pixels a1, b1, c1, and d1 in the reference image data and the pixels a2, b2, c2, and d2 on the right camera projection plane, respectively. ing. Pixels a1, b1, c1, and d1 are pixels arranged continuously on the reference image data. Pixels a2, b2, c2, and d2 are pixels corresponding to the pixels a1, b1, c1, and d1 on the reference image data on the projection plane of the right camera. The pixels a2, b2, c2, and d2 are arranged on one line on the projection plane of the right camera, but are not necessarily arranged continuously. 1702 shows the result of the depth value Z of points A, B, C, and D obtained using the above equation 1. The horizontal axis represents the pixel positions of points A, B, C, and D. The vertical axis represents the depth value. It can be confirmed that the change in depth between the points A, B, C, and D on the subject cannot be accurately expressed due to the limitation of the image resolution.

図22は、同じく図20の画素1611、1609と被写体1801上の点との対応関係を示す図である。図21と相違する点は、左右カメラの投影面における1ライン上の画素数が増加した点である。図22にある1801は被写体1601の断面図である。1611は基準画像データ上にある1ラインの一部である。撮影対象に含まれる点A、E、B、F、C、G、Dは基準画像データ上にある画素a1、e1、b1、f1、c1、g1、d1と、右カメラの投影面上にある画素a2、e2、b2、f2、c2、g2、d2にそれぞれ対応している。被写体1801上の点E、F、Gはそれぞれ点A、B、C、Dの間に位置する点である。画素a1、e1、b1、f1、c1、g1、d1は基準画像データ上に連続して並んでいる画素である。画素a2、e2、b2、f2、c2、g2、d2は右カメラの投影面上にあって、基準画像データ上の画素a1、e1、b1、f1、c1、g1、d1に対応する画素である。画素a2、e2、b2、f2、c2、g2、d2は、投影面の1ライン上に配置されるが、必ずしも連続的に配置されるわけではない。1802は上記式1を用いて得られる画素A、E、B、F、C、G、Dの奥行き値Zの結果を示している。横軸は点A、E、B、F、C、G、Dに対応する画素位置である。縦軸は奥行き値を示している。取得する画像データの画素数が増えた結果、図21で説明した低画素数の画像データからの奥行き値計算では獲得できなかった点E、F、Gの奥行き値を正確に得ることができ、点A〜Dの間の奥行き変化を表現できるようになる。   FIG. 22 is a diagram showing the correspondence between the pixels 1611 and 1609 in FIG. 20 and points on the subject 1801. The difference from FIG. 21 is that the number of pixels on one line on the projection surfaces of the left and right cameras has increased. 22 is a cross-sectional view of the subject 1601. Reference numeral 1611 denotes a part of one line on the reference image data. The points A, E, B, F, C, G, and D included in the imaging target are on the projection plane of the right camera and the pixels a1, e1, b1, f1, c1, g1, and d1 on the reference image data. These correspond to the pixels a2, e2, b2, f2, c2, g2, and d2, respectively. Points E, F, and G on the subject 1801 are points located between points A, B, C, and D, respectively. Pixels a1, e1, b1, f1, c1, g1, and d1 are pixels arranged continuously on the reference image data. Pixels a2, e2, b2, f2, c2, g2, and d2 are pixels corresponding to the pixels a1, e1, b1, f1, c1, g1, and d1 on the reference image data on the projection plane of the right camera. . The pixels a2, e2, b2, f2, c2, g2, and d2 are arranged on one line of the projection plane, but are not necessarily arranged continuously. Reference numeral 1802 indicates the result of the depth value Z of the pixels A, E, B, F, C, G, and D obtained using the above equation 1. The horizontal axis represents pixel positions corresponding to points A, E, B, F, C, G, and D. The vertical axis represents the depth value. As a result of the increase in the number of pixels of the image data to be acquired, it is possible to accurately obtain the depth values of the points E, F, and G that could not be obtained by the depth value calculation from the image data of the low pixel number described in FIG. The depth change between the points A to D can be expressed.

このように、奥行き値の取得数を増加させる手段として、撮像系のセンサ素子の微小化によって、画像データの解像度を向上させることが挙げられる。しかしながら、センサ素子の高密度化は製造コストの向上に直結する。更に、撮像素子を小さくすると、1個の撮像素子が受光できる光量が減少し、画像データ上に印加されるノイズ量が増加する問題点がある。   As described above, as a means for increasing the number of acquired depth values, the resolution of image data can be improved by miniaturizing the sensor elements of the imaging system. However, increasing the density of the sensor element directly leads to an increase in manufacturing cost. Furthermore, when the image sensor is made smaller, the amount of light that can be received by one image sensor decreases, and there is a problem that the amount of noise applied to the image data increases.

そこで、本発明の目的は、より高精度な奥行き推定を可能とすることにある。   Accordingly, an object of the present invention is to enable more accurate depth estimation.

本発明の画像処理装置は、複数の撮像手段より取得される被写体の画像データを高解像画像データに変換する変換手段と、前記変換手段により生成された高解像画像データに基づいて、前記被写体の奥行き情報を算出する第1の算出手段とを有することを特徴とする。   The image processing apparatus according to the present invention is based on a conversion unit that converts image data of a subject acquired from a plurality of imaging units into high-resolution image data, and the high-resolution image data generated by the conversion unit. And a first calculating unit that calculates depth information of the subject.

本発明においては、複数の撮像手段より取得される被写体の画像データを高解像画像データに変換し、変換された高解像画像データに基づいて被写体の奥行き情報を算出するようにしている。従って、本発明によれば、より高精度な奥行き推定が可能となる。   In the present invention, subject image data acquired from a plurality of imaging means is converted into high-resolution image data, and subject depth information is calculated based on the converted high-resolution image data. Therefore, according to the present invention, it is possible to estimate the depth with higher accuracy.

本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. 図1の超解像処理ユニットの詳細を示すブロック図である。It is a block diagram which shows the detail of the super-resolution processing unit of FIG. 図1の画像取得装置の劣化モデルを示す図である。It is a figure which shows the deterioration model of the image acquisition apparatus of FIG. HR画像データとHR画像データを表す行列Xとの関係を示す図である。It is a figure which shows the relationship between HR image data and the matrix X showing HR image data. 光学系劣化処理を行う正方形行列Bの構成を示す図である。It is a figure which shows the structure of the square matrix B which performs an optical system degradation process. ダウンサンプリング処理の画像縮小の倍率を反映した行列Dの構成を示す図である。It is a figure which shows the structure of the matrix D reflecting the magnification of the image reduction of a downsampling process. 図1に示す超解像処理ユニットの処理を示すフローチャートである。It is a flowchart which shows the process of the super-resolution processing unit shown in FIG. ステレオ撮影によりカメラの配置と撮影された画像データを示す図である。It is a figure which shows the arrangement | positioning of a camera and the image data image | photographed by stereo imaging | photography. 図8に示した対応点の対応付け方法を説明するための図である。It is a figure for demonstrating the matching method of the corresponding point shown in FIG. 奥行き計算処理を示すフローチャートである。It is a flowchart which shows a depth calculation process. 本発明の第2の実施形態における図1の超解像処理ユニットの詳細を示すブロック図である。It is a block diagram which shows the detail of the super-resolution processing unit of FIG. 1 in the 2nd Embodiment of this invention. 図1の画像取得装置の劣化モデルを示す図である。It is a figure which shows the deterioration model of the image acquisition apparatus of FIG. ステレオ画像について左右画像データを複数枚ずつ取得する場合、画像データ間の位置関係を示す図である。FIG. 5 is a diagram illustrating a positional relationship between image data when a plurality of left and right image data are acquired for a stereo image. 図11の超解像処理ユニットの処理を示すフローチャートである。It is a flowchart which shows the process of the super-resolution processing unit of FIG. 図19に示した行列Mkの構成を示す図である。FIG. 20 is a diagram illustrating a configuration of a matrix M k illustrated in FIG. 19. 式3に記載される各行列サイズを示す図である。It is a figure which shows each matrix size described in Formula 3. 式1に示すX、Y、D、Bの行列サイズを示す図である。It is a figure which shows the matrix size of X, Y, D, and B shown in Formula 1. 式10に記載される各行列サイズを示す図である。It is a figure which shows each matrix size described in Formula 10. FIG. 式10に記載されるX、Yk、D、B、Mkの行列サイズを示す図である。Shows X described Equation 10, Y k, D, B , a matrix size of M k. ステレオマッチング法について説明するための図である。It is a figure for demonstrating the stereo matching method. 拡大表示された画素配列と撮影対象の対応関係を示す図である。It is a figure which shows the correspondence of the pixel arrangement | sequence displayed by magnification and imaging | photography object. 図20の画素と被写体上の点との対応関係を示す図である。It is a figure which shows the correspondence of the pixel of FIG. 20, and the point on a to-be-photographed object.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。110は、本実施形態に係る画像処理装置であり、画像取得装置(撮像手段)102で撮像された被写体の画像データが入力され、被写体までの奥行き情報マップを出力する。画像取得装置102は複数のカメラ(カメラ1、カメラ2)から構成されるステレオカメラである。画像取得装置102で取得された複数の画像データはメモリ103に一時的に格納される。メモリ103で記憶された複数の画像データは超解像処理ユニット104に入力され、高解像画像データが作成される。また、高解像画像データの生成に必要となる画像取得装置102の劣化条件が劣化条件入力部105から超解像度処理ユニット104に入力される。本実施形態で扱う劣化条件には光学的な劣化を表すPoint Spread Function(PSF、点拡がり関数)とダウンサンプリング処理とがある。ダウンサンプリング処理は、限られた画素数に被写体が収まるように画像データの変換を行う処理である。また、閾値が閾値入力部106より超解像処理ユニット104に入力される。ステレオマッチング部107は、超解像処理ユニット104によって生成された高解像画像データに基づいて、複数の高解像画像データ間の特徴点の対応付けを行い、奥行き計算ユニット108に出力する。奥行き計算ユニット108は奥行き情報マップを算出する。求められた奥行き情報マップは情報出力端子109から出力される。奥行き情報マップとは、撮影された画像データの全ての画素位置における奥行き値が格納されたデータ群や、その奥行き値を利用して作り上げる濃淡画像等である。111はインタフェースである。奥行き情報マップと超解像処理ユニット104で生成された高解像画像データは、インタフェース111を介してメモリカード112に保存される。なお、超解像処理ユニット104は本発明の変換手段の適用例となる構成であり、奥行き計算ユニット108は本発明の第1の算出手段の適用例となる構成である。   First, a first embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention. Reference numeral 110 denotes an image processing apparatus according to the present embodiment, which receives image data of a subject imaged by the image acquisition device (imaging means) 102 and outputs a depth information map to the subject. The image acquisition device 102 is a stereo camera including a plurality of cameras (camera 1 and camera 2). A plurality of image data acquired by the image acquisition device 102 is temporarily stored in the memory 103. The plurality of image data stored in the memory 103 is input to the super-resolution processing unit 104, and high-resolution image data is created. In addition, deterioration conditions of the image acquisition apparatus 102 necessary for generating high-resolution image data are input from the deterioration condition input unit 105 to the super-resolution processing unit 104. Degradation conditions handled in this embodiment include a point spread function (PSF) representing optical degradation and a downsampling process. The downsampling process is a process of converting image data so that the subject can be accommodated in a limited number of pixels. In addition, the threshold value is input to the super-resolution processing unit 104 from the threshold value input unit 106. The stereo matching unit 107 associates feature points between a plurality of high-resolution image data based on the high-resolution image data generated by the super-resolution processing unit 104, and outputs the feature points to the depth calculation unit. The depth calculation unit 108 calculates a depth information map. The obtained depth information map is output from the information output terminal 109. The depth information map is a data group in which depth values at all pixel positions of captured image data are stored, a grayscale image created using the depth values, and the like. Reference numeral 111 denotes an interface. The depth information map and the high resolution image data generated by the super resolution processing unit 104 are stored in the memory card 112 via the interface 111. The super-resolution processing unit 104 is a configuration that is an application example of the conversion unit of the present invention, and the depth calculation unit 108 is a configuration that is an application example of the first calculation unit of the present invention.

図2は、図1の超解像処理ユニット104の詳細を示すブロック図である。以下では、高解像(High Resolution)画像データをHR画像データと、低解像(Low Resolution)画像データをLR画像データと略称する。図2において、画像入力端子201から画像取得装置102で得られた画像データが超解像処理ユニット104に入力される。本実施形態で扱う画像入力端子201から入力される画像データは8ビットのグレイスケール画像データとする。初期HR画像作成部202は、入力された画像データを用いてHR画像データの初期値を作成する。本実施形態では、線形補間手法を使用してHR画像データの初期値を生成する。HR画像生成部205は、後述するMaximum A Posterior(MAP)推定法によって計算される修正量をHR画像データに加えることによりHR画像データを更新する。LR画像作成部206は、劣化条件入力端子209から与えられる劣化条件に従ってHR画像データを劣化させ、LR画像データを生成する。劣化条件は、撮影用カメラの光学系の劣化PSFとセンサ画素数の制限による劣化過程のダウンサンプリングである。本実施形態で扱うダウンサンプリングの劣化条件は、ダウンサンプリング時の縮小倍率(1/M,1/N)で与えられる。尚、M、Nは自然数であるとする。これらの劣化条件は超解像処理に先立って計測されるデータ、あるいは、既知のデータであるとする。差分演算部210は、画像入力端子201から入力された画像データとLR画像作成部206で作成されたLR画像データとの差分演算を実施する。ここでは、画像入力端子201から入力された画像データとLR画像データとの差分の平均値を計算する。終了判定部207は、当該差分の平均値を用いて、HR画像データの生成が十分に実施されたかどうかを判定する。判定に用いられる閾値は閾値入力端子208により与えられ、0から255までの任意の値とする。終了判定部207は差分演算部210の演算結果と閾値とを比較することにより、HR画像データの生成が十分に実施されたかどうかを判定する。差分演算部210の演算結果が閾値以下の場合、終了判定部207は0を出力する。一方、差分演算部210の演算結果が閾値より大きい場合、終了判定部207は1を出力する。また、差分演算部210の演算結果は修正量計算部204にも入力される。   FIG. 2 is a block diagram showing details of the super-resolution processing unit 104 of FIG. In the following, high resolution image data is abbreviated as HR image data, and low resolution image data is abbreviated as LR image data. In FIG. 2, image data obtained by the image acquisition device 102 from the image input terminal 201 is input to the super-resolution processing unit 104. The image data input from the image input terminal 201 handled in the present embodiment is 8-bit grayscale image data. The initial HR image creation unit 202 creates an initial value of HR image data using the input image data. In this embodiment, an initial value of HR image data is generated using a linear interpolation method. The HR image generation unit 205 updates the HR image data by adding a correction amount calculated by a Maximum A Posterior (MAP) estimation method described later to the HR image data. The LR image creation unit 206 degrades the HR image data according to the degradation condition given from the degradation condition input terminal 209, and generates LR image data. The deterioration condition is downsampling of the deterioration process due to the deterioration PSF of the optical system of the photographing camera and the limitation of the number of sensor pixels. The downsampling degradation condition handled in this embodiment is given by the reduction ratio (1 / M, 1 / N) at the time of downsampling. Note that M and N are natural numbers. These deterioration conditions are assumed to be data measured prior to super-resolution processing or known data. The difference calculation unit 210 performs a difference calculation between the image data input from the image input terminal 201 and the LR image data generated by the LR image generation unit 206. Here, the average value of the difference between the image data input from the image input terminal 201 and the LR image data is calculated. The end determination unit 207 determines whether the generation of the HR image data has been sufficiently performed using the average value of the differences. The threshold value used for the determination is given by the threshold value input terminal 208 and is an arbitrary value from 0 to 255. The end determination unit 207 determines whether or not the generation of the HR image data has been sufficiently performed by comparing the calculation result of the difference calculation unit 210 with the threshold value. When the calculation result of the difference calculation unit 210 is equal to or less than the threshold value, the end determination unit 207 outputs 0. On the other hand, when the calculation result of the difference calculation unit 210 is larger than the threshold value, the end determination unit 207 outputs 1. The calculation result of the difference calculation unit 210 is also input to the correction amount calculation unit 204.

終了判定部207から1が出力された場合、修正計算部204は修正量を計算し、出力する。一方、終了判定部207から0が出力された場合、修正計算部204は修正量0を出力する。HR画像作成部205は、修正量計算部204から出力された修正量に基づいてHR画像データを更新する。具体的には、修正量計算部204から得た修正量をHR画像データに加算することでHR画像データを更新する。なお、修正量計算の詳細については後述する。修正量計算部204により計算された修正量が0である場合、HR画像生成部205は既に生成しているHR画像データをそのままHR画像出力端子203から出力する。一方、修正量計算部204により計算された修正量が0ではない場合、HR画像生成部205は既に生成しているHR画像データに修正量を加算して更新し、LR画像作成部206による処理に進む。その後、差分演算部210の演算結果が閾値以下となると、HR画像出力端子203よりHR画像データが出力され、HR画像データの生成が完了する。なお、HR画像作成部205は本発明の第1の生成手段の適用例となる構成である。また、LR画像作成部206は第2の生成手段の適用例となる構成である。また、差分演算部210は第2の算出手段の適用例となる構成である。修正量計算部204は本発明の第3の算出手段の適用例となる構成である。   When 1 is output from the end determination unit 207, the correction calculation unit 204 calculates the correction amount and outputs it. On the other hand, when 0 is output from the end determination unit 207, the correction calculation unit 204 outputs the correction amount 0. The HR image creation unit 205 updates the HR image data based on the correction amount output from the correction amount calculation unit 204. Specifically, the HR image data is updated by adding the correction amount obtained from the correction amount calculation unit 204 to the HR image data. Details of the correction amount calculation will be described later. When the correction amount calculated by the correction amount calculation unit 204 is 0, the HR image generation unit 205 outputs the already generated HR image data from the HR image output terminal 203 as it is. On the other hand, when the correction amount calculated by the correction amount calculation unit 204 is not 0, the HR image generation unit 205 updates the HR image data that has already been generated by adding the correction amount, and processing by the LR image generation unit 206 is performed. Proceed to Thereafter, when the calculation result of the difference calculation unit 210 is equal to or less than the threshold value, the HR image data is output from the HR image output terminal 203, and the generation of the HR image data is completed. Note that the HR image creation unit 205 is an application example of the first generation unit of the present invention. The LR image creation unit 206 is a configuration that is an application example of the second generation unit. Moreover, the difference calculation part 210 is a structure used as the application example of a 2nd calculation means. The correction amount calculation unit 204 is configured as an application example of the third calculation unit of the present invention.

図3は、図1の画像取得装置102の劣化モデルを示す図であり、本実施形態における撮像系の劣化過程を線形モデルで表している。図3において、301は劣化過程前のHR画像データを示している。302は光学系PSFによる劣化過程である光学系処理を示している。303はダウンサンプリングを行うセンサ処理を示している。ダウンサンプリング劣化条件は画像縮小の倍率として提供される。304は劣化過程後のカメラで撮影した画像データを示している。光学PSFの劣化は(2C+1,2C+1)のサイズの線形フィルタFとする。なお、Cは自然数である。本実施形態で扱うPSF劣化された画像データYPSFは、コンボリューション演算により以下の式2にて表現できる。i、jは2次元画像データX、YPSFの画素位置である。 FIG. 3 is a diagram illustrating a deterioration model of the image acquisition device 102 in FIG. 1, and represents a deterioration process of the imaging system in the present embodiment by a linear model. In FIG. 3, reference numeral 301 denotes HR image data before the deterioration process. Reference numeral 302 denotes an optical system process which is a deterioration process by the optical system PSF. Reference numeral 303 denotes sensor processing for downsampling. The downsampling degradation condition is provided as a magnification of image reduction. Reference numeral 304 denotes image data taken by the camera after the deterioration process. Degradation of the optical PSF is assumed to be a linear filter F having a size of (2C + 1, 2C + 1). C is a natural number. The PSF-degraded image data Y PSF handled in the present embodiment can be expressed by Equation 2 below by convolution calculation. i and j are pixel positions of the two-dimensional image data X and Y PSF .

Figure 2011113527
Figure 2011113527

後述する超解像処理で扱う都合上、式2のコンボリューション演算は式3で定義される線形演算の形式に変更する。式2から式3への変換方法については後述する。線形演算の形式によるとカメラの劣化モデルは、以下の式3で表示できる。   For the convenience of handling in the super-resolution processing described later, the convolution operation of Equation 2 is changed to the linear operation format defined by Equation 3. A conversion method from Equation 2 to Equation 3 will be described later. According to the linear calculation format, the deterioration model of the camera can be expressed by the following Expression 3.

Figure 2011113527
Figure 2011113527

Xは元となるHR画像データを表すベクトルである。Yは撮影された画像データ(LR画像データ)である。行列Bは光学系劣化処理を行う正方形行列である。行列Dはダウンサンプリング処理の画像縮小の倍率を反映した行列である。行列Bと行列Dのサイズは入力画像サイズによって変化する。入力画像サイズをW(横画素数)、H(縦画素数)とする。ダウンサンプリング条件は画像縮小の倍率を1/M、1/Nとする。その場合、式3に記載した各行列サイズは図16の通りとなる。   X is a vector representing the original HR image data. Y is taken image data (LR image data). The matrix B is a square matrix that performs optical system deterioration processing. The matrix D is a matrix reflecting the image reduction magnification of the downsampling process. The sizes of the matrix B and the matrix D vary depending on the input image size. Let the input image size be W (number of horizontal pixels) and H (number of vertical pixels). The downsampling condition is that the image reduction magnification is 1 / M and 1 / N. In that case, each matrix size described in Equation 3 is as shown in FIG.

図16に示す行列X、行列B及び行列Dの構成を図4、図5及び図6を用いて説明する。図4は、HR画像データと行列Xとの関係を示している。HR画像データの横と縦のサイズはWとHとする。図4(a)はHR画像データを示しており、(i,j)はHR画像データの画素番号である。図4(b)は横から縦へと画素データを一列の行列Xを作成したものである。   The configurations of the matrix X, the matrix B, and the matrix D illustrated in FIG. 16 will be described with reference to FIGS. 4, 5, and 6. FIG. 4 shows the relationship between the HR image data and the matrix X. The horizontal and vertical sizes of the HR image data are W and H. FIG. 4A shows HR image data, and (i, j) is a pixel number of the HR image data. FIG. 4B shows a matrix X in which pixel data is arranged in one column from horizontal to vertical.

図5は、行列Bの構成を示す図である。線形フィルタのサイズは(2N+1,2N+1)になっており、式2を示したように全ての画素について線形フィルタと積和する。図5に示したように、画素(i,j)が線形フィルタの中心にある場合、行列i×j行目にフィルタの値を行列の対応する位置に値を代入する。代入される以外のところは0を代入する。   FIG. 5 is a diagram illustrating the configuration of the matrix B. The size of the linear filter is (2N + 1, 2N + 1), and the product is summed with the linear filter for all pixels as shown in Equation 2. As shown in FIG. 5, when the pixel (i, j) is at the center of the linear filter, the value of the filter is substituted into the corresponding position of the matrix in the matrix i × j row. A value other than 0 is substituted with 0.

図6は、行列Dの構成を示す図である。行列Dの作用は、縮小サイズを用いて、画像の画素位置は間引いて画素値を取得するための行列である。行列の値について、画素値が存在する位置に1を代入し、その他の位置には0を代入する。ここで具体的な例を一つ挙げる。サイズ1024×1024の画像データをHR画像データとして、ダウンサンプリング条件による縮小倍率は1/2、1/2とする。そうすると、撮影される画像データのサイズは512×512になる。上記式1に示すX、Y、D、Bの行列サイズを図17に示す。   FIG. 6 is a diagram illustrating the configuration of the matrix D. The function of the matrix D is a matrix for obtaining pixel values by using the reduced size and thinning out the pixel positions of the image. For the matrix value, 1 is substituted into the position where the pixel value exists, and 0 is substituted into the other positions. Here is one specific example. The image data of size 1024 × 1024 is assumed to be HR image data, and the reduction magnification according to the downsampling condition is 1/2 and 1/2. Then, the size of the image data to be shot is 512 × 512. FIG. 17 shows the matrix sizes of X, Y, D, and B shown in Equation 1 above.

本実施形態では、HR画像データはMAP法(Maximum A Posterior)を使用して求める。MAP法とは、二乗誤差にHR画像データの確率情報を付加した評価関数を最小化することで、HR画像データを推定する方法である。HR画像データに対するある事前情報を利用して、事後確率を最大化する最適化問題としてHR画像データを推定する超解像処理方法である。本実施形態では、下記式4を用いてHR画像データを生成する。なお、MAP法は、IEEE SIGNAL PROCESSING MAGAZINE 2003/03“Super-Resolution Image Reconstruction: A technical Overview”著者 Sung Cheol Park , Min Kyu Park and Moon Gi Kangに記載されている。   In the present embodiment, the HR image data is obtained using a MAP method (Maximum A Posterior). The MAP method is a method for estimating HR image data by minimizing an evaluation function obtained by adding probability information of HR image data to a square error. This is a super-resolution processing method that estimates HR image data as an optimization problem that maximizes the posterior probability by using certain prior information for the HR image data. In the present embodiment, HR image data is generated using the following Equation 4. The MAP method is described in IEEE Signal Processing MAGAZINE 2003/03 “Super-Resolution Image Reconstruction: A technical Overview” author Sung Cheol Park, Min Kyu Park and Moon Gi Kang.

Figure 2011113527
Figure 2011113527

右辺第一項は、隣接画素の画素値は類似した値を持つことが多いという事前情報を加味した拘束項である。右辺第一項によって画像データ全体に平滑化の効果がある。ラプラシアンフィルタを線形フィルタCとして使用する。αは右辺第一項の画像データにおける平滑化度合いを調整するパラメータである。平滑化度合いの高い画像データを得たい場合にはαの値を大きくすることが有効である。右辺第二項は、画像データと劣化過程を経て推定された画像データ(LR画像データ)との差分値を演算する項である。σは画像取得装置102で取得されたLR画像データYのノイズの標準偏差である。式4の右辺部を抽出し、超解像処理時の評価関数として用いる数式が式5である。   The first term on the right side is a constraint term that takes into account prior information that the pixel values of adjacent pixels often have similar values. The first term on the right side has the effect of smoothing the entire image data. A Laplacian filter is used as the linear filter C. α is a parameter for adjusting the degree of smoothing in the image data of the first term on the right side. Increasing the value of α is effective for obtaining image data with a high degree of smoothing. The second term on the right side is a term for calculating a difference value between the image data and the image data (LR image data) estimated through the deterioration process. σ is a standard deviation of noise of the LR image data Y acquired by the image acquisition device 102. Expression 5 is an expression that extracts the right side of Expression 4 and uses it as an evaluation function during super-resolution processing.

Figure 2011113527
Figure 2011113527

図7は、図1に示す超解像処理ユニット104の処理を示すフローチャートである。ステップS701において、初期HR画像作成部202は、画像入力端子201から画像データYを入力する。ステップS702において、LR画像作成部206は、劣化条件入力端子209からカメラの光学劣化条件である行列Bを入力する。ステップS703において、LR画像作成部206は、劣化条件入力端子209からカメラのダウンサンプリング行列Dを入力する。ステップS704において、初期HR画像作成部202は、HR画像データの初期値を生成する。ここで、HR画像データの初期値は線形補間により横サイズがM倍、縦サイズがN倍に拡大される。ステップS705において、終了判定部207は、超解像処理の達成度合いを判定する際に用いる閾値を閾値入力端子208から入力する。ステップS706において、LR画像作成部206は、初期HR画像作成部202又はHR画像作成部205によって作成されたHR画像データから光学劣化PSFとダウンサンプリングを加味したLR画像データを作成する。ここでは、式6を用いてLR画像データが生成される。   FIG. 7 is a flowchart showing processing of the super-resolution processing unit 104 shown in FIG. In step S <b> 701, the initial HR image creation unit 202 inputs image data Y from the image input terminal 201. In step S <b> 702, the LR image creation unit 206 inputs a matrix B that is an optical deterioration condition of the camera from the deterioration condition input terminal 209. In step S <b> 703, the LR image creation unit 206 inputs the camera downsampling matrix D from the deterioration condition input terminal 209. In step S704, the initial HR image creation unit 202 generates an initial value of HR image data. Here, the initial value of the HR image data is enlarged by M times the horizontal size and N times the vertical size by linear interpolation. In step S <b> 705, the end determination unit 207 inputs a threshold value used when determining the achievement level of the super-resolution processing from the threshold value input terminal 208. In step S <b> 706, the LR image creation unit 206 creates LR image data in consideration of optical degradation PSF and downsampling from the HR image data created by the initial HR image creation unit 202 or the HR image creation unit 205. Here, LR image data is generated using Equation 6.

Figure 2011113527
Figure 2011113527

ここで、i回目の演算で生成されたHR画像データをXiとする。ステップS707において、差分演算部210は、ステップS706で得られたLR画像データと画像入力端子201から入力された画像データとの全ての画素について差分を計算し、終了判定部207は、その差分の平均値と閾値とを比較する。差分の平均値が閾値以下の場合にはステップS711に進む。差分の平均値が閾値より大きければステップS708に進み、修正量計算部204はHR画像データの修正量を計算する更新項を求める。更新項の求め方は後述する。ステップS709において、HR画像作成部205はループ回数をカウントする。ステップS710において、HR画像作成部205はHR画像データにステップS708で計算された更新項の結果を加えてHR画像データを更新する。ステップS707において計算される差分の平均値が閾値以下となるまで、ステップS706〜S710の処理が繰り返し行われる。 Here, HR image data generated by the i-th calculation is X i . In step S707, the difference calculation unit 210 calculates differences for all the pixels of the LR image data obtained in step S706 and the image data input from the image input terminal 201, and the end determination unit 207 calculates the difference. The average value is compared with the threshold value. If the average value of the differences is less than or equal to the threshold value, the process proceeds to step S711. If the average value of the differences is larger than the threshold value, the process advances to step S708, and the correction amount calculation unit 204 obtains an update term for calculating the correction amount of the HR image data. The method for obtaining the update term will be described later. In step S709, the HR image creation unit 205 counts the number of loops. In step S710, the HR image creation unit 205 adds the result of the update term calculated in step S708 to the HR image data to update the HR image data. The processes in steps S706 to S710 are repeated until the average value of the differences calculated in step S707 is less than or equal to the threshold value.

なお、ステップS710においては、HR画像作成部205は、上記評価関数での評価結果を受けてHR画像データを更新する。本実施形態では最急降下法を用いてHR画像データを更新する。最急降下法は最小化したい関数の一次微分を使用した最適化手法である。最急降下法に必要となる更新項(関数の一次微分)は式7で表すことができる。   In step S710, the HR image creation unit 205 updates the HR image data in response to the evaluation result of the evaluation function. In the present embodiment, the HR image data is updated using the steepest descent method. The steepest descent method is an optimization method using the first derivative of the function to be minimized. The update term (first derivative of the function) required for the steepest descent method can be expressed by Equation 7.

Figure 2011113527
Figure 2011113527

図8は、ステレオ撮影によりカメラの配置と撮影された画像データを示す図である。図8において、2台のカメラA802とカメラB801のカメラ光軸は平行である。このような状態にあるカメラを平行カメラと呼ぶ。カメラA802で撮影された画像データは807である。カメラB801で撮影された画像データは806である。画像データ807は後述するステレオマッチング処理時の基準画像データとして扱う。画像データ806は参照画像データとして扱う。基準画像データ807にある点805は、参照画像データ806にある点804と対応している点である。   FIG. 8 is a diagram showing the arrangement of cameras and image data taken by stereo shooting. In FIG. 8, the camera optical axes of the two cameras A802 and B801 are parallel. A camera in such a state is called a parallel camera. The image data captured by the camera A 802 is 807. The image data captured by the camera B 801 is 806. The image data 807 is handled as reference image data at the time of stereo matching processing described later. Image data 806 is handled as reference image data. A point 805 in the standard image data 807 corresponds to a point 804 in the reference image data 806.

図9は、上記図8に示した対応点の対応付け方法を説明するための図である。本実施形態では、ステレオマッチング法を使用して対応点の算出を行う。ステレオマッチング法は、一方の画像データを基準画像データとし、その基準画像データの中にある画素に対し、同じ被写体上の点を他方の参照画像データ中から探索して、画素位置を算出する手法である。図9において、左の画像はステレオマッチング時の基準画像データである。右の画像は参照画像データである。図9において、902はステレオマッチングの演算時に使用するブロックである。ブロックの横縦サイズはnxn画素である。ここで、対象点の検出にnxn画素のブロックを用いる理由は、画素kの周囲画素のパターンの特徴と、参照画像対象点k´周囲画素のパターンの特徴との相関性を考慮して、好適な対応点の探索を達成するためである。平行ステレオの場合、基準画像データ上のある点の右画像上の対応点は基準画像データ上のある点と同じ高さの直線上に存在する。対応する直線上にある全ての画素位置において、ブロック902とブロック903で囲まれる画像領域内の相関を算出し、その相関が最大となる組合せを対応点とする。相関値は相関係数を用いる。最も高い相関係数を示す参照画像データのブロックの中心画素が画素kの対応点k´として検出される。   FIG. 9 is a diagram for explaining a method for associating corresponding points shown in FIG. In the present embodiment, the corresponding points are calculated using the stereo matching method. The stereo matching method uses one image data as reference image data, and calculates a pixel position by searching a point on the same subject from the other reference image data for a pixel in the reference image data. It is. In FIG. 9, the left image is reference image data at the time of stereo matching. The right image is reference image data. In FIG. 9, reference numeral 902 denotes a block used for stereo matching calculation. The horizontal and vertical size of the block is nxn pixels. Here, the reason why the block of nxn pixels is used for detection of the target point is preferable in consideration of the correlation between the pattern characteristics of the surrounding pixels of the pixel k and the pattern characteristics of the surrounding pixels of the reference image target point k ′. This is to achieve a search for a corresponding point. In the case of parallel stereo, a corresponding point on the right image of a certain point on the reference image data exists on a straight line having the same height as a certain point on the reference image data. At all pixel positions on the corresponding straight line, the correlation in the image region surrounded by the block 902 and the block 903 is calculated, and the combination that maximizes the correlation is set as the corresponding point. The correlation value uses a correlation coefficient. The central pixel of the block of reference image data showing the highest correlation coefficient is detected as the corresponding point k ′ of the pixel k.

図10は、奥行き計算処理を示すフローチャートである。基準画像データと参照画像データとの対応点の探索は前述のステレオマッチング法を採用する。図10において、ステップS1001からステップS1006まで基準画像データの全ての画素について、参照画像データ上の対応点を探す。ステップS1002にて、ステレオマッチング部107は、左右ステレオ画像である基準画像データと参照画像データにおいてnxn画素ブロック単位での相関係数を求める。ステップS1003にて、ステレオマッチング部107は、計算された相関係数が最大となる参照画像データ上の対応画素位置を求める。基準画像データ上の画素位置を(xi,yi)、参照画像データ上の対応画素位置を(xr,yr)とすると、両画素間での視差は|xi−xr|で表現できる。ステップS1004において、奥行き計算ユニット108は視差情報を求める。ステップS1005において、奥行き計算ユニット108は、奥行き値を計算する。奥行き値Zは、上記視差|xi−xr|、両カメラ間の距離b及びカメラの焦点距離fにより式8で求められる。 FIG. 10 is a flowchart showing the depth calculation process. The search for corresponding points between the reference image data and the reference image data employs the stereo matching method described above. In FIG. 10, corresponding points on the reference image data are searched for all the pixels of the standard image data from step S1001 to step S1006. In step S1002, the stereo matching unit 107 obtains a correlation coefficient in units of nxn pixel blocks in the standard image data and reference image data that are left and right stereo images. In step S1003, the stereo matching unit 107 obtains a corresponding pixel position on the reference image data that maximizes the calculated correlation coefficient. When the pixel position on the reference image data is (x i , y i ) and the corresponding pixel position on the reference image data is (x r , y r ), the parallax between both pixels is | x i −x r | Can express. In step S1004, the depth calculation unit 108 obtains parallax information. In step S1005, the depth calculation unit 108 calculates a depth value. The depth value Z is obtained by Expression 8 using the parallax | x i −x r |, the distance b between the two cameras, and the focal length f of the camera.

Figure 2011113527
Figure 2011113527

本実施形態では、MAP法を用いて画像データに対して超解像処理を実施していたが、その他のソフトウェア処理によって画像データの解像度を向上させても差し支えない。例えば、補間処理を行った後にエッジ強調する処理でも構わない。また、本実施形態で扱う画像データはグレイスケール画像データとして説明したが、カラーRGB画像データでも差し支えない。カラーRGB画像データを使用する場合には、任意の1チャンネルを使用して奥行き推定を行っても構わないし、RGB情報から輝度、明度情報に変換した後、奥行き推定を行っても構わない。   In this embodiment, the super-resolution processing is performed on the image data using the MAP method. However, the resolution of the image data may be improved by other software processing. For example, edge enhancement may be performed after interpolation processing. Further, the image data handled in the present embodiment has been described as grayscale image data, but color RGB image data may be used. When color RGB image data is used, depth estimation may be performed using an arbitrary channel, or depth estimation may be performed after converting RGB information into luminance and brightness information.

以上説明したように、本発明の第1の実施形態によれば、ステレオカメラで撮影した左右2枚の画像データから生成されたHR画像データを用いて奥行き値(奥行き情報マップ)を取得するようにしている。従って、空間的に情報量の多い奥行き値(奥行き情報マップ)を得ることが可能である。   As described above, according to the first embodiment of the present invention, the depth value (depth information map) is acquired using the HR image data generated from the left and right image data captured by the stereo camera. I have to. Therefore, it is possible to obtain a depth value (depth information map) having a large amount of information spatially.

次に本発明の第2の実施形態について説明する。上述した第1の実施形態においては、ステレオカメラで撮影した左右2枚の画像データからHR画像データを生成した後、被写体の奥行き値の推定を実施していた。これに対し、第2の実施形態では、各撮像装置から取得される複数の画像データから1枚のHR画像データを生成し、該HR画像データを用いて奥行き値を取得する。ステレオマッチングに用いるHR画像データは複数枚の画像データから構成されることから、情報量の多い、すなわち解像度の高い画像データとなり、より高精度な奥行き値の推定が可能となる。以下、第1の実施形態と異なる点である、複数枚の画像データから1枚のHR画像データを生成する部分についてのみ説明する。   Next, a second embodiment of the present invention will be described. In the first embodiment described above, the HR image data is generated from the left and right image data captured by the stereo camera, and then the depth value of the subject is estimated. On the other hand, in the second embodiment, one HR image data is generated from a plurality of image data acquired from each imaging device, and a depth value is acquired using the HR image data. Since the HR image data used for stereo matching is composed of a plurality of pieces of image data, the image data has a large amount of information, that is, high resolution, and depth values can be estimated with higher accuracy. Hereinafter, only a part that is different from the first embodiment and generates one piece of HR image data from a plurality of pieces of image data will be described.

図11は、第2の実施形態における図1の超解像処理ユニット104の詳細を示すブロック図である。図11において、画像入力端子1101からN枚の画像データが入力される。Nは2以上の整数である。本実施形態で扱う画像データは8ビットのグレイスケール画像データとする。初期HR画像作成部1102において、入力された画像データを用いてHR画像データの初期値を作成する。本実施形態では、線形補間手法を使用してHR画像データの初期値を作成する。図11において、1105はHR画像生成部である。ここでは、前述のMAP推定法によって計算される修正量をHR画像データに加えることによりHR画像データを更新する。1106はLR画像作成部であり、劣化条件入力端子1109から与えられる劣化条件に従ってHR画像データを劣化させ、LR画像データを生成する。劣化条件は撮影用カメラの光学系の劣化PSFとセンサ画素数の制限による劣化過程であるダウンサンプリングである。本実施形態では扱うダウンサンプリングの劣化条件は、ダウンサンプリング時の縮小倍率(1/M,1/N)で与えられる。なお、M、Nは自然数であるとする。更に、劣化条件入力端子1109から複数枚の画像データ間の位置ずれを示す情報が入力される。本実施形態では水平、垂直方向の位置ずれを扱う。取得されるN枚の画像データのうち、1枚目の画像データを基準画像データとし、基準画像データからの相対移動量を位置ずれの情報とする。基準画像データの中央画像位置を原点と定め、原点に対する水平、垂直の位置ずれ量(Δxk,Δyk)を算出する。なお、k=2、3、・・・、Nである。本実施形態では、基準画像データとのフレーム間マッチングにより位置ずれ量(Δxk,Δyk)を算出する。 FIG. 11 is a block diagram showing details of the super-resolution processing unit 104 of FIG. 1 in the second embodiment. In FIG. 11, N pieces of image data are input from an image input terminal 1101. N is an integer of 2 or more. The image data handled in this embodiment is 8-bit grayscale image data. An initial HR image creation unit 1102 creates an initial value of HR image data using the input image data. In this embodiment, an initial value of HR image data is created using a linear interpolation method. In FIG. 11, reference numeral 1105 denotes an HR image generation unit. Here, the HR image data is updated by adding the correction amount calculated by the MAP estimation method described above to the HR image data. Reference numeral 1106 denotes an LR image creation unit that degrades HR image data in accordance with a degradation condition given from a degradation condition input terminal 1109 to generate LR image data. The deterioration condition is downsampling, which is a deterioration process due to the deterioration PSF of the optical system of the photographing camera and the limitation of the number of sensor pixels. In this embodiment, the downsampling degradation condition handled is given by the reduction ratio (1 / M, 1 / N) at the time of downsampling. Note that M and N are natural numbers. Further, information indicating a positional shift between a plurality of pieces of image data is input from the deterioration condition input terminal 1109. In the present embodiment, horizontal and vertical misalignments are handled. Of the N pieces of acquired image data, the first piece of image data is used as reference image data, and the relative movement amount from the reference image data is used as positional deviation information. The center image position of the reference image data is set as the origin, and horizontal and vertical displacement amounts (Δx k , Δy k ) with respect to the origin are calculated. Note that k = 2, 3,..., N. In the present embodiment, the amount of positional deviation (Δx k , Δy k ) is calculated by inter-frame matching with reference image data.

本実施形態において、これらの劣化条件は超解像処理に先立って予め計測されるデータ、或いは既知のデータである。差分演算部1110は、画像入力端子1101で入力された画像データとLR画像作成部1106で作成されたLR画像データとの差分を演算する。そして、差分演算部1110は、上記得られた画像データ間の差分情報の和を画素数で割ることで差分の平均値を計算する。終了判定部1107は、その平均値を用いてHR画像データが生成されたのかどうかを判断する。閾値は、閾値入力端子1108により与えられる、0から255までのある値とする。終了判定部1107は差分演算部1110の演算結果を閾値と比較する。差分演算部1110の演算結果が閾値以下の場合、終了判定部1107は0を出力する。一方、差分演算部1110の演算結果が閾値より大きい場合、終了判定部1107は1を出力する。また、差分演算部1110の演算結果は修正量計算部1104に入力される。終了判定部1107から1が出力された場合、修正量計算部1104は修正量を計算し、出力する。一方、終了判定部1107から0が出力された場合、修正量計算部1104は修正量0を出力する。HR画像作成部1105は、修正量計算部1104から出力される修正量に応じてHR画像データを生成する。具体的には、修正量計算部1104で得た修正量をHR画像データに加えることにより、HR画像データを更新する。なお、修正量計算の詳細については後述する。修正量計算部1104により計算された修正量が0である場合、HR画像生成部1105は既に作成しているHR画像データをそのままHR画像出力端子1103から出力する。一方、修正量計算部1104の修正量が0ではない場合、HR画像生成部1105は既に生成しているHR画像データに修正量を加算して更新し、LR画像作成部1106による処理に進む。その後、差分演算部1110の演算結果が閾値以下となると、HR画像出力端子1103よりHR画像データが出力され、HR画像データの生成が完了する。   In the present embodiment, these deterioration conditions are data measured in advance prior to super-resolution processing or known data. The difference calculation unit 1110 calculates the difference between the image data input from the image input terminal 1101 and the LR image data generated by the LR image generation unit 1106. Then, the difference calculation unit 1110 calculates the average value of the differences by dividing the sum of the difference information between the obtained image data by the number of pixels. The end determination unit 1107 determines whether HR image data has been generated using the average value. The threshold is a certain value from 0 to 255 given by the threshold input terminal 1108. The end determination unit 1107 compares the calculation result of the difference calculation unit 1110 with a threshold value. When the calculation result of the difference calculation unit 1110 is equal to or less than the threshold value, the end determination unit 1107 outputs 0. On the other hand, when the calculation result of the difference calculation unit 1110 is larger than the threshold, the end determination unit 1107 outputs 1. In addition, the calculation result of the difference calculation unit 1110 is input to the correction amount calculation unit 1104. When 1 is output from the end determination unit 1107, the correction amount calculation unit 1104 calculates and outputs the correction amount. On the other hand, when 0 is output from the end determination unit 1107, the correction amount calculation unit 1104 outputs the correction amount 0. The HR image creation unit 1105 generates HR image data according to the correction amount output from the correction amount calculation unit 1104. Specifically, the HR image data is updated by adding the correction amount obtained by the correction amount calculation unit 1104 to the HR image data. Details of the correction amount calculation will be described later. When the correction amount calculated by the correction amount calculation unit 1104 is 0, the HR image generation unit 1105 outputs the already created HR image data as it is from the HR image output terminal 1103. On the other hand, when the correction amount of the correction amount calculation unit 1104 is not 0, the HR image generation unit 1105 updates the HR image data that has already been generated by adding the correction amount, and proceeds to processing by the LR image generation unit 1106. Thereafter, when the calculation result of the difference calculation unit 1110 becomes equal to or less than the threshold value, the HR image data is output from the HR image output terminal 1103, and the generation of the HR image data is completed.

図12は、図1の画像取得装置102の劣化モデルを示す図であり、本実施形態における撮像系の劣化過程を線形モデルで表している。図12において、1201は劣化過程前のHR画像データを示している。1202は複数枚の画像データ間の位置ずれを示している。1203は光学系PSFによる劣化過程である光学系処理を示している。1204はダウンサンプリングを行うセンサ処理を示している。ダウンサンプリング劣化条件は画像縮小の倍率として提供される。1205はカメラで取得した画像データを示している。光学PSFの劣化は(2N+1,2N+1)のサイズの線形フィルタFとする。なお、Nは自然数である。本実施形態で扱うPSF劣化された画像データYPSFは、コンボリューション演算により以下の式9にて表現できる。i、jは2次元画像データX、YPSFの画素位置である。 FIG. 12 is a diagram illustrating a deterioration model of the image acquisition device 102 in FIG. 1, and represents a deterioration process of the imaging system in the present embodiment by a linear model. In FIG. 12, reference numeral 1201 denotes HR image data before the deterioration process. Reference numeral 1202 denotes a positional deviation between a plurality of pieces of image data. An optical system process 1203 is a deterioration process by the optical system PSF. Reference numeral 1204 denotes sensor processing for performing downsampling. The downsampling degradation condition is provided as a magnification of image reduction. Reference numeral 1205 denotes image data acquired by the camera. Degradation of the optical PSF is assumed to be a linear filter F having a size of (2N + 1, 2N + 1). N is a natural number. The PSF-degraded image data Y PSF handled in the present embodiment can be expressed by Equation 9 below by convolution calculation. i and j are pixel positions of the two-dimensional image data X and Y PSF .

Figure 2011113527
Figure 2011113527

後述する超解像処理で扱う都合上、式9のコンボリューション演算は式10で定義される。線形演算の形式に変更する。式9から式10への変換方法については後述する。線形演算の形式によるとカメラの劣化モデルは下記の式10で表示できる。   For the convenience of handling in the super-resolution processing described later, the convolution operation of Equation 9 is defined by Equation 10. Change to the linear operation format. A conversion method from Equation 9 to Equation 10 will be described later. According to the linear calculation format, the camera deterioration model can be expressed by the following equation (10).

Figure 2011113527
Figure 2011113527

Xは元となるHR画像データを表すベクトルである。Ykは撮影された画像データ(LR画像データ)である。行列Mkは位置ずれ補正を行う正方形行列である。行列Bは光学系劣化処理を行う正方形行列である。行列Dはダウンサンプリング処理の画像縮小の倍率を反映した行列である。行列Mk、行列B、行列Dのサイズは入力画像サイズによって変化する。入力画像サイズをW(横画素数)、H(縦画素数)とする。ダウンサンプリング条件は画像縮小の倍率を1/M、1/Nとする。その場合、式10に記載される各行列サイズは図18に示す通りとなる。 X is a vector representing the original HR image data. Y k is taken image data (LR image data). The matrix M k is a square matrix that performs positional deviation correction. The matrix B is a square matrix that performs optical system deterioration processing. The matrix D is a matrix reflecting the image reduction magnification of the downsampling process. The sizes of the matrix M k , the matrix B, and the matrix D vary depending on the input image size. Let the input image size be W (number of horizontal pixels) and H (number of vertical pixels). The downsampling condition is that the image reduction magnification is 1 / M and 1 / N. In that case, each matrix size described in Equation 10 is as shown in FIG.

Xは元となるHR画像データを表すベクトルであって、横縦サイズはWとHとする。Ykは撮影されたLR画像データである。ダウンサンプリング処理の画像縮小の倍率を1/M、1/Nとする。画像データ間の位置ずれは(Δxk,Δyk)とする。行列のサイズは画像サイズによって変わる。 X is a vector representing the original HR image data, and the horizontal and vertical sizes are W and H, respectively. Y k is taken LR image data. The image reduction magnification of the downsampling process is 1 / M and 1 / N. The positional deviation between the image data is (Δx k , Δy k ). The size of the matrix depends on the image size.

ここで、具体的な例を一つ挙げる。サイズ1024×1024の画像データをHR画像データとして、ダウンサンプリングによる縮小倍率は1/2、1/2とする。そうすると、LR画像データのサイズは512×512になる。位置ずれは(Δxk,Δyk)とする。上記式10に記載されるX、Yk、D、B、Mkの行列サイズは図19に示す。図19に示した行列Mkの構成を図15に示す。本実施形態では、HR画像データはMAP法を使用して求める。すなわち、本実施形態では、下記式11を使ってHR画像データを生成する。 Here is one specific example. The image data of size 1024 × 1024 is assumed to be HR image data, and the reduction magnification by downsampling is 1/2 and 1/2. Then, the size of the LR image data is 512 × 512. The displacement is assumed to be (Δx k , Δy k ). The matrix sizes of X, Y k , D, B, and M k described in Equation 10 are shown in FIG. FIG. 15 shows the configuration of the matrix M k shown in FIG. In the present embodiment, the HR image data is obtained using the MAP method. In other words, in the present embodiment, HR image data is generated using the following Expression 11.

Figure 2011113527
Figure 2011113527

基準画像データとの位置ずれ情報は行列Mkで示す。光学系PSFによる劣化処理は行列Bで表す。ダウンサンプリング処理の画像縮小の倍率を反映した行列は行列Dで表す。式11の右辺第二項は、入力画像データと劣化過程を経て推定されたLR画像データとの差分値を演算する項である。σは画像取得装置102で取得された画像データYのノイズの標準偏差である。式11の右辺部を抽出し、超解像処理時の評価関数として用いる数式が式12である。 The positional deviation information with respect to the reference image data is indicated by a matrix M k . Deterioration processing by the optical system PSF is represented by a matrix B. A matrix reflecting the image reduction magnification of the downsampling process is represented by a matrix D. The second term on the right side of Equation 11 is a term for calculating a difference value between the input image data and the LR image data estimated through the deterioration process. σ is a standard deviation of noise of the image data Y acquired by the image acquisition device 102. Expression 12 is an expression that extracts the right side of Expression 11 and uses it as an evaluation function during super-resolution processing.

Figure 2011113527
Figure 2011113527

図13は、ステレオ画像について左右画像データを複数枚ずつ取得する場合、画像データ間の位置関係を示す図である。本実施形態においては、基準画像データ及び参照画像データのそれぞれについて1枚目とk枚目の画像データ間の位置ずれは(Δxk,Δyk)の微小なものとし、ステレオカメラの手ぶれなどを想定した、微小制御されないずれを持つ複数の画像データを使う。 FIG. 13 is a diagram illustrating a positional relationship between image data when a plurality of left and right image data are acquired for a stereo image. In the present embodiment, the positional deviation between the first and k-th image data for each of the standard image data and the reference image data is assumed to be as small as (Δx k , Δy k ), and the camera shake of the stereo camera or the like is assumed. A plurality of image data that are assumed to be finely controlled are used.

図14は、図11の超解像処理ユニット1111の処理を示すフローチャートである。ステップS1401において、初期HR画像作成部1102は、画像入力端子201から画像データYkを入力する。Ykは入力画像データを表す。ステップS1402において、LR画像作成部1106は、取得された複数枚の画像データ間の位置ずれ情報を含む行列Mkを劣化条件入力端子1109から入力する。ステップS1403において、LR画像作成部1106は、カメラの光学劣化条件である行列Bを劣化条件入力端子1109から入力する。ステップS1404において、LR画像作成部1106は、カメラのダウンサンプリング行列Dを劣化条件入力端子1109から入力する。ステップS1405において、HR画像作成部205はHR画像データの初期値を生成する。HR画像データの初期値は線形補間により横サイズM倍、縦サイズN倍に拡大される。ステップS1406において、終了判定部1107は閾値入力端子1108から閾値を入力する。ステップS1408において、LR画像作成部1107は式13に従ってLR画像データYk´を作成する。ステップS1408は、ステップS1401で入力された画像データの枚数分だけ繰り返し実行される。従って、ステップS1407からステップS1409では、当該枚数分のLR画像データYk´が生成されることになる。 FIG. 14 is a flowchart showing processing of the super-resolution processing unit 1111 in FIG. In step S < b> 1401, the initial HR image creation unit 1102 inputs image data Y k from the image input terminal 201. Y k represents input image data. In step S <b> 1402, the LR image creation unit 1106 inputs a matrix M k including positional deviation information between the acquired plurality of pieces of image data from the deterioration condition input terminal 1109. In step S1403, the LR image creation unit 1106 inputs a matrix B, which is an optical deterioration condition of the camera, from the deterioration condition input terminal 1109. In step S <b> 1404, the LR image creation unit 1106 inputs the downsampling matrix D of the camera from the deterioration condition input terminal 1109. In step S1405, the HR image creation unit 205 generates an initial value of HR image data. The initial value of the HR image data is enlarged to M times the horizontal size and N times the vertical size by linear interpolation. In step S1406, the end determination unit 1107 inputs a threshold value from the threshold value input terminal 1108. In step S 1408, the LR image creation unit 1107 creates LR image data Y k ′ according to Equation 13. Step S1408 is repeatedly executed for the number of image data input in step S1401. Accordingly, from step S1407 to step S1409, the LR image data Y k ′ corresponding to the number of sheets is generated.

Figure 2011113527
Figure 2011113527

i回目の演算で生成されたHR画像データをXiとし、HR画像データXiは、ステップS1407からの繰り返し演算によってステップS1412で生成される。ステップS1413において、差分演算部1110は、ステップS1408の計算で得られたLR画像データと画像入力端子1101から入力された画像データとの差分の、全ての画素及び全ての入力画像データに対する平均値を求める。そして、終了判定部1107は、その平均値と閾値とを比較する。差分の平均値が閾値以下の場合にはステップS1414に進み、繰り返し演算が終わることになっている。差分の平均値が閾値より大きいのであれば、ステップS1410に進み、修正量計算部1104はHR画像データの修正量を計算する更新項を求める。更新項の求め方については後述する。ステップS1411において、HR画像作成部1105はループ回数をカウントする。ステップS1412において、HR画像作成部1105はHR画像データにステップS1410で計算された更新項の結果を加えてHR画像データを更新する。ステップS1413において計算される差分の平均値が閾値以下となるまで、ステップS1407〜ステップS1413の処理を繰り返し行う。 The HR image data generated by the i-th calculation is X i , and the HR image data X i is generated in step S1412 by repeated calculation from step S1407. In step S1413, the difference calculation unit 1110 calculates an average value for all pixels and all input image data of the difference between the LR image data obtained by the calculation in step S1408 and the image data input from the image input terminal 1101. Ask. Then, end determination unit 1107 compares the average value with a threshold value. If the average value of the differences is equal to or less than the threshold value, the process proceeds to step S1414, and the repetitive calculation is finished. If the average value of the differences is larger than the threshold value, the process advances to step S1410, and the correction amount calculation unit 1104 obtains an update term for calculating the correction amount of the HR image data. The method for obtaining the update term will be described later. In step S1411, the HR image creation unit 1105 counts the number of loops. In step S1412, the HR image creation unit 1105 adds the result of the update term calculated in step S1410 to the HR image data to update the HR image data. Steps S1407 to S1413 are repeated until the average value of the differences calculated in step S1413 is less than or equal to the threshold value.

ステップS1410において、修正量計算部1104は、HR画像データの更新項を計算する。HR画像作成部1105は、上記評価関数での結果を受けてHR画像データを更新する。本実施形態では最急降下法を用いてHR画像データを更新する。最急降下法は最小化する関数の一次微分のみを使用した最適化手法である。最急降下法を評価関数である式12に適応すると、式14によってHR画像データの更新項ΔXiが計算される。 In step S1410, the correction amount calculation unit 1104 calculates an update term for the HR image data. The HR image creation unit 1105 updates the HR image data in response to the result of the evaluation function. In the present embodiment, the HR image data is updated using the steepest descent method. The steepest descent method is an optimization method that uses only the first derivative of the function to be minimized. When the steepest descent method is applied to Expression 12, which is an evaluation function, the update term ΔX i of the HR image data is calculated by Expression 14.

Figure 2011113527
Figure 2011113527

以上説明したように、本発明の第2の実施形態によれば、各撮像装置から取得される複数の画像データから1枚のHR画像データを生成し、該HR画像データを用いて奥行き値(奥行き情報マップ)を取得することから、より高精度な奥行き推定が可能である。   As described above, according to the second embodiment of the present invention, one piece of HR image data is generated from a plurality of image data acquired from each imaging device, and a depth value ( Since the depth information map) is acquired, more accurate depth estimation is possible.

以上説明したとおり、上述した実施形態では、複数の撮像装置が撮影した複数枚の画像データからHR画像データを生成し、視差情報に基づいてより密な奥行き情報を算出することができる。特に第1実施形態によれば、ステレオカメラで撮影した左右2枚の画像データから生成されたHR画像データを用いて奥行き値(奥行き情報マップ)を取得することにより、空間的に情報量の多い奥行き情報を得ることが可能である。また、第2の実施形態によれば、各撮像装置から取得される複数の画像データから1枚のHR画像データを生成し、該HR画像データを用いて奥行き情報を取得することから、より高精度な奥行き推定が可能である。ステレオ画像の超解像画像と奥行きマップを基に加工することで背景がぼかしたり、3D表示をしたりする効果が得られる。   As described above, in the above-described embodiment, it is possible to generate HR image data from a plurality of pieces of image data captured by a plurality of imaging devices, and to calculate denser depth information based on parallax information. In particular, according to the first embodiment, the depth value (depth information map) is acquired using the HR image data generated from the left and right image data photographed by the stereo camera, so that the amount of information is spatially large. It is possible to obtain depth information. Further, according to the second embodiment, one HR image data is generated from a plurality of image data acquired from each imaging device, and depth information is acquired using the HR image data. Accurate depth estimation is possible. By processing based on the super-resolution image and the depth map of the stereo image, an effect of blurring the background or performing 3D display can be obtained.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

103 メモリ、104 超解像処理ユニット、105 劣化条件入力部、106 閾値入力部、107 ステレオマッチング部、108 奥行き計算ユニット、110 画像処理装置、202 初期HR画像作成部、204 修正計算部、205 HR画像作成部、206 LR画像作成部、207 終了判定部、210 差分演算部   103 Memory, 104 Super-resolution processing unit, 105 Degradation condition input unit, 106 Threshold input unit, 107 Stereo matching unit, 108 Depth calculation unit, 110 Image processing device, 202 Initial HR image creation unit, 204 Correction calculation unit, 205 HR Image creation unit, 206 LR image creation unit, 207 end determination unit, 210 difference calculation unit

Claims (11)

複数の撮像手段より取得される被写体の画像データを高解像画像データに変換する変換手段と、
前記変換手段により生成された高解像画像データに基づいて、前記被写体の奥行き情報を算出する第1の算出手段とを有することを特徴とする画像処理装置。
Conversion means for converting image data of a subject acquired from a plurality of imaging means into high-resolution image data;
An image processing apparatus comprising: a first calculation unit that calculates depth information of the subject based on high-resolution image data generated by the conversion unit.
前記変換手段は、前記撮像手段の特性を加味して、前記被写体の画像データを高解像画像データに変換することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the conversion unit converts the image data of the subject into high-resolution image data in consideration of characteristics of the imaging unit. 前記変換手段は、
前記撮像手段より取得される前記被写体の画像データから高解像画像データを生成する第1の生成手段と、
前記第1の生成手段によって生成される高解像画像データから前記撮像手段の特性を加味して低解像画像データを生成する第2の生成手段と、
前記第2の生成手段により生成される低解像画像データと前記撮像手段により取得される画像データとの差分を算出する第2の算出手段とを有し、
前記第2の算出手段により算出される差分が所定の条件を満たす場合における、前記第1の生成手段により生成された高解像画像データを出力することを特徴とする請求項1又は2に記載の画像処理装置。
The converting means includes
First generation means for generating high-resolution image data from image data of the subject acquired from the imaging means;
Second generation means for generating low-resolution image data in consideration of characteristics of the imaging means from high-resolution image data generated by the first generation means;
Second calculation means for calculating a difference between the low-resolution image data generated by the second generation means and the image data acquired by the imaging means;
The high-resolution image data generated by the first generation unit when the difference calculated by the second calculation unit satisfies a predetermined condition is output. Image processing apparatus.
前記変換手段は、
前記第2の算出手段により算出される差分が所定の条件を満たさない場合、当該差分に応じた修正量を算出する第3の算出手段を更に有し、
前記第1の生成手段は、前記第3の算出手段により算出された修正量に応じて高解像画像データを更新することを特徴とする請求項3に記載の画像処理装置。
The converting means includes
When the difference calculated by the second calculation means does not satisfy a predetermined condition, the apparatus further includes third calculation means for calculating a correction amount according to the difference,
The image processing apparatus according to claim 3, wherein the first generation unit updates high-resolution image data according to the correction amount calculated by the third calculation unit.
前記第2の算出手段により算出される差分が所定の閾値以下となる場合に前記所定の条件を満たすことを特徴とする請求項3又は4に記載の画像処理装置。   5. The image processing apparatus according to claim 3, wherein the predetermined condition is satisfied when a difference calculated by the second calculation unit is equal to or less than a predetermined threshold value. 前記撮像手段の特性は、前記撮像手段における光学系の特性、及び、前記撮像手段のダウンサンプリング処理に係る特性のうちの少なくとも何れか一方を含むことを特徴とする請求項2乃至5の何れか1項に記載の画像処理装置。   6. The characteristic of the imaging means includes at least one of a characteristic of an optical system in the imaging means and a characteristic related to downsampling processing of the imaging means. The image processing apparatus according to item 1. 前記光学系の特性は、点拡がり関数であることを特徴とする請求項6に記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the characteristic of the optical system is a point spread function. 前記変換手段は、1枚の画像データから1枚の高解像画像データを生成することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the conversion unit generates one piece of high resolution image data from one piece of image data. 前記変換手段は、複数の画像データから1枚の高解像画像データを生成することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the conversion unit generates one piece of high-resolution image data from a plurality of image data. 複数の撮像手段より取得される被写体の画像データを高解像画像データに変換する変換ステップと、
前記変換ステップにより生成された高解像画像データに基づいて、前記被写体の奥行き情報を算出する算出ステップとを含むことを特徴とする画像処理方法。
A conversion step of converting image data of a subject acquired from a plurality of imaging means into high-resolution image data;
A calculation step of calculating depth information of the subject based on the high-resolution image data generated by the conversion step.
複数の撮像手段より取得される被写体の画像データを高解像画像データに変換する変換ステップと、
前記変換ステップにより生成された高解像画像データに基づいて、前記被写体の奥行き情報を算出する算出ステップとをコンピュータに実行させるためのプログラム。
A conversion step of converting image data of a subject acquired from a plurality of imaging means into high-resolution image data;
A program for causing a computer to execute a calculation step of calculating depth information of the subject based on the high-resolution image data generated by the conversion step.
JP2009272419A 2009-11-30 2009-11-30 Image processing apparatus and method, and program Pending JP2011113527A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009272419A JP2011113527A (en) 2009-11-30 2009-11-30 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009272419A JP2011113527A (en) 2009-11-30 2009-11-30 Image processing apparatus and method, and program

Publications (1)

Publication Number Publication Date
JP2011113527A true JP2011113527A (en) 2011-06-09

Family

ID=44235781

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009272419A Pending JP2011113527A (en) 2009-11-30 2009-11-30 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP2011113527A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8774551B2 (en) 2011-09-14 2014-07-08 Canon Kabushiki Kaisha Image processing apparatus and image processing method for reducing noise
US9563937B2 (en) 2013-07-12 2017-02-07 Mitsubishi Electric Corporation High-resolution image generation apparatus, high-resolution image generation method, and high-resolution image generation program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8774551B2 (en) 2011-09-14 2014-07-08 Canon Kabushiki Kaisha Image processing apparatus and image processing method for reducing noise
US9563937B2 (en) 2013-07-12 2017-02-07 Mitsubishi Electric Corporation High-resolution image generation apparatus, high-resolution image generation method, and high-resolution image generation program

Similar Documents

Publication Publication Date Title
JP7159057B2 (en) Free-viewpoint video generation method and free-viewpoint video generation system
Josephson et al. Pose estimation with radial distortion and unknown focal length
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
US8452081B2 (en) Forming 3D models using multiple images
CN107909640B (en) Face relighting method and device based on deep learning
JP5778237B2 (en) Backfill points in point cloud
US8447099B2 (en) Forming 3D models using two images
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
JP4209938B2 (en) Image processing apparatus and method, image processing program, and image processor
CN107025660B (en) Method and device for determining image parallax of binocular dynamic vision sensor
JP2005308553A (en) Three-dimensional image measuring device and method
JP2016024052A (en) Three-dimensional measurement system, three-dimensional measurement method and program
WO2021108626A1 (en) System and method for correspondence map determination
TW201436552A (en) Method and apparatus for increasing frame rate of an image stream using at least one higher frame rate image stream
KR101875532B1 (en) Apparatus and method for hierarchical stereo matching
JP2011164905A (en) Device for retrieving corresponding point
US9721348B2 (en) Apparatus and method for raw-cost calculation using adaptive window mask
JP4102386B2 (en) 3D information restoration device
US20120038785A1 (en) Method for producing high resolution image
CN110288707B (en) Three-dimensional dynamic modeling method and system
JP2006113832A (en) Stereoscopic image processor and program
JP7312026B2 (en) Image processing device, image processing method and program
JP2011113527A (en) Image processing apparatus and method, and program
JP6156922B2 (en) Three-dimensional data generation apparatus, three-dimensional data generation method, and program
JP2008204318A (en) Image processor, image processing method and image processing program