JP4483516B2 - Image processing apparatus and method, and program - Google Patents

Image processing apparatus and method, and program Download PDF

Info

Publication number
JP4483516B2
JP4483516B2 JP2004297029A JP2004297029A JP4483516B2 JP 4483516 B2 JP4483516 B2 JP 4483516B2 JP 2004297029 A JP2004297029 A JP 2004297029A JP 2004297029 A JP2004297029 A JP 2004297029A JP 4483516 B2 JP4483516 B2 JP 4483516B2
Authority
JP
Japan
Prior art keywords
image
elevation angle
unit
input image
vanishing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004297029A
Other languages
Japanese (ja)
Other versions
JP2006107407A (en
Inventor
秀雄 中屋
昌紀 町村
仁志 向井
健司 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004297029A priority Critical patent/JP4483516B2/en
Publication of JP2006107407A publication Critical patent/JP2006107407A/en
Application granted granted Critical
Publication of JP4483516B2 publication Critical patent/JP4483516B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、被写体像の動きを利用した画像処理に最適な画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, method, and program, and more particularly to an image processing apparatus, method, and program that are optimal for image processing using movement of a subject image.

例えば真上から見ると図1に示すような花畑を、ビデオカメラによって、一定の仰角で撮像すると、図2に示すように、所定の模様が手前になるほど粗く、遠ざかるほど細かくなる映像が得られる。なお以下において、一定の仰角で撮像された場合に、手前になる程粗く、遠ざかるほど細かくなる傾向を有する模様の単位を、肌理と称し、その傾向の程度を、肌理の勾配と称する。   For example, when a flower field as shown in FIG. 1 is imaged at a certain elevation angle with a video camera when viewed from directly above, an image that is coarser as the predetermined pattern is closer to the front and becomes finer as it is further away as shown in FIG. . In the following description, a unit of a pattern having a tendency to become coarser toward the front and become finer as it moves away when imaged at a certain elevation angle is referred to as texture, and the degree of the tendency is referred to as texture gradient.

ところでビデオカメラでは、通常、撮像の結果得られた画像について、被写体像の動きを利用したノイズリダクション等の処理を施して、録画等がなされる。   By the way, in a video camera, recording or the like is usually performed on an image obtained as a result of imaging by performing processing such as noise reduction using the motion of a subject image.

具体的には、図2に示したように一定の仰角を伴って、水平方向に直線運動するビデオカメラにより撮像された被写体の像は等速直線運動になっていないので、撮像画像の中の等速直線運動と近似し得る部分が適宜検出されて、その部分に対応する1つ前の画像の部分に動き補償がなされ、検出された部分と足し合わされることで行われる。   Specifically, as shown in FIG. 2, the image of the subject imaged by a video camera that moves linearly in a horizontal direction with a certain elevation angle does not have a uniform linear motion. A portion that can be approximated to a constant velocity linear motion is appropriately detected, motion compensation is performed on the portion of the previous image corresponding to that portion, and the detected portion is added.

しかしながら一定の仰角で撮像された画像上の被写体像は、等速直線運動していないので、結局、正確に動き補償を行うことができず、ノイズリダクション等の処理も適切に行うことができない問題があった。   However, since the subject image on the image captured at a constant elevation angle does not move at a constant linear velocity, it is impossible to accurately perform motion compensation, and processing such as noise reduction cannot be performed properly. was there.

本発明はこのような状況に鑑みてなされたものであり、被写体像の動きを利用した処理を適切に行うことができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to appropriately perform processing using movement of a subject image.

本発明の画像処理装置は、所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像を、正面から撮像された場合を想定した正対画像に変換する第1の変換手段と、換された正対画像における被写体の等速直線運動に相当する動きベクトルを推定し、推定した動きベクトルに基づいて、正対画像に対して動き補償付きノイズリダクション処理を実行する実行手段と、動き補償付きノイズリダクション処理が施された正対画像を、入力画像と同じ所定の仰角で撮像された場合を想定した画像に変換する第2の変換手段とを備えThe image processing apparatus of the present invention converts an input image obtained as a result of being imaged at a predetermined elevation angle by an imaging device that moves linearly at a constant speed in a predetermined direction into a directly-facing image that is assumed to be captured from the front. first conversion means, and estimating a motion vector corresponding to a uniform linear motion of the subject in the conversion has been confronting image, based on the estimated motion vector, the motion compensated noise reduction against confronting images Execution means for executing processing, and second conversion means for converting a facing image that has been subjected to noise reduction processing with motion compensation into an image that is assumed to be captured at the same predetermined elevation angle as the input image. The

第1の変換手段は、入力画像の消失点を算出する消失点算出手段と、消失点に基づいて、仰角を算出する仰角算出手段と、仰角に基づいて、入力画像を、正対画像に変換する第3の変換手段とを備えることができる。   The first conversion means includes a vanishing point calculating means for calculating a vanishing point of the input image, an elevation angle calculating means for calculating an elevation angle based on the vanishing point, and an input image converted into a facing image based on the elevation angle. And third conversion means.

仰角算出手段は、消失点と撮像機器の焦点を通る直線と、撮像機器の結像面の中心と焦点を結ぶ直線からなる角度を、仰角とすることができる。   The elevation angle calculating means can set an angle formed by a straight line passing through the vanishing point and the focal point of the imaging device and a straight line connecting the center of the imaging plane of the imaging device and the focal point as the elevation angle.

消失点算出手段は、入力画像を、所定の特徴に基づいて量子化する量子化手段と、
量子化手段により量子化された入力画像に基づいて、消失点を算出する消失点算出手段とを備えることができる。
The vanishing point calculation means includes a quantization means for quantizing the input image based on a predetermined feature,
Vanishing point calculating means for calculating a vanishing point based on the input image quantized by the quantizing means can be provided.

特徴量は、肌理の勾配を形成する特徴であるようにすることができる。   The feature amount can be a feature that forms a texture gradient.

本発明の画像処理方法は、画像処理装置による、所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像を、正面から撮像された場合を想定した正対画像に変換する第1の変換ステップと、換された正対画像における被写体の等速直線運動に相当する動きベクトルを推定し、推定した動きベクトルに基づいて、正対画像に対して動き補償付きノイズリダクション処理を実行する実行ステップと、動き補償付きノイズリダクション処理が施された正対画像を、入力画像と同じ所定の仰角で撮像された場合を想定した画像に変換する第2の変換ステップとを含The image processing method of the present invention assumes a case where an input image obtained as a result of being imaged at a predetermined elevation angle is captured from the front by an image processing device that performs linear motion at a constant speed in a predetermined direction . a first conversion step of converting into confronting the image, estimates a motion vector corresponding to a uniform linear motion of the subject in the conversion has been confronting image, based on the estimated motion vector for confronting the image an executing step of executing a motion compensated noise reduction process, the confronting image motion compensated noise reduction processing has been performed, the second converting when imaged at the same predetermined angle of elevation to the assumed image and the input image including a conversion step.

本発明のプログラムは、所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像を、正面から撮像された場合を想定した正対画像に変換する第1の変換ステップと、換された正対画像における被写体の等速直線運動に相当する動きベクトルを推定し、推定した動きベクトルに基づいて、正対画像に対して動き補償付きノイズリダクション処理を実行する実行ステップと、動き補償付きノイズリダクション処理が施された正対画像を、入力画像と同じ所定の仰角で撮像された場合を想定した画像に変換する第2の変換ステップとを含む処理を画像処理装置のコンピュータに実行させるThe program of the present invention converts an input image obtained as a result of imaging at a predetermined elevation angle by an imaging device that moves linearly at a constant speed in a predetermined direction into a facing image assuming that the image is captured from the front. and 1 conversion step to estimate the motion vector corresponding to a uniform linear motion of the subject in the conversion has been confronting image, based on the estimated motion vector, the motion compensated noise reduction process on the facing image an execution step of executing, the confronting image motion compensated noise reduction processing has been performed, the processing and a second conversion step of converting when imaged at the same predetermined angle of elevation to the assumed image and the input image The image processing apparatus is executed by a computer .

本発明においては、所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像が、正面から撮像された場合を想定した正対画像に変換され、変換された正対画像における被写体の等速直線運動に相当する動きベクトルが推定され、推定された動きベクトルに基づいて、正対画像に対して動き補償付きノイズリダクション処理が実行され、動き補償付きノイズリダクション処理が施された正対画像が、入力画像と同じ所定の仰角で撮像された場合を想定した画像に変換される。 In the present invention, an input image obtained as a result of being imaged at a predetermined elevation angle by an imaging device that moves linearly at a constant speed in a predetermined direction is converted into a facing image assuming that the image is captured from the front, and converted. the motion vector estimation, which corresponds to a uniform linear motion of the subject in has been confronting image, based on the estimated motion vector, the motion compensated noise reduction process is performed on the confronting image, motion compensated noise The facing image that has been subjected to the reduction process is converted into an image that is assumed to be captured at the same predetermined elevation angle as the input image .

本発明によれば、被写体像の動きを利用した処理を適切に行うことができる。   According to the present invention, it is possible to appropriately perform processing using movement of a subject image.

以下、本発明の実施の形態について説明する Embodiments of the present invention will be described below .

図3は、本発明を適用した画像処理装置1の構成例を示している。画像処理装置1は、図2に示したような一定の仰角を伴って水平方向に直線運動するビデオカメラにより撮像された結果得られた画像(一定の肌理の勾配を有する画像)を、正面から撮像された画像(図2の例では、真上から撮像された画像(図1))(肌理の勾配がない画像)(以下、正対画像と称する)に変換する。すなわち被写体の像が画像中でも等速直線運動となるように変換される。   FIG. 3 shows a configuration example of the image processing apparatus 1 to which the present invention is applied. The image processing apparatus 1 displays, from the front, an image (an image having a certain texture gradient) obtained as a result of being captured by a video camera that moves linearly in a horizontal direction with a certain elevation angle as shown in FIG. The image is converted into a captured image (in the example of FIG. 2, an image captured from directly above (FIG. 1)) (an image having no texture gradient) (hereinafter referred to as a directly-facing image). That is, the subject image is converted so as to have a uniform linear motion even in the image.

そして画像処理装置1は、正対画像全体に対して、例えば動き補償付きノイズリダクション処理を行う。すなわち正対画像中では被写体の像が等速直線運動になっているので、正確な動き補償を行うことができ、その結果ノイズリダクション等を適切に行うことができる。   Then, the image processing apparatus 1 performs, for example, a noise reduction process with motion compensation on the entire facing image. That is, since the image of the subject has a uniform linear motion in the directly-facing image, accurate motion compensation can be performed, and as a result, noise reduction and the like can be performed appropriately.

画像処理装置1は、処理の結果得られた画像を、元の肌理の勾配を有する画像に戻し、例えばそれを図示せぬ記録媒体や表示部等に出力する。   The image processing apparatus 1 returns the image obtained as a result of the processing to an image having an original texture gradient, and outputs the image to a recording medium or a display unit (not shown), for example.

画像処理装置1の構成について説明する。   The configuration of the image processing apparatus 1 will be described.

画像入力部11は、図示せぬ撮像部によって撮像された結果得られた画像を入力する。例えば、図2に示すような、撮像部によって、一定の仰角を伴って水平方向に直線運動するビデオカメラにより撮像された画像が入力される。   The image input unit 11 inputs an image obtained as a result of being imaged by an imaging unit (not shown). For example, as shown in FIG. 2, an image captured by a video camera that moves linearly in a horizontal direction with a certain elevation angle is input by an imaging unit.

画像入力部11は、入力した入力画像を、仰角算出部12および画像変換部13に供給する。   The image input unit 11 supplies the input image that has been input to the elevation angle calculation unit 12 and the image conversion unit 13.

仰角算出部12は、画像入力部11から供給された入力画像から、その画像の撮像時の撮像部の仰角を算出し(例えば、フレーム毎に算出し)、画像変換部13および画像変換部15に供給する。   The elevation angle calculation unit 12 calculates the elevation angle of the imaging unit at the time of imaging the image from the input image supplied from the image input unit 11 (for example, for each frame), and the image conversion unit 13 and the image conversion unit 15. To supply.

仰角算出部12は、図4に示すように構成されている。量子化部21は、画像入力部11から供給された入力画像をフレーム毎に量子化し、消失点算出部22に供給する。   The elevation angle calculation unit 12 is configured as shown in FIG. The quantization unit 21 quantizes the input image supplied from the image input unit 11 for each frame and supplies the quantized point to the vanishing point calculation unit 22.

消失点算出部22は、量子化部21から供給された量子化データに基づいて消失点(撮像画像上の座標)を算出し、仰角算出部23に供給する。   The vanishing point calculating unit 22 calculates the vanishing point (coordinates on the captured image) based on the quantized data supplied from the quantizing unit 21 and supplies the vanishing point to the elevation angle calculating unit 23.

消失点とは、被写体の平面が無限遠方に収束する点であり、この例の場合、肌理の勾配から求められる。   The vanishing point is a point where the plane of the subject converges to infinity, and in this case, it is obtained from the texture gradient.

仰角算出部23は、消失点算出部22から供給された消失点の座標を利用して、入力画像の撮像時の撮像部の仰角を算出し、その算出結果を画像変換部13に供給する。   The elevation angle calculation unit 23 uses the coordinates of the vanishing point supplied from the vanishing point calculation unit 22 to calculate the elevation angle of the imaging unit when the input image is captured, and supplies the calculation result to the image conversion unit 13.

なお量子化部21乃至仰角算出部23の構成および処理の詳細については後述する。   Details of the configuration and processing of the quantizing unit 21 to the elevation angle calculating unit 23 will be described later.

図3に戻り画像変換部13は、仰角算出部12から供給された撮像部の仰角に基づいて、画像入力部11から供給された入力画像を、正面から撮像した場合に得られる画像(正対画像)に変換する。すなわち被写体の像が等速直線運動する画像が生成される。画像変換部13は、変換した正対画像を、処理部14に供給する。   Returning to FIG. 3, the image conversion unit 13 captures an input image supplied from the image input unit 11 based on the elevation angle of the imaging unit supplied from the elevation angle calculation unit 12 from the front. Image). That is, an image in which the subject image moves linearly at a constant speed is generated. The image conversion unit 13 supplies the converted facing image to the processing unit 14.

ここで画像変換部13の画像変換の原理について説明する。   Here, the principle of image conversion of the image conversion unit 13 will be described.

例えば図5に示すような等間隔に穴が空いた鉄板Tを、図6に示すように、カメラCAによって所定の仰角θで撮像すると、図7に示すような、穴の模様(肌理)が手前になるほどが粗く、遠ざかるほどが細かくなるような勾配を有する画像Daが得られる。なお図7中の目盛りMは、穴の模様の縦方向(肌理の勾配方向)の位置を表している。   For example, when an iron plate T having holes at equal intervals as shown in FIG. 5 is imaged at a predetermined elevation angle θ by a camera CA as shown in FIG. 6, a hole pattern (texture) as shown in FIG. An image Da having a gradient that becomes rougher toward the front and becomes finer as it moves away is obtained. Note that the scale M in FIG. 7 represents the position in the vertical direction (texture gradient direction) of the hole pattern.

このような肌理の勾配を有する画像Daを、今度は、図8に示すように、プロジェクタPJを用いて、カメラCAの仰角θと同じ分だけ傾けられたスクリーンSCに表示すると、図9に示すように、実際の鉄板T(図5)と同様に、穴の模様が一定間隔で並ぶ鉄板Tの画像Dbが映し出される。   When the image Da having such a texture gradient is displayed on the screen SC tilted by the same angle as the elevation angle θ of the camera CA, as shown in FIG. 8, this time, as shown in FIG. Thus, like the actual iron plate T (FIG. 5), the image Db of the iron plate T in which hole patterns are arranged at regular intervals is displayed.

なお図9の矢印の元は、画像Daの所定の穴の模様の縦方向の位置を表し、矢印の先は、矢印の元の画像Daの穴の模様に対応する画像Dbの穴の模様の縦方向の位置を表している。   9 represents the vertical position of the predetermined hole pattern of the image Da, and the tip of the arrow represents the hole pattern of the image Db corresponding to the hole pattern of the original image Da of the arrow. It represents the position in the vertical direction.

すなわち画像変換部13は、図9に示すような正対画像(画像Db)および入力画像(画像Da)の画素位置と仰角(θ)の幾何学的な関係を利用して、算出された仰角に基づいて、正対画像を構成する各画素に対応する入力画像の画素を検出し、検出した入力画像の画素の画像値を正対画像の画素に設定することで、正対画像を生成する。   That is, the image conversion unit 13 uses the geometric relationship between the pixel position and the elevation angle (θ) of the facing image (image Db) and the input image (image Da) as shown in FIG. Based on the image, a pixel of the input image corresponding to each pixel constituting the facing image is detected, and the image value of the detected pixel of the input image is set to the pixel of the facing image, thereby generating a facing image. .

なお消失点(正確には消失点の像)Rは、図7の例では、穴の模様の縦方向の間隔がなくなる図上、上方に存在する。また図9に示すように、消失点Rと焦点Qを結ぶ線は、被写体の面(図9の例では、スクリーンの面)と並行となることから、仰角(カメラ光軸と被写体の面の角度)は、消失点を求めることで得ることができる。すなわちこの理由から、仰角算出部12では、はじめに消失点を求め(消失点算出部22)、それを利用して仰角を算出する(仰角算出部23)。   Note that the vanishing point (more precisely, the image of the vanishing point) R exists in the upper part of the drawing in which the vertical interval of the hole pattern disappears in the example of FIG. Also, as shown in FIG. 9, the line connecting the vanishing point R and the focal point Q is parallel to the surface of the subject (the screen surface in the example of FIG. 9), so the elevation angle (the camera optical axis and the surface of the subject) (Angle) can be obtained by calculating the vanishing point. That is, for this reason, the elevation angle calculation unit 12 first obtains the vanishing point (vanishing point calculation unit 22) and calculates the elevation angle using the vanishing point (elevation angle calculation unit 23).

図3に戻り処理部14は、画像変換部13から得られた正対画像に対して、動き補償付きノイズリダクション処理を行い、その結果得られた画像を、画像変換部15に供給する。   Returning to FIG. 3, the processing unit 14 performs a noise reduction process with motion compensation on the facing image obtained from the image conversion unit 13, and supplies the image obtained as a result to the image conversion unit 15.

具体的には、動き補償付きフレームメモリ31は、画像変換部13から供給された正対画像を、所定フレーム分遅延させて、動きベクトル推定部32に供給する。動き補償付きフレームメモリ31はまた、アドレス制御部33の制御に従って、入力された正対画像について動きベクトル推定部32で推定された動きベクトルに応じた動き補償を行って記憶し、それを乗算器34に供給する。   Specifically, the frame memory 31 with motion compensation delays the facing image supplied from the image conversion unit 13 by a predetermined frame and supplies the delayed image to the motion vector estimation unit 32. The frame memory with motion compensation 31 also performs motion compensation according to the motion vector estimated by the motion vector estimation unit 32 for the input facing image according to the control of the address control unit 33, and stores it. 34.

動きベクトル推定部32は、画像変換部13から供給された正対画像と、動き補償付きフレームメモリ31から供給された正対画像(過去の画像)を利用してブロックマッチング等を行い、動きベクトルを推定し、アドレス制御部33に供給する。   The motion vector estimation unit 32 performs block matching or the like using the facing image supplied from the image conversion unit 13 and the facing image (past image) supplied from the frame memory 31 with motion compensation, and performs motion vector Is supplied to the address control unit 33.

アドレス制御部33は、動きベクトル推定部32から供給された動きベクトルに応じて、動き補償付きフレームメモリ31に記憶される正対画像をシフトさせる(動き補償)。   The address control unit 33 shifts the facing image stored in the frame memory with motion compensation 31 according to the motion vector supplied from the motion vector estimation unit 32 (motion compensation).

乗算部34は、動き補償付きフレームメモリ31から供給された正対画像(過去の正対画像)に係数k(0<k<1)を乗算し、その結果を加算器36に供給する。   The multiplication unit 34 multiplies the facing image (the past facing image) supplied from the frame memory 31 with motion compensation by a coefficient k (0 <k <1) and supplies the result to the adder 36.

乗算器35は、画像変換部13から供給された正対画像に係数(1−k)を乗算し、その結果得られた画像を加算器36に供給する。なお係数kは、推定された動きベクトルに基づいて信頼性判断が適宜行われて決定される。   The multiplier 35 multiplies the facing image supplied from the image conversion unit 13 by a coefficient (1-k), and supplies the resulting image to the adder 36. The coefficient k is determined by appropriately performing reliability judgment based on the estimated motion vector.

加算器36は、乗算器34から供給された画像と、乗算器35から供給された画像を加算し、その結果得られた画像(ノイズが除去された画像)を画像変換部15に供給する。   The adder 36 adds the image supplied from the multiplier 34 and the image supplied from the multiplier 35, and supplies the resulting image (image from which noise has been removed) to the image conversion unit 15.

画像変換部15は、処理部14から供給された正対画像(ノイズが除去された正対画像)を、仰角算出部12から供給された仰角に基づいて、入力画像と同様の肌理の勾配を有する画像(以下、出力画像と称する)に変換し、画像出力部16に供給する。   Based on the elevation angle supplied from the elevation angle calculation unit 12, the image conversion unit 15 obtains the same texture gradient as that of the input image based on the elevation image supplied from the processing unit 14. The image is converted into an image (hereinafter referred to as an output image) and supplied to the image output unit 16.

画像出力部16は、画像変換部15から供給された出力画像を、例えば図示せぬ表示部に出力して表示させたり、記録媒体に出力して記録させる。   The image output unit 16 outputs and displays the output image supplied from the image conversion unit 15 on, for example, a display unit (not shown) or outputs and records it on a recording medium.

次に、図10のフローチャートを参照して、画像処理装置1の動作を説明する。   Next, the operation of the image processing apparatus 1 will be described with reference to the flowchart of FIG.

ステップS1において、仰角算出部12(図3)は、画像入力部11から入力された入力画像から、撮像時の撮像部の仰角を算出する。ここでの処理を、図11のフローチャートと図4を参照して説明する。   In step S1, the elevation angle calculation unit 12 (FIG. 3) calculates the elevation angle of the imaging unit at the time of imaging from the input image input from the image input unit 11. This process will be described with reference to the flowchart of FIG. 11 and FIG.

ステップS11において、仰角算出部12の量子化部21(特徴量抽出部51)は、入力画像の1フレーム毎にその各画素の特徴量を抽出する。例えば各画素の色差値やエッジ強度が抽出される。なおエッジ強度を特徴量とする場合、特徴量抽出部51は、微分フィルタ(図示せず)を内蔵し、入力画像のエッジを強調してエッジ強度を抽出する。   In step S11, the quantization unit 21 (feature amount extraction unit 51) of the elevation angle calculation unit 12 extracts the feature amount of each pixel for each frame of the input image. For example, the color difference value and edge strength of each pixel are extracted. When the edge strength is a feature amount, the feature amount extraction unit 51 incorporates a differential filter (not shown) and emphasizes the edge of the input image to extract the edge strength.

ステップS12において、量子化部21の量子化部52は、ステップS11で抽出された各画素の特徴量に基づいて、入力画像を量子化する。   In step S12, the quantization unit 52 of the quantization unit 21 quantizes the input image based on the feature amount of each pixel extracted in step S11.

例えば特徴量が色差値である場合、所定の基準値と同じ色差値を有する画素の値が1とされ、それ以外の色差値を有する画素の値が0とされる。   For example, when the feature amount is a color difference value, the value of the pixel having the same color difference value as the predetermined reference value is set to 1, and the value of the pixel having the other color difference value is set to 0.

例えば図2に示した入力画像は、図12に示すように量子化される。なお図12中、白点は、値1の画素を表し、黒点は、値0の画素を表している。   For example, the input image shown in FIG. 2 is quantized as shown in FIG. In FIG. 12, a white point represents a pixel having a value of 1, and a black point represents a pixel having a value of 0.

ここで基準値を決定するための処理を、図13のフローチャートを参照して説明する。   Here, the process for determining the reference value will be described with reference to the flowchart of FIG.

ステップS21において、入力画像(例えば、1フレーム)から、所定の特徴量(この例の場合、色差値)のヒストグラムが生成される。   In step S21, a histogram of predetermined feature amounts (in this example, color difference values) is generated from the input image (for example, one frame).

ステップS22において、ステップS21で生成されたヒストグラムにおいて、度数の上位n個の色差値が選択される。   In step S22, the top n color difference values in frequency are selected in the histogram generated in step S21.

ステップS23において、ステップS22で選択されたn個の色差値の中から1個の色差値が選択され、ステップS24において、選択された色差値と同じ色差値を有する画素の位置が検出される。   In step S23, one color difference value is selected from the n color difference values selected in step S22. In step S24, the position of a pixel having the same color difference value as the selected color difference value is detected.

次にステップS25において、図14乃至図16に示す例のように、ステップS24でその位置が検出された画素の、水平方向の位置(X軸座標)の最大値と最小値の差、および垂直方向の位置(Y軸座標)の最大値と最小値の差がそれぞれ算出されるとともに、その合計値が算出される。   Next, in step S25, as in the example shown in FIGS. 14 to 16, the difference between the maximum value and the minimum value of the horizontal position (X-axis coordinates) of the pixel whose position is detected in step S24, and the vertical The difference between the maximum value and the minimum value of the direction position (Y-axis coordinates) is calculated, and the total value is calculated.

ステップS26において、ステップS22で選択されたn個の色差値のすべてがステップS23で選択されたか否かが判定され、まだ選択されていない色差値があると判定された場合、ステップS23に戻り、次の色差値が選択され、ステップS24以降の処理が同様に行われる。   In step S26, it is determined whether all of the n color difference values selected in step S22 have been selected in step S23. If it is determined that there are color difference values that have not yet been selected, the process returns to step S23. The next color difference value is selected, and the processing from step S24 is similarly performed.

ステップS26で、すべての色差値が選択されたと判定された場合、ステップS27に進み、ステップS25で算出された合計値の中で最大の合計値が得られた色差値が基準値として選択される。   If it is determined in step S26 that all the color difference values have been selected, the process proceeds to step S27, and the color difference value that provides the maximum total value among the total values calculated in step S25 is selected as the reference value. .

このようにして基準値が決定される。すなわち入力画像に、例えば比較的多く存在する色であって、入力画像全体に分布している色の色差値が基準値となり、そのような色について量子化される。   In this way, the reference value is determined. That is, for example, there are relatively many colors in the input image, and the color difference values of the colors distributed over the entire input image become reference values, and such colors are quantized.

なおここでは特徴量が色差値である場合を例として説明したが、エッジ強度等の他の特徴量についても同様にして基準値が決定される。   Although the case where the feature amount is a color difference value has been described as an example here, the reference value is similarly determined for other feature amounts such as edge strength.

図11に戻りステップS13において、仰角算出部12(消失点算出部22)は、ステップS12で得られた量子化データから消失点を算出する。   Returning to FIG. 11, in step S <b> 13, the elevation angle calculation unit 12 (vanishing point calculation unit 22) calculates the vanishing point from the quantized data obtained in step S <b> 12.

具体的には、消失点算出部22の肌理勾配算出部61は、ステップS12で得られた量子化データ(図12)から、ライン毎に、白点(肌理)の間隔の平均値(肌理勾配データ)を算出する。例えば図17に示すように、所定のラインにおいて値が1の画素a1,a2,a3,a4が並んでいる場合、その間隔の平均値が算出される。   Specifically, the texture gradient calculation unit 61 of the vanishing point calculation unit 22 determines, for each line, the average value of the white point (texture) intervals (texture gradient) from the quantized data obtained in step S12 (FIG. 12). Data). For example, as shown in FIG. 17, when pixels a1, a2, a3, and a4 having a value of 1 are arranged in a predetermined line, an average value of the intervals is calculated.

そして肌理勾配算出部61は、算出したライン毎のこの平均値AV(図18)に基づいて、図19に示すように回帰直線を設定する。すなわちこの回帰直線が肌理の勾配に相当する。   The texture gradient calculating unit 61 sets a regression line as shown in FIG. 19 based on the calculated average value AV (FIG. 18) for each line. That is, this regression line corresponds to the texture gradient.

次に消失点算出部62は、設定された回帰直線と、そのY軸(入力画像上のY軸)との交点を消失点として算出する。   Next, the vanishing point calculation unit 62 calculates an intersection point between the set regression line and the Y axis (Y axis on the input image) as a vanishing point.

消失点Rは、入力画像(図2)を見た場合の被写体の平面が無限遠方に収束する点であるので、図20に示すように入力画像を超えた位置に存在する場合もある。なお消失点RのX軸座標は、入力画像の中心点のX軸座標とする。   Since the vanishing point R is a point where the plane of the subject converges to infinity when the input image (FIG. 2) is viewed, it may exist at a position beyond the input image as shown in FIG. Note that the X-axis coordinate of the vanishing point R is the X-axis coordinate of the center point of the input image.

次にステップS14において、仰角算出部12(仰角算出部23)は、ステップS13で算出された消失点を利用して仰角を算出する。   Next, in step S14, the elevation angle calculation unit 12 (elevation angle calculation unit 23) calculates the elevation angle using the vanishing point calculated in step S13.

仰角は、図21に示すように、消失点Rと焦点Qを結ぶ直線と、結像面Zの中心点と焦点Qを結ぶ直線からなる角度と同値であるので、仰角は、式(1)に示すように算出される。   As shown in FIG. 21, the elevation angle has the same value as the angle formed by the straight line connecting the vanishing point R and the focal point Q and the straight line connecting the central point of the imaging plane Z and the focal point Q. Is calculated as shown in FIG.

Figure 0004483516
Figure 0004483516

なお式中、pは、入力画像の中心点と消失点Rの距離(図20)であり、hは、入力画像のY軸方向の大きさ(高さ)(図20)であり、rは、p/hである。またkは所定の係数である(後述)。また図21に示した幾何学関係は、図22に示すこともできる。   In the equation, p is the distance between the center point of the input image and the vanishing point R (FIG. 20), h is the size (height) in the Y-axis direction (FIG. 20) of the input image, and r is , P / h. K is a predetermined coefficient (described later). The geometric relationship shown in FIG. 21 can also be shown in FIG.

このようして仰角が算出されると図10のステップS2において、画像変換部13は、その仰角を利用して、入力画像を正対画像に変換する。   When the elevation angle is calculated in this way, in step S2 of FIG. 10, the image conversion unit 13 converts the input image into a facing image using the elevation angle.

具体的には、正対画像の画素(x1,y1)毎に、それに対応する入力画像の画素(x0,y0)が検出される(図23)。   Specifically, for each pixel (x1, y1) of the directly-facing image, the corresponding pixel (x0, y0) of the input image is detected (FIG. 23).

正対画像の画素(x1,y1)、入力画像の画素(x0,y0)、および仰角θは、図24に示すような幾何学的な関係を有しているので、正対画像の画素(x1,y1)に対応する入力画像の画素(x0,y0)は、式(2)に示すように求められる。
これを用いて、入力画像が与えられたとき被写体平面上の実際の模様を推定することができる。
The pixel (x1, y1) of the directly-facing image, the pixel (x0, y0) of the input image, and the elevation angle θ have a geometrical relationship as shown in FIG. The pixel (x0, y0) of the input image corresponding to x1, y1) is obtained as shown in equation (2).
Using this, when an input image is given, an actual pattern on the object plane can be estimated.

Figure 0004483516
Figure 0004483516

次にステップS3に進み、処理部14は、画像変換部13により変換された正対画像に対して、上述したような動き補償付きノイズリダクション処理を施する。   Next, proceeding to step S3, the processing unit 14 performs the noise reduction process with motion compensation as described above on the directly-facing image converted by the image conversion unit 13.

ステップS4において、画像変換部15は、ステップS1で算出された仰角を利用して、処理部14によりノイズリダクション処理が施された正対画像を、元の肌理の勾配を有する画像(出力画像)に変換する。   In step S4, the image conversion unit 15 uses the elevation angle calculated in step S1 to convert the facing image subjected to the noise reduction processing by the processing unit 14 into an image having an original texture gradient (output image). Convert to

具体的には、出力画像の画素(x0,y0)毎に、それに対応する正対画像(x1,y1)の画素が検出される(図25)。   Specifically, for each pixel (x0, y0) of the output image, the corresponding pixel of the facing image (x1, y1) is detected (FIG. 25).

出力画像の画素(x0,y0)、正対画像の画素(x1,y1)、および仰角θは、図26に示すような幾何学的な関係を有しているので、出力画像の画素(x0,y0)に対応する正対画像の画素(x1,y1)は、式(3)に示すように求められる。これを用いればフィルムにどのように像が写るかを知ることができる。   The pixel (x0, y0) of the output image, the pixel (x1, y1) of the directly-facing image, and the elevation angle θ have a geometrical relationship as shown in FIG. , Y0), the pixel (x1, y1) of the directly-facing image corresponding to (0, y0) is obtained as shown in Expression (3). This can be used to know how the image appears on the film.

Figure 0004483516
Figure 0004483516

次にステップS5において、画像出力部16は、画像変換部15から供給された出力画像を、表示部や記録媒体に供給する。   In step S5, the image output unit 16 supplies the output image supplied from the image conversion unit 15 to the display unit or the recording medium.

以上のような処理が1フレーム毎に繰り返し行われて、入力画像が処理される。   The above process is repeated for each frame to process the input image.

実際にカメラで撮影した画像から被写体平面上の模様を推定しようとする際、カメラの画角や原点からの距離は未知である場合が多い。正しいkおよびdの値を、それぞれk0, d0, 推定値をk1, d1とすると、推定した被写体平面上の点P(x1,y1)と実際の被写体平面上の点P(X1,Y1)との関係は、式(2)でk=k1, d=d1とし、これを式(3)でk=k0, d=d0としたものに代入することにより、式(17) となる。   When trying to estimate a pattern on a subject plane from an image actually taken by a camera, the angle of view of the camera and the distance from the origin are often unknown. If the correct k and d values are k0, d0, and the estimated values are k1, d1, respectively, the estimated point P (x1, y1) on the subject plane and the point P (X1, Y1) on the actual subject plane The relationship is expressed by equation (17) by substituting k = k1 and d = d1 in equation (2) into k = k0 and d = d0 in equation (3).

Figure 0004483516
Figure 0004483516

このことから、レンズの焦点距離 k h やカメラの原点からの距離 d が正確に求まっていなくても、推定した被写体平面上に描画した模様は、実際の被写体平面上の模様を x および y 方向に定数倍に拡大もしくは縮小したものとなる。このようにして求めた正対画像上では、多くの場合、物体は等速直線運動を行っていると考えることができる。   From this, even if the focal length kh of the lens and the distance d from the camera origin are not accurately determined, the pattern drawn on the estimated object plane is the actual pattern on the object plane in the x and y directions. Enlarged or reduced to a constant multiple. In many cases, it can be considered that the object is performing a uniform linear motion on the facing image thus obtained.

これは、簡単な作図によっても確認することが可能である(図27乃至図29)   This can be confirmed by simple drawing (FIGS. 27 to 29).

例えば図21を参照して説明すると、画角fovは、式(4)に示すように、係数kで特定され、仰角は、式(1)に示したようにその係数を含んで求められるので、画角に応じて仰角は変化する。なお図27乃至図29の例において、縦方向の拡大率をrとすると、式(5)が成立する。   For example, referring to FIG. 21, the angle of view fov is specified by a coefficient k as shown in Expression (4), and the elevation angle is obtained including the coefficient as shown in Expression (1). The elevation angle changes according to the angle of view. In the examples of FIGS. 27 to 29, if the vertical enlargement ratio is r, Expression (5) is established.

Figure 0004483516
Figure 0004483516

Figure 0004483516
Figure 0004483516

また以上においては、水平被写体を撮像した場合を例として説明したが、図30に示すように垂直被写体を撮像した場合においても、本発明を適用することができる。   In the above description, a case where a horizontal subject is imaged has been described as an example. However, the present invention can also be applied to a case where a vertical subject is imaged as shown in FIG.

この場合の画像処理装置1の構成例を図31に示す。この画像処理装置には、図3に示す画像処理装置1に、画像回転部71乃至スイッチ73がさらに設けられている。   A configuration example of the image processing apparatus 1 in this case is shown in FIG. In this image processing apparatus, the image processing apparatus 1 shown in FIG.

画像回転部71は、画像入力部11から供給された入力画像(垂直被写体像をも含む可能性のある画像)を90度回転し、その結果得られた画像(以下、回転画像と称する)を、方向決定部72およびスイッチ73に供給する。   The image rotation unit 71 rotates the input image (an image that may include a vertical subject image) supplied from the image input unit 11 by 90 degrees, and an image obtained as a result (hereinafter referred to as a rotation image). , Supplied to the direction determining unit 72 and the switch 73.

方向決定部72は、仰角算出部12から供給された信頼性情報に基づいて、スイッチ73を制御して、画像回転部71から供給される回転画像または画像入力部11から供給される入力画像を選択させ、いずれか一方の画像を仰角算出部12および画像変換部13に供給させる。   The direction determination unit 72 controls the switch 73 on the basis of the reliability information supplied from the elevation angle calculation unit 12, and receives the rotation image supplied from the image rotation unit 71 or the input image supplied from the image input unit 11. One of the images is selected and supplied to the elevation angle calculation unit 12 and the image conversion unit 13.

仰角算出部12は、仰角を算出する際に、はじめに、入力画像そのもの、および入力画像が90度回転された画像(回転画像)のいずれを利用して仰角を算出すればよいかを表す信頼性情報を生成し、方向決定部72に供給する。   When calculating the elevation angle, the elevation angle calculation unit 12 first represents reliability indicating whether the elevation angle should be calculated using either the input image itself or an image obtained by rotating the input image by 90 degrees (rotated image). Information is generated and supplied to the direction determining unit 72.

具体的には仰角算出部12は、1フレームの入力画像および回転画像のそれぞれから消失点を算出し、そのとき利用した回帰直線(図19)に対して、各肌理勾配データ(図19の例の場合、ライン毎の値が1の画素の間隔平均値)がどれだけ離れているかを算出し(分散や偏差を算出し)、それを(またはその逆数を)信頼性情報とする。   Specifically, the elevation angle calculation unit 12 calculates a vanishing point from each of the input image and the rotation image of one frame, and applies each texture gradient data (example of FIG. 19) to the regression line (FIG. 19) used at that time. In the case of (1), the distance (average value of the interval of pixels having a value of 1 for each line) is calculated (dispersion or deviation is calculated), and this is used as reliability information (or the inverse thereof).

すなわち方向決定部72は、入力画像から得られた信頼性情報と、回転画像から得られた信頼性情報を比較し、信頼性が高い方(分散や偏差が小さい方)の画像が仰角算出部12および画像変換部13に供給されるようにスイッチ73を制御する。   That is, the direction determination unit 72 compares the reliability information obtained from the input image with the reliability information obtained from the rotated image, and the image with the higher reliability (the one with the smaller variance or deviation) is the elevation angle calculation unit. 12 and the image converter 13 are controlled.

上記の方向決定処理は、所定数のフレームにつき1回行うものとする。   The above direction determination process is performed once for a predetermined number of frames.

以上のようにして、垂直被写体に対しても本発明を適用することができる。また、原理的には本発明は、水平と垂直以外の任意の角度のついた平面に対しても適用することが可能である。   As described above, the present invention can be applied to a vertical subject. In principle, the present invention can also be applied to a plane with an arbitrary angle other than horizontal and vertical.

また以上においては、仰角算出部12の量子化部21(図4)において入力画像を量子化する際に、各画素について、1個の特徴の特徴量(例えば、色差値またはエッジ強度)を利用したが、複数の特徴の特徴量を利用することができる。   Further, in the above, when the input image is quantized by the quantization unit 21 (FIG. 4) of the elevation angle calculation unit 12, one feature amount (for example, color difference value or edge strength) is used for each pixel. However, feature quantities of a plurality of features can be used.

この場合の仰角算出部12の構成例を図32に示す。この仰角算出部には、図4の仰角算出部12の量子化部21に代えて、量子化部81が設けられている。この量子化部81には、n個の特徴量抽出部51−1乃至51−nと、特徴量評価部91が設けられている。他の部分は、図4における場合と同様であるので、その説明は適宜省略する。   A configuration example of the elevation angle calculation unit 12 in this case is shown in FIG. This elevation angle calculation unit is provided with a quantization unit 81 instead of the quantization unit 21 of the elevation angle calculation unit 12 of FIG. The quantization unit 81 includes n feature amount extraction units 51-1 to 51-n and a feature amount evaluation unit 91. The other parts are the same as those in FIG. 4, and the description thereof will be omitted as appropriate.

n個の特徴量抽出部51それぞれには、入力画像が供給され、各特徴量抽出部51は、1フレーム毎にその各画素の所定の特徴量を抽出する。例えば特徴量抽出部51−1は、色差値を抽出し、特徴量抽出部51−2は、エッジ強度を抽出する。各特徴量抽出部51は、抽出した各画素の特徴量を特徴量評価部91に供給する。   An input image is supplied to each of the n feature amount extraction units 51, and each feature amount extraction unit 51 extracts a predetermined feature amount of each pixel for each frame. For example, the feature quantity extraction unit 51-1 extracts color difference values, and the feature quantity extraction unit 51-2 extracts edge strength. Each feature amount extraction unit 51 supplies the extracted feature amount of each pixel to the feature amount evaluation unit 91.

特徴量評価部91は、特徴量抽出部51から供給された特徴量に基づいて各画素の評価値を算出し、量子化部52に供給する。   The feature amount evaluation unit 91 calculates an evaluation value of each pixel based on the feature amount supplied from the feature amount extraction unit 51 and supplies the evaluation value to the quantization unit 52.

量子化部52は、特徴量評価部91から供給された各画素の評価値に基づいて、入力画像を量子化する。   The quantization unit 52 quantizes the input image based on the evaluation value of each pixel supplied from the feature amount evaluation unit 91.

このようにして複数の特徴量を利用して入力画像を量子化することができる。   In this way, the input image can be quantized using a plurality of feature amounts.

また特徴量評価部91は、各特徴Cに対して評価値Eを算出する。そして図33に示すような、利用する特徴Cに応じた重み値Wを示すテーブルを保持しておき、評価値Eを算出する際に、式(6)に示すように重み付けを行って評価値Eを算出することができる。
E=W1・E1+W2・E2+・・・+Wn・En・・・(6)
ただし、E1乃至EnはC1乃至Cnの特徴量による評価値とする。
The feature amount evaluation unit 91 calculates an evaluation value E for each feature C. Then, as shown in FIG. 33, a table indicating the weight value W corresponding to the feature C to be used is held, and when the evaluation value E is calculated, weighting is performed as shown in Expression (6) to obtain the evaluation value. E can be calculated.
E = W1 · E1 + W2 · E2 + ... + Wn · En (6)
However, E1 to En are evaluation values based on the feature amounts of C1 to Cn.

また特徴量評価部91は、図34に示すような所定の特徴(利用する特徴の全部または一部)(図34の例では、特徴C1乃至Cj)に応じた重み値W(W1乃至Wj)を示すテーブルを保持しておき、その特徴の特徴量から評価値Zを、式(7)に示すように算出する。
Z=W1・E1+W1・E2+・・・+Wj・Ej・・・(7)
Further, the feature amount evaluating unit 91 has weight values W (W1 to Wj) corresponding to predetermined features (all or a part of the features to be used) as shown in FIG. 34 (features C1 to Cj in the example of FIG. 34). And the evaluation value Z is calculated from the feature amount of the feature as shown in Expression (7).
Z = W1 · E1 + W1 · E2 + ... + Wj · Ej (7)

そして特徴量評価部91は、図35に示すような、評価値Zに応じた、所定の特徴C(利用する特徴の全部または一部(図35の例では、評価値Zを算出する際に利用されなかった特量C(j+1)乃至Cn)の重み値W(W(j+1)乃至Wn)を示すテーブルを保持しておき、その重み値Wの組みから、式(8)に示すように評価値Eを算出することもできる。
E=W(j+1)・E(j+1)+W(j+2)・E(j+2)+・・・+Wn・En・・・(8)
Then, the feature quantity evaluation unit 91, as shown in FIG. 35, determines a predetermined feature C (all or part of the feature to be used (in the example of FIG. 35, when calculating the evaluation value Z). A table indicating the weight values W (W (j + 1) to Wn) of the special quantities C (j + 1) to Cn) that are not used is held, and from the set of the weight values W, Expression (8) The evaluation value E can also be calculated as shown in FIG.
E = W (j + 1) * E (j + 1) + W (j + 2) * E (j + 2) + ... + Wn * En (8)

図36は、仰角算出部12の他の構成例を示している。この仰角算出部には、図4に示す仰角算出部12の量子化部21および消失点算出部22に代えて、消失点算出部101が設けられている。他の部分は、図4における場合と同様である。   FIG. 36 shows another configuration example of the elevation angle calculation unit 12. In this elevation angle calculation unit, a vanishing point calculation unit 101 is provided instead of the quantization unit 21 and the vanishing point calculation unit 22 of the elevation angle calculation unit 12 shown in FIG. The other parts are the same as in FIG.

この仰角算出部12の動作を、図37のフローチャートを参照して説明する。   The operation of the elevation angle calculation unit 12 will be described with reference to the flowchart of FIG.

ステップS51において、消失点算出部101は、繰り返し回数Aを設定する。   In step S51, the vanishing point calculation unit 101 sets the number of repetitions A.

ステップS52において、消失点算出部101は、乱数 i, j, s を発生させる。   In step S52, the vanishing point calculation unit 101 generates random numbers i, j, s.

ステップS53において、消失点算出部101は、図39に示すように、入力画像から所定の座標(i,j)を中心とした、一辺の長さがSの正方形(以下、サブ画像と称する)を切り出す。   In step S53, the vanishing point calculation unit 101, as shown in FIG. 39, has a square with one side length S (hereinafter referred to as a sub image) centered on a predetermined coordinate (i, j) from the input image. Cut out.

サブ画像の中心座標(i,j)は、式(9)に示すように決められる。式中、wは、入力画像のX軸方向の長さであり、hは、Y軸方向の長さである(図38)。random()は、0以上1未満のランダムな実数を発生させる乱数発生器(図示せず)の出力で、計算の度に異なった値となる。すなわちiの計算に利用される乱数とjの計算に利用される乱数は異なる。
i=w×random()
j=h×random()・・・・(9)
The center coordinates (i, j) of the sub-image are determined as shown in Expression (9). In the equation, w is the length of the input image in the X-axis direction, and h is the length of the Y-axis direction (FIG. 38). random () is an output of a random number generator (not shown) that generates a random real number greater than or equal to 0 and less than 1, and takes a different value for each calculation. That is, the random number used for calculating i is different from the random number used for calculating j.
i = w × random ()
j = h × random () (9)

またサブ画像の一辺の長さsは、式(10)で算出される。式中、logは、自然対数であり、expは、指数関数であり、min(a,b)は、aとbの小さい方を示す関数である。   Further, the length s of one side of the sub-image is calculated by Expression (10). In the formula, log is a natural logarithm, exp is an exponential function, and min (a, b) is a function indicating the smaller of a and b.

Figure 0004483516
Figure 0004483516

なおサブ画像が入力画像からはみ出る場合、はみ出なくなるまで別の乱数でi、j、sが、それぞれが計算される。   When the sub image protrudes from the input image, i, j, and s are calculated with different random numbers until they do not protrude.

次に、ステップS54において、消失点算出部101は、(i,j)を中心に入力画像から切り出した上下それぞれSの幅の帯状の部分である、部分画像の各画素(p,q)について、サブ画像とマッチングを行う。具体的には、消失点算出部101は、部分画像の各画素(p,q)を中心に、一辺の長さSの正方形と切り出し、サブ画像との間で、全画素についての、RGBそれぞれの画素値の差の絶対値の合計値V(p,q)を算出する。この処理では絶対値以外にも二乗値も用いられる。   Next, in step S54, the vanishing point calculation unit 101 applies each pixel (p, q) of the partial image, which is a strip-shaped portion having a width of S above and below cut out from the input image with (i, j) as the center. And matching with sub-images. Specifically, the vanishing point calculation unit 101 cuts out a square of one side length S around each pixel (p, q) of the partial image, and RGB for all pixels between the sub-images. The total value V (p, q) of the absolute values of the pixel value differences is calculated. In this process, a square value is used in addition to the absolute value.

ステップS55において、消失点算出部101は、ステップS54で算出した各画素の合計値V(p,q)に基づいて、Y座標毎の特徴量U(p)を特定する。   In step S55, the vanishing point calculation unit 101 specifies the feature amount U (p) for each Y coordinate based on the total value V (p, q) of each pixel calculated in step S54.

具体的には、Y座標毎の合計値V(p,q)の最小値が特徴量U(p)とされる(式(11))。   Specifically, the minimum value of the total value V (p, q) for each Y coordinate is set as the feature amount U (p) (formula (11)).

Figure 0004483516
Figure 0004483516

またY座標毎の合計値V(p,q)の平均値が特徴量U(p)とされる(式(12))。   Further, the average value of the total value V (p, q) for each Y coordinate is defined as the feature amount U (p) (formula (12)).

Figure 0004483516
Figure 0004483516

またY座標毎の合計値V(p,q)のうち、q=sにおける値が特徴量U(p)とされる(式(13))。   Of the total value V (p, q) for each Y coordinate, the value at q = s is defined as the feature amount U (p) (formula (13)).

Figure 0004483516
Figure 0004483516

ステップS56において、消失点算出部101は、ステップS55で算出された特徴量Uから肌理勾配データaを算出する。   In step S56, the vanishing point calculation unit 101 calculates the texture gradient data a from the feature amount U calculated in step S55.

例えば特徴量Uのアクティビティ値が(式(14))、肌理勾配データaとされる。   For example, the activity value of the feature amount U is (formula (14)), which is texture gradient data a.

Figure 0004483516
Figure 0004483516

また特徴量Uの自己相関関数X(t)を利用して、肌理勾配データaを算出することもできる。   The texture gradient data a can also be calculated using the autocorrelation function X (t) of the feature amount U.

具体的には、式(15)を満たすt1を自己相関の半値とし(図40)、これが肌理勾配データaとされる。   Specifically, t1 satisfying the equation (15) is set as a half value of the autocorrelation (FIG. 40), and this is the texture gradient data a.

Figure 0004483516
Figure 0004483516

また自己相関関数X(t)がゼロになる回数(ゼロクロス)の逆数が肌理勾配データaとされる(図41)。ゼロクロス回数が0の場合は、a=0とする。   Further, the reciprocal of the number of times that the autocorrelation function X (t) becomes zero (zero cross) is the texture gradient data a (FIG. 41). If the number of zero crossings is 0, a = 0.

また式(16)により求められる相関アクティビティが肌理勾配データaとされる。   Moreover, the correlation activity calculated | required by Formula (16) is made into the texture gradient data a.

Figure 0004483516
Figure 0004483516

以上のようにして、部分画像の肌理勾配データaが算出されると、ステップS57に進む。   When the texture gradient data a of the partial image is calculated as described above, the process proceeds to step S57.

ここでは、上記各試行毎に、部分画像に対してX軸座標毎の特徴量Uが算出されるとともに、その特徴量Uから肌理勾配データaが求められる。   Here, for each trial, a feature value U for each X-axis coordinate is calculated for the partial image, and texture gradient data a is obtained from the feature value U.

消失点算出部101は、図42に示すような、肌理勾配データaを利用して、分割領域毎に、1つの点をプロットする。   The vanishing point calculation unit 101 plots one point for each divided region using the texture gradient data a as shown in FIG.

上記ステップSS52乃至S57までの試行を1試行とする。この次にステップS58に進み、上記試行が、所定回数Aだけ繰り返されたかどうかが判定され、そうであればステップS59に、そうでなければステップS52に進む。   The trial from step SS52 to S57 is defined as one trial. Next, the process proceeds to step S58, where it is determined whether the trial has been repeated a predetermined number of times A. If so, the process proceeds to step S59, and if not, the process proceeds to step S52.

ステップS58で試行が所定の回数繰り返されたと判定された場合、ステップS59において、消失点算出部101は、図43に示すように、上記プロットの集合を、垂直方向にnの区分に分け、それぞれの区分の中に含まれるプロットのみを対象として、肌理勾配データaの平均値やメディアンをA(n)とし、j方向の中間の中間値をj(n)として、その座標で特定される点をプロットする。   If it is determined in step S58 that the trial has been repeated a predetermined number of times, in step S59, the vanishing point calculation unit 101 divides the set of plots into n sections in the vertical direction as shown in FIG. The point specified by the coordinates, with the average value or median of the texture gradient data a as A (n) and the intermediate value in the j direction as j (n) Plot.

さらに消失点算出部101は、このプロットを利用して、回帰直線を設定し、そのY軸との交点を消失点とする。   Further, the vanishing point calculation unit 101 uses this plot to set a regression line and sets the intersection with the Y axis as the vanishing point.

ステップS60において、仰角算出部23は、ステップS59で算出された消失点を利用して、仰角を算出する。   In step S60, the elevation angle calculation unit 23 calculates the elevation angle using the vanishing point calculated in step S59.

図44乃至図48は、上記処理の例を示している。   44 to 48 show an example of the above processing.

図49は、仰角算出部12の他の構成例を示している。この仰角算出部には、図4に示す仰角算出部12の量子化部21および消失点算出部22に代えて、ブロック化部111と消失点算出部112が設けられている。他の部分は、図4における場合と同様である。   FIG. 49 shows another configuration example of the elevation angle calculation unit 12. This elevation angle calculation unit is provided with a blocking unit 111 and a vanishing point calculation unit 112 instead of the quantization unit 21 and the vanishing point calculation unit 22 of the elevation angle calculation unit 12 illustrated in FIG. The other parts are the same as in FIG.

ブロック化部111は、入力画像を、肌理の勾配を利用してブロックサイズを決定する。   The blocking unit 111 determines a block size of the input image using a texture gradient.

ブロック化部111の構成について説明する。ブロック化メモリ121は、アドレス制御部125の制御に従って、入力画像の一部(ブロック)を切り出して、特徴量算出部122に供給する。   The configuration of the blocking unit 111 will be described. The block memory 121 cuts out a part (block) of the input image under the control of the address control unit 125 and supplies it to the feature amount calculation unit 122.

特徴量算出部122は、ブロック化メモリ121から供給されたブロックから所定の特徴量を算出する。例えばブロック内の画素の輝度値やエッジ強度のヒストグラムの分布、RGBヒストグラムの各成分の差分、またはブロック内の画素の輝度値やエッジ強度の最大値、最小値、若しくはダイナミックレンジが特徴量として算出される。   The feature amount calculation unit 122 calculates a predetermined feature amount from the block supplied from the block memory 121. For example, the distribution of luminance values and edge intensity histograms of pixels in a block, the difference between each component of an RGB histogram, or the maximum, minimum, or dynamic range of the luminance values and edge intensity of pixels in a block are calculated as feature quantities. Is done.

特徴量判定部123は、特徴量算出部122から供給されたブロックの特徴量に応じてブロック化メモリ121で切り出されるブロックのサイズを小さくさせたり、そのときのブロックの大きさを記憶部124に記憶させる。   The feature amount determination unit 123 reduces the size of the block extracted by the block memory 121 according to the feature amount of the block supplied from the feature amount calculation unit 122, or stores the block size at that time in the storage unit 124. Remember.

アドレス制御部125は、特徴量判定部123からの判定結果に基づいて、切り出されるブロックのサイズを変更させて、入力画像全体からブロックを切り出させる。   The address control unit 125 changes the size of the block to be cut out based on the determination result from the feature amount determination unit 123, and cuts out the block from the entire input image.

消失点算出部112は、ブロック化部111で特定されたブロックのサイズを利用して、消失点を算出する。   The vanishing point calculation unit 112 calculates the vanishing point using the block size specified by the blocking unit 111.

次に、この仰角算出部12の動作を、図50のフローチャートを参照して説明する。   Next, the operation of the elevation angle calculation unit 12 will be described with reference to the flowchart of FIG.

ステップS71において、アドレス制御部125は、ブロックサイズを初期値に設定し、ステップS72において、ブロック化メモリ121を制御して、ブロックをラスタ順の所定の位置に設定する。   In step S71, the address control unit 125 sets the block size to an initial value, and in step S72, controls the block memory 121 to set the block to a predetermined position in the raster order.

ステップS73において、ブロック化メモリ121は、設定されたブロックを切り出す。ここで切り出されたブロックは特徴量算出部122に供給される。   In step S73, the blocked memory 121 cuts out the set block. The block cut out here is supplied to the feature amount calculation unit 122.

ステップS74において、特徴量算出部122は、ブロック化メモリ121から供給されたブロックの特徴量を算出する。   In step S <b> 74, the feature amount calculation unit 122 calculates the feature amount of the block supplied from the block memory 121.

次にステップS75において、特徴量判定部123は、特徴量算出部122により算出された特徴量と基準特徴量(初期ブロックサイズの特徴量もしくは直前ブロックサイズの特徴量)との差が所定の閾値より大きいか否かを判定し、それ以下であると判定した場合、ステップS76に進み、その旨をアドレス制御部125に通知する。これにより、アドレス制御部125は、切り出すブロックのサイズを1サイズ分だけ小さくする。   In step S75, the feature amount determination unit 123 determines that the difference between the feature amount calculated by the feature amount calculation unit 122 and the reference feature amount (the feature amount of the initial block size or the feature amount of the immediately preceding block size) is a predetermined threshold value. It is determined whether or not it is greater than that, and if it is determined that it is less than that, the process proceeds to step S76, and the address controller 125 is notified accordingly. Thereby, the address control unit 125 reduces the size of the block to be cut out by one size.

その後処理は、ステップS73に戻り、それ以降の処理が行われる。   Thereafter, the processing returns to step S73, and the subsequent processing is performed.

ステップS75で、閾値より大きいと判定された場合、ステップS77に進み、特徴量判定部123は、そのときのブロックサイズを記憶部124に記憶する。   If it is determined in step S75 that it is larger than the threshold value, the process advances to step S77, and the feature amount determination unit 123 stores the block size at that time in the storage unit 124.

次にステップS78において、アドレス制御部125は、入力画像全体からブロックを切り出したか否かを判定し、切り出していないと判定した場合、ステップS71に戻り、ブロックサイズを初期サイズに設定するとともに、ステップS72において、ブロックを次のラスタ順の位置に移動させる。そしてそれ以降の処理が同様にして行われる。   Next, in step S78, the address control unit 125 determines whether or not the block has been cut out from the entire input image. If it is determined that the block has not been cut out, the process returns to step S71, sets the block size to the initial size, In S72, the block is moved to the next raster order position. The subsequent processing is performed in the same manner.

ステップS78で、入力画像全体からブロックが切り出されたと判定された場合、ステップS79に進む。   If it is determined in step S78 that the block has been cut out from the entire input image, the process proceeds to step S79.

ステップS79において、消失点算出部112は、特定されたブロックについて、ライン毎にブロックサイズの平均値を算出する。   In step S79, the vanishing point calculation unit 112 calculates an average value of block sizes for each line for the identified block.

次にステップS80において、消失点算出部112は、算出した平均値を利用して回帰直線を設定し、消失点を算出する。   In step S80, the vanishing point calculation unit 112 sets a regression line using the calculated average value, and calculates the vanishing point.

ステップS81において、仰角算出部23は、ステップS80で算出された消失点を利用して、仰角を算出する。   In step S81, the elevation angle calculation unit 23 calculates the elevation angle using the vanishing point calculated in step S80.

その後処理は終了する。   Thereafter, the process ends.

上述した一連の処理は、ハードウエアにより実現させることもできるが、ソフトウエアにより実現させることもできる。一連の処理をソフトウエアにより実現する場合には、そのソフトウエアを構成するプログラムがコンピュータにインストールされ、そのプログラムがコンピュータで実行されることより、上述した画像処理装置1が機能的に実現される。   The series of processes described above can be realized by hardware, but can also be realized by software. When a series of processing is realized by software, a program constituting the software is installed in a computer, and the program is executed by the computer, whereby the above-described image processing apparatus 1 is functionally realized. .

図51は、コンピュータ501の構成例を示している。CPU(Central Processing Unit)511にはバス515を介して入出力インタフェース516が接続されており、CPU511は、入出力インタフェース516を介して、ユーザから、キーボード、マウスなどよりなる入力部518から指令が入力されると、例えば、ROM(Read Only Memory)512、ハードディスク514、またはドライブ520に装着される磁気ディスク531、光ディスク532、光磁気ディスク533、若しくは半導体メモリ534などの記録媒体に格納されているプログラムを、RAM(Random Access Memory)513にロードして実行する。これにより、上述した各種の処理が行われる。さらに、CPU511は、その処理結果を、例えば、入出力インタフェース516を介して、LCD(Liquid Crystal Display)などよりなる出力部517に必要に応じて出力する。なお、プログラムは、ハードディスク514やROM512に予め記憶しておき、コンピュータ501と一体的にユーザに提供したり、磁気ディスク531、光ディスク532、光磁気ディスク533、半導体メモリ534等のパッケージメディアとして提供したり、衛星、ネットワーク等から通信部519を介してハードディスク514に提供することができる。   FIG. 51 shows a configuration example of the computer 501. An input / output interface 516 is connected to a CPU (Central Processing Unit) 511 via a bus 515, and the CPU 511 receives a command from an input unit 518 such as a keyboard and a mouse via the input / output interface 516. When input, it is stored in a recording medium such as a read only memory (ROM) 512, a hard disk 514, or a magnetic disk 531, an optical disk 532, a magneto-optical disk 533, or a semiconductor memory 534 mounted in the drive 520. The program is loaded into a RAM (Random Access Memory) 513 and executed. Thereby, the various processes described above are performed. Further, the CPU 511 outputs the processing result to an output unit 517 such as an LCD (Liquid Crystal Display) via the input / output interface 516 as necessary. The program is stored in advance in the hard disk 514 or the ROM 512 and provided to the user integrally with the computer 501 or as a package medium such as the magnetic disk 531, the optical disk 532, the magneto-optical disk 533, and the semiconductor memory 534. Or can be provided to the hard disk 514 via the communication unit 519 from a satellite, a network, or the like.

なお、本明細書において、記録媒体により提供されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program provided by the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

被写体の例を示す図である。It is a figure which shows the example of a to-be-photographed object. 撮像画像の例を示す図である。It is a figure which shows the example of a captured image. 本発明を適用した画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus to which this invention is applied. 図3の仰角算出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the elevation angle calculation part of FIG. 被写体の他の例を示す図である。It is a figure which shows the other example of a to-be-photographed object. 画像変換の原理を説明する図である。It is a figure explaining the principle of image conversion. 撮像画像の他の例を示す図である。It is a figure which shows the other example of a captured image. 画像変換の原理を説明する他の図である。It is another figure explaining the principle of image conversion. 画像変換の原理を説明する他の図である。It is another figure explaining the principle of image conversion. 画像処理装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of an image processing apparatus. 図10のステップS1の処理を説明するフローチャートである。It is a flowchart explaining the process of step S1 of FIG. 肌理を説明する図である。It is a figure explaining a texture. 肌理を特定する際の基準値を決定する処理を説明するフローチャートである。It is a flowchart explaining the process which determines the reference value at the time of specifying a texture. 肌理を特定する際の基準値を決定する処理を説明する図である。It is a figure explaining the process which determines the reference value at the time of specifying a texture. 肌理を特定する際の基準値を決定する処理を説明する他の図である。It is another figure explaining the process which determines the reference value at the time of specifying a texture. 肌理を特定する際の基準値を決定する処理を説明する他の図である。It is another figure explaining the process which determines the reference value at the time of specifying a texture. 回帰直線データを算出する方法を説明する図である。It is a figure explaining the method of calculating regression line data. 回帰直線データを算出する方法を説明する他の図である。It is another figure explaining the method of calculating regression line data. 回帰直線を設定する処理を説明する図である。It is a figure explaining the process which sets a regression line. 消失点の算出方法を説明する図である。It is a figure explaining the calculation method of a vanishing point. 仰角を算出する方法を説明する図である。It is a figure explaining the method of calculating an elevation angle. 仰角を算出する方法を説明する他の図である。It is another figure explaining the method of calculating an elevation angle. 画像変換を説明する図である。It is a figure explaining image conversion. 画像変換を説明する他の図である。It is another figure explaining image conversion. 画像変換を説明する他の図である。It is another figure explaining image conversion. 画像変換を説明する他の図である。It is another figure explaining image conversion. 画像変換を説明する他の図である。It is another figure explaining image conversion. 画像変換を説明する他の図である。It is another figure explaining image conversion. 画像変換を説明する他の図である。It is another figure explaining image conversion. 撮像画像の他の例を示す図である。It is a figure which shows the other example of a captured image. 本発明を適用した画像処理装置の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the image processing apparatus to which this invention is applied. 仰角算出部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of an elevation angle calculation part. 重み値が設定されたテーブルの例を示す図である。It is a figure which shows the example of the table in which the weight value was set. 重み値が設定された他のテーブルの例を示す図である。It is a figure which shows the example of the other table to which the weight value was set. 重み値が設定されたテーブルの例を示す図である。It is a figure which shows the example of the table in which the weight value was set. 仰角算出部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of an elevation angle calculation part. 図26の仰角算出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する図である。It is a figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 図26の仰角算出部の動作を説明する他の図である。It is another figure explaining operation | movement of the elevation angle calculation part of FIG. 仰角算出部の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of an elevation angle calculation part. 図49の仰角算出部の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the elevation angle calculation part of FIG. コンピュータ501構成例を示すブロック図である。And FIG. 20 is a block diagram illustrating a configuration example of a computer 501.

符号の説明Explanation of symbols

1 画像処理装置, 11 画像入力部, 12 仰角算出部, 13 画像変換部, 14 処理部, 15 画像変換部, 16 画像出力部, 21 量子化部, 22 消失点算出部, 23 仰角算出部, 51 特徴量抽出部, 52 量子化部, 61 肌理勾配算出部, 62 消失点算出部, 71 画像回転部, 72 方向決定部, 73 スイッチ, 81 量子化部, 91 特徴量評価部, 101 特徴量抽出部, 102 消失点算出部, 111 ブロック化部, 121 ブロック化メモリ, 122 特徴量計算部, 123 特徴量判定部, 124 記憶部, 125 アドレス制御部, 11 無線部, 12 符号復号処理部, 13 制御部, 14 記憶部, 15 データベース部, 16 表示部, 17 音声信号発生部, 18 スピーカ   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 11 Image input part, 12 Elevation angle calculation part, 13 Image conversion part, 14 Processing part, 15 Image conversion part, 16 Image output part, 21 Quantization part, 22 Vanishing point calculation part, 23 Elevation angle calculation part, 51 feature amount extraction unit, 52 quantization unit, 61 texture gradient calculation unit, 62 vanishing point calculation unit, 71 image rotation unit, 72 direction determination unit, 73 switch, 81 quantization unit, 91 feature amount evaluation unit, 101 feature amount Extraction unit, 102 vanishing point calculation unit, 111 blocking unit, 121 blocked memory, 122 feature quantity calculation unit, 123 feature quantity determination unit, 124 storage unit, 125 address control unit, 11 radio unit, 12 code decoding processing unit, 13 control unit, 14 storage unit, 15 database unit, 16 display unit, 17 audio signal generation unit, 8 speaker

Claims (7)

所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像を、正面から撮像された場合を想定した正対画像に変換する第1の変換手段と、
換された前記正対画像における被写体の等速直線運動に相当する動きベクトルを推定し、推定した前記動きベクトルに基づいて、前記正対画像に対して動き補償付きノイズリダクション処理を実行する実行手段と、
前記動き補償付きノイズリダクション処理が施された前記正対画像を、前記入力画像と同じ前記所定の仰角で撮像された場合を想定した画像に変換する第2の変換手段と
を備え画像処理装置。
A first conversion means for converting an input image obtained as a result of being imaged at a predetermined elevation angle by an imaging device that performs a linear motion at a constant velocity in a predetermined direction into a facing image assuming that the image is captured from the front;
Estimating a motion vector corresponding to a uniform linear motion of the subject in the conversion by said confronting image, said estimated based on the motion vector, performs motion compensated noise reduction process on the confronting image run Means,
Said confronting image the motion compensated noise reduction processing has been performed, the input image and the same said predetermined elevation angle image processing apparatus Ru and a second converting means for converting the image obtained by assuming captured by .
前記第1の変換手段は、
前記入力画像の消失点を算出する消失点算出手段と、
前記消失点に基づいて、仰角を算出する仰角算出手段と、
前記仰角に基づいて、前記入力画像を、前記正対画像に変換する第3の変換手段と
を備える
求項1に記載の画像処理装置。
The first conversion means includes
Vanishing point calculating means for calculating the vanishing point of the input image;
An elevation angle calculating means for calculating an elevation angle based on the vanishing point;
And a third conversion means for converting the input image into the facing image based on the elevation angle.
The image processing apparatus according to Motomeko 1.
前記仰角算出手段は、前記消失点と前記撮像機器の焦点を通る直線と、前記撮像機器の結像面の中心と前記焦点を結ぶ直線からなる角度を、前記仰角とする
求項1に記載の画像処理装置。
The elevation angle calculation means uses the angle formed by a straight line passing through the vanishing point and the focal point of the imaging device and a straight line connecting the center of the imaging plane of the imaging device and the focal point as the elevation angle.
The image processing apparatus according to Motomeko 1.
前記消失点算出手段は、
前記入力画像を、所定の特徴に基づいて量子化する量子化手段と、
前記量子化手段により量子化された前記入力画像に基づいて、前記消失点を算出する消失点算出手段と
を備える
求項3に記載の画像処理装置。
The vanishing point calculating means is
Quantization means for quantizing the input image based on a predetermined feature;
Vanishing point calculating means for calculating the vanishing point based on the input image quantized by the quantizing means.
The image processing apparatus according to Motomeko 3.
前記特徴量は、肌理の勾配を形成する特徴である
求項4に記載の画像処理装置。
The feature amount is a feature that forms a texture gradient.
The image processing apparatus according to Motomeko 4.
所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像のノイズを除去する画像処理装置の画像処理方法において、
前記画像処理装置による、
所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像を、正面から撮像された場合を想定した正対画像に変換する第1の変換ステップと、
換された前記正対画像における被写体の等速直線運動に相当する動きベクトルを推定し、推定した前記動きベクトルに基づいて、前記正対画像に対して動き補償付きノイズリダクション処理を実行する実行ステップと、
前記動き補償付きノイズリダクション処理が施された前記正対画像を、前記入力画像と同じ前記所定の仰角で撮像された場合を想定した画像に変換する第2の変換ステップと
を含画像処理方法。
In an image processing method of an image processing apparatus that removes noise of an input image obtained as a result of being imaged at a predetermined elevation angle by an imaging device that moves linearly at a constant speed in a predetermined direction,
According to the image processing device,
A first conversion step of converting an input image obtained as a result of being imaged at a predetermined elevation angle by an imaging device that performs a linear motion at a constant velocity in a predetermined direction into a directly-facing image that is assumed to be captured from the front;
Estimating a motion vector corresponding to a uniform linear motion of the subject in the conversion by said confronting image, said estimated based on the motion vector, performs motion compensated noise reduction process on the confronting image run Steps,
Said confronting image the motion compensated noise reduction processing has been performed, the second conversion step and method including an image processing to convert the same predetermined image assuming a case where it is captured in elevation between the input image .
所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像のノイズを除去する画像処理装置の制御用のプログラムであって、
所定の方向に等速直線運動する撮像機器によって、所定の仰角で撮像された結果得られた入力画像を、正面から撮像された場合を想定した正対画像に変換する第1の変換ステップと、
換された前記正対画像における被写体の等速直線運動に相当する動きベクトルを推定し、推定した前記動きベクトルに基づいて、前記正対画像に対して動き補償付きノイズリダクション処理を実行する実行ステップと、
前記動き補償付きノイズリダクション処理が施された前記正対画像を、前記入力画像と同じ前記所定の仰角で撮像された場合を想定した画像に変換する第2の変換ステップと
含む処理を画像処理装置のコンピュータに実行させるプログラム。
A program for controlling an image processing apparatus that removes noise in an input image obtained as a result of being imaged at a predetermined elevation angle by an imaging device that moves linearly at a constant speed in a predetermined direction,
A first conversion step of converting an input image obtained as a result of being imaged at a predetermined elevation angle by an imaging device that performs a linear motion at a constant velocity in a predetermined direction into a directly-facing image that is assumed to be captured from the front;
Estimating a motion vector corresponding to a uniform linear motion of the subject in the conversion by said confronting image, said estimated based on the motion vector, performs motion compensated noise reduction process on the confronting image run Steps,
It said confronting image the motion compensated noise reduction processing has been performed, the processed image processing and a second conversion step of converting when taken at the same predetermined angle of elevation to the assumed image and the input image A program that is executed by a computer of a device .
JP2004297029A 2004-10-08 2004-10-08 Image processing apparatus and method, and program Expired - Fee Related JP4483516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004297029A JP4483516B2 (en) 2004-10-08 2004-10-08 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004297029A JP4483516B2 (en) 2004-10-08 2004-10-08 Image processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2006107407A JP2006107407A (en) 2006-04-20
JP4483516B2 true JP4483516B2 (en) 2010-06-16

Family

ID=36377032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004297029A Expired - Fee Related JP4483516B2 (en) 2004-10-08 2004-10-08 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4483516B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5066219B2 (en) * 2010-05-11 2012-11-07 株式会社補修技術設計 Concrete plate deterioration inspection system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4596215B2 (en) * 2001-06-19 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
FR2828977B1 (en) * 2001-08-21 2003-12-05 Nextream Sa DEVICE AND METHOD FOR ESTIMATING THE NOISE LEVEL, NOISE REDUCTION SYSTEM AND ENCODING SYSTEM COMPRISING SUCH A DEVICE
JP2003101822A (en) * 2001-09-25 2003-04-04 Ricoh Co Ltd Image input device

Also Published As

Publication number Publication date
JP2006107407A (en) 2006-04-20

Similar Documents

Publication Publication Date Title
US8754963B2 (en) Processing images having different focus
US8750638B2 (en) Image processing apparatus, image processing method, and computer program
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US11062464B2 (en) Image processing apparatus, method, and storage medium to derive optical flow
US8385732B2 (en) Image stabilization
JP7032871B2 (en) Image processing equipment and image processing methods, programs, storage media
CN111091590A (en) Image processing method, image processing device, storage medium and electronic equipment
KR20110032157A (en) Method for producing high definition video from low definition video
JP2010152521A (en) Apparatus and method for performing stereographic processing to image
JP2017033372A (en) Person recognition device and program therefor
US9036938B2 (en) Image processing apparatus, image processing method, and program
JP2000232384A (en) Data processor and data processing method
JP4483516B2 (en) Image processing apparatus and method, and program
JP5095263B2 (en) Image evaluation apparatus and image evaluation program
KR100698828B1 (en) An illumination reflectance model based image distortion elimination method
JP2016164709A (en) Image processing device, imaging apparatus, and image processing program
Dosselmann et al. A formal assessment of the structural similarity index
JP4556114B2 (en) Image processing apparatus and method, and program
JP4438589B2 (en) Image processing apparatus and method, and program
JP4483517B2 (en) Image processing apparatus and method, and program
JP2005339535A (en) Calculation of dissimilarity measure
US9215474B2 (en) Block-based motion estimation method
CN111091513B (en) Image processing method, device, computer readable storage medium and electronic equipment
JP4453202B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP6854629B2 (en) Image processing device, image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100315

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees