JP4483517B2 - Image processing apparatus and method, and program - Google Patents
Image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP4483517B2 JP4483517B2 JP2004297032A JP2004297032A JP4483517B2 JP 4483517 B2 JP4483517 B2 JP 4483517B2 JP 2004297032 A JP2004297032 A JP 2004297032A JP 2004297032 A JP2004297032 A JP 2004297032A JP 4483517 B2 JP4483517 B2 JP 4483517B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- image
- elevation angle
- input image
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title description 34
- 238000004364 calculation method Methods 0.000 claims description 99
- 238000003384 imaging method Methods 0.000 claims description 32
- 230000000903 blocking effect Effects 0.000 claims description 17
- 238000003672 processing method Methods 0.000 claims description 2
- 238000006243 chemical reaction Methods 0.000 description 35
- 238000011156 evaluation Methods 0.000 description 17
- 238000013139 quantization Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 239000003086 colorant Substances 0.000 description 3
- 229910052742 iron Inorganic materials 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011946 reduction process Methods 0.000 description 3
- 238000005311 autocorrelation function Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置および方法、並びにプログラムに関し、被写体像の動きを利用した画像処理に最適な画像処理装置および方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, method, and program, and more particularly to an image processing apparatus, method, and program that are optimal for image processing using movement of a subject image.
例えば真上から見ると図1に示すような花畑を、ビデオカメラによって、一定の仰角で撮像すると、図2に示すように、所定の模様が手前になるほど粗く、遠ざかるほど細かくなる映像が得られる。なお以下において、一定の仰角で撮像された場合に、手前になる程粗く、遠ざかるほど細かくなる傾向を有する模様の単位を、肌理と称し、その傾向の程度を、肌理の勾配と称する。 For example, when a flower field as shown in FIG. 1 is imaged at a certain elevation angle with a video camera when viewed from directly above, an image that is coarser as the predetermined pattern is closer to the front and becomes finer as it is further away as shown in FIG. . In the following description, a unit of a pattern having a tendency to become coarser toward the front and become finer as it moves away when imaged at a certain elevation angle is referred to as texture, and the degree of the tendency is referred to as texture gradient.
ところでビデオカメラでは、通常、撮像の結果得られた画像について、被写体像の動きを利用したノイズリダクション等の処理を施して、録画等がなされる。 By the way, in a video camera, recording or the like is usually performed on an image obtained as a result of imaging by performing processing such as noise reduction using the motion of a subject image.
具体的には、図2に示したように一定の仰角を伴って、水平方向に直線運動するビデオカメラにより撮像された被写体の像は等速直線運動になっていないので、撮像画像の中の等速直線運動と近似し得る部分が適宜検出されて、その部分に対応する1つ前の画像の部分に動き補償がなされ、検出された部分と足し合わされることで行われる。 Specifically, as shown in FIG. 2, the image of the subject imaged by a video camera that moves linearly in a horizontal direction with a certain elevation angle does not have a uniform linear motion. A portion that can be approximated to a constant velocity linear motion is appropriately detected, motion compensation is performed on the portion of the previous image corresponding to that portion, and the detected portion is added.
しかしながら一定の仰角で撮像された画像上の被写体像は、等速直線運動していないので、結局、正確に動き補償を行うことができず、ノイズリダクション等の処理も適切に行うことができない問題があった。 However, since the subject image on the image captured at a constant elevation angle does not move at a constant linear velocity, it is impossible to accurately perform motion compensation, and processing such as noise reduction cannot be performed properly. was there.
本発明はこのような状況に鑑みてなされたものであり、被写体像の動きを利用した処理を適切に行うことができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to appropriately perform processing using movement of a subject image.
本発明の画像処理装置は、撮像手段により被写体を所定の仰角で撮像して得られた入力画像をブロック化して、入力画像から所定の大きさのブロックを切り出すブロック化手段と、入力画像のブロックから、ブロック内の画素の輝度値の最大値、最小値、若しくはダイナミックレンジ、画素のエッジ強度の最大値、最小値、若しくはダイナミックレンジ、画素の輝度値のヒストグラムの分布、または画素のエッジ強度のヒストグラムの分布を、ブロックの特徴量として抽出する特徴量算出手段と、入力画像のブロックのそれぞれについて、ブロックの特徴量と所定の基準値との差が予め定めた閾値以上となるように、ブロックの大きさをより小さい大きさに変更して、ブロック化手段に変更後の大きさのブロックを切り出させる特徴量判定手段と、入力画像上の所定方向に並ぶ画素からなるラインごとに、ライン上に並ぶブロックの大きさの平均値を算出し、ラインごとの平均値を利用して回帰直線を設定し、消失点を算出する消失点算出手段と、消失点を利用して仰角を算出する仰角算出手段と、仰角を利用して、撮像手段により被写体を正面から撮像したときに得られる正対画像に、入力画像を変換する画像処理手段とを備えることを特徴とする。 An image processing apparatus according to the present invention includes a blocking unit that blocks an input image obtained by imaging a subject at a predetermined elevation angle by an imaging unit and cuts out a block having a predetermined size from the input image, and a block of the input image From the maximum value, minimum value, or dynamic range of pixel luminance values in a block, maximum value, minimum value, or dynamic range of pixel edge strength, histogram distribution of pixel luminance values, or pixel edge strength The feature amount calculation means for extracting the histogram distribution as the feature amount of the block, and the block so that the difference between the block feature amount and the predetermined reference value is equal to or greater than a predetermined threshold value for each block of the input image The feature amount determination means that changes the size of the block to a smaller size and causes the blocking means to cut out the block of the changed size. For each line of pixels arranged in a predetermined direction on the input image, calculate the average value of the size of the blocks arranged on the line, set the regression line using the average value for each line, and set the vanishing point The vanishing point calculating means for calculating, the elevation angle calculating means for calculating the elevation angle using the vanishing point, and the facing image obtained when the subject is imaged from the front by the imaging means using the elevation angle, the input image is And image processing means for converting .
本発明の画像処理方法またはプログラムは、ブロック化手段が、撮像手段により被写体を所定の仰角で撮像して得られた入力画像をブロック化して、入力画像から所定の大きさのブロックを切り出すブロック化ステップと、入力画像のブロックから、ブロック内の画素の輝度値の最大値、最小値、若しくはダイナミックレンジ、画素のエッジ強度の最大値、最小値、若しくはダイナミックレンジ、画素の輝度値のヒストグラムの分布、または画素のエッジ強度のヒストグラムの分布を、ブロックの特徴量として抽出する特徴量算出ステップと、入力画像のブロックのそれぞれについて、ブロックの特徴量と所定の基準値との差が予め定めた閾値以上となるように、ブロックの大きさをより小さい大きさに変更して、ブロック化手段に変更後の大きさのブロックを切り出させる特徴量判定ステップと、入力画像上の所定方向に並ぶ画素からなるラインごとに、ライン上に並ぶブロックの大きさの平均値を算出し、ラインごとの平均値を利用して回帰直線を設定し、消失点を算出する消失点算出ステップと、消失点を利用して仰角を算出する仰角算出ステップと、仰角を利用して、撮像手段により被写体を正面から撮像したときに得られる正対画像に、入力画像を変換する画像処理ステップとを含むことを特徴とする。 According to the image processing method or program of the present invention, the blocking unit blocks the input image obtained by imaging the subject at a predetermined elevation angle by the imaging unit and cuts out a block having a predetermined size from the input image. Step and histogram distribution of the maximum, minimum, or dynamic range of pixel brightness values, maximum, minimum, or dynamic range of pixel edge intensity, and pixel brightness values from the input image block Alternatively, for each of the blocks of the input image, a feature amount calculating step for extracting the distribution of the pixel edge intensity histogram as a block feature amount, and for each of the blocks of the input image, a difference between the block feature amount and a predetermined reference value is a predetermined threshold value. Change the size of the block to a smaller size so that it becomes the above, and change to the blocking means For the feature amount determination step that cuts out the block of size, and for each line consisting of pixels arranged in a predetermined direction on the input image, the average value of the size of the block arranged on the line is calculated, and the average value for each line is used A vanishing point calculating step for setting a regression line and calculating a vanishing point, an elevation angle calculating step for calculating an elevation angle using the vanishing point, and an imaging means for imaging the subject from the front using the elevation angle And an image processing step of converting the input image into the facing image obtained in the above.
本発明の画像処理装置および方法、並びにプログラムにおいては、撮像手段により被写体を所定の仰角で撮像して得られた入力画像がブロック化されて、入力画像から所定の大きさのブロックが切り出され、入力画像のブロックから、ブロック内の画素の輝度値の最大値、最小値、若しくはダイナミックレンジ、画素のエッジ強度の最大値、最小値、若しくはダイナミックレンジ、画素の輝度値のヒストグラムの分布、または画素のエッジ強度のヒストグラムの分布が、ブロックの特徴量として抽出され、入力画像のブロックのそれぞれについて、ブロックの特徴量と所定の基準値との差が予め定めた閾値以上となるように、ブロックの大きさがより小さい大きさに変更されて、変更後の大きさのブロックが切り出され、入力画像上の所定方向に並ぶ画素からなるラインごとに、ライン上に並ぶブロックの大きさの平均値が算出され、ラインごとの平均値が利用されて回帰直線が設定され、消失点が算出され、消失点が利用されて仰角が算出され、仰角が利用されて、撮像手段により被写体を正面から撮像したときに得られる正対画像に、入力画像が変換される。 In the image processing apparatus, method, and program of the present invention, the input image obtained by imaging the subject at a predetermined elevation angle by the imaging means is blocked, and a block having a predetermined size is cut out from the input image. From the block of the input image, the maximum value, minimum value, or dynamic range of the luminance values of the pixels in the block, the maximum value, minimum value, or dynamic range of the pixel edge strength, the histogram distribution of the pixel luminance values, or pixels The edge intensity histogram distribution is extracted as a block feature value, and for each block of the input image, the difference between the block feature value and a predetermined reference value is equal to or greater than a predetermined threshold value. The size is changed to a smaller size, and the block of the changed size is cut out. For each line consisting of pixels lined up, the average value of the size of the blocks arranged on the line is calculated, the regression line is set using the average value for each line, the vanishing point is calculated, and the vanishing point is used. The elevation angle is calculated, and the elevation angle is used to convert the input image into a facing image obtained when the subject is imaged from the front by the imaging means.
本発明によれば、消失点を用いて画像処理を行うことができる。 According to the present invention, image processing can be performed using vanishing points.
以下に本発明の実施の形態を説明するが、本明細書に記載の発明と、発明の実施の形態との対応関係を例示すると、次のようになる。この記載は、本明細書に記載されている発明をサポートする実施の形態が本明細書に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. The correspondence relationship between the invention described in this specification and the embodiments of the invention is exemplified as follows. This description is intended to confirm that the embodiments supporting the invention described in this specification are described in this specification. Therefore, although there is an embodiment which is described in the embodiment of the invention but is not described here as corresponding to the invention, it means that the embodiment is not It does not mean that it does not correspond to the invention. Conversely, even if an embodiment is described herein as corresponding to an invention, that means that the embodiment does not correspond to an invention other than the invention. Absent.
さらに、この記載は、本明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、本明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。 Further, this description does not mean all the inventions described in this specification. In other words, this description is for the invention described in the present specification, which is not claimed in this application, that is, for the invention that will be applied for in the future or that will appear and be added by amendment. It does not deny existence.
本発明の画像処理装置は、撮像手段により被写体を所定の仰角で撮像して得られた入力画像をブロック化して、入力画像から所定の大きさのブロックを切り出すブロック化手段(例えば、図49のブロック化メモリ121)と、入力画像のブロックから、ブロック内の画素の輝度値の最大値、最小値、若しくはダイナミックレンジ、画素のエッジ強度の最大値、最小値、若しくはダイナミックレンジ、画素の輝度値のヒストグラムの分布、または画素のエッジ強度のヒストグラムの分布を、ブロックの特徴量として抽出する特徴量算出手段(例えば、図49の特徴量算出部122)と、入力画像のブロックのそれぞれについて、ブロックの特徴量と所定の基準値との差が予め定めた閾値以上となるように、ブロックの大きさをより小さい大きさに変更して、ブロック化手段に変更後の大きさのブロックを切り出させる特徴量判定手段(例えば、図49の特徴量判定部123)と、入力画像上の所定方向に並ぶ画素からなるラインごとに、ライン上に並ぶブロックの大きさの平均値を算出し、ラインごとの平均値を利用して回帰直線を設定し、消失点を算出する消失点算出手段(例えば、図49の消失点算出部112)と、消失点を利用して仰角を算出する仰角算出手段(例えば、図49の仰角算出部23)と、仰角を利用して、撮像手段により被写体を正面から撮像したときに得られる正対画像に、入力画像を変換する画像処理手段(例えば、図3の画像変換部13)とを備えることを特徴とする。
The image processing apparatus according to the present invention blocks an input image obtained by imaging a subject at a predetermined elevation angle by an imaging unit , and blocks a predetermined size block from the input image (for example, FIG. 49). Blocked memory 121), the maximum value, minimum value, or dynamic range of the luminance values of the pixels in the block from the input image block, the maximum value, minimum value, or dynamic range of the pixel edge strength, and the luminance value of the pixels For each of the feature amount calculation means (for example, the feature
図3は、本発明を適用した画像処理装置1の構成例を示している。画像処理装置1は、図2に示したような一定の仰角を伴って水平方向に直線運動するビデオカメラにより撮像された結果得られた画像(一定の肌理の勾配を有する画像)を、正面から撮像された画像(図2の例では、真上から撮像された画像(図1))(肌理の勾配がない画像)(以下、正対画像と称する)に変換する。すなわち被写体の像が画像中でも等速直線運動となるように変換される。
FIG. 3 shows a configuration example of the
そして画像処理装置1は、正対画像全体に対して、例えば動き補償付きノイズリダクション処理を行う。すなわち正対画像中では被写体の像が等速直線運動になっているので、正確な動き補償を行うことができ、その結果ノイズリダクション等を適切に行うことができる。
Then, the
画像処理装置1は、処理の結果得られた画像を、元の肌理の勾配を有する画像に戻し、例えばそれを図示せぬ記録媒体や表示部等に出力する。
The
画像処理装置1の構成について説明する。
The configuration of the
画像入力部11は、図示せぬ撮像部によって撮像された結果得られた画像を入力する。例えば、図2に示すような、撮像部によって、一定の仰角を伴って水平方向に直線運動するビデオカメラにより撮像された画像が入力される。
The
画像入力部11は、入力した入力画像を、仰角算出部12および画像変換部13に供給する。
The
仰角算出部12は、画像入力部11から供給された入力画像から、その画像の撮像時の撮像部の仰角を算出し(例えば、フレーム毎に算出し)、画像変換部13および画像変換部15に供給する。
The elevation
仰角算出部12は、図4に示すように構成されている。量子化部21は、画像入力部11から供給された入力画像をフレーム毎に量子化し、消失点算出部22に供給する。
The elevation
消失点算出部22は、量子化部21から供給された量子化データに基づいて消失点(撮像画像上の座標)を算出し、仰角算出部23に供給する。
The vanishing
消失点とは、被写体の平面が無限遠方に収束する点であり、この例の場合、肌理の勾配から求められる。 The vanishing point is a point where the plane of the subject converges to infinity, and in this case, it is obtained from the texture gradient.
仰角算出部23は、消失点算出部22から供給された消失点の座標を利用して、入力画像の撮像時の撮像部の仰角を算出し、その算出結果を画像変換部13に供給する。
The elevation
なお量子化部21乃至仰角算出部23の構成および処理の詳細については後述する。
Details of the configuration and processing of the quantizing
図3に戻り画像変換部13は、仰角算出部12から供給された撮像部の仰角に基づいて、画像入力部11から供給された入力画像を、正面から撮像した場合に得られる画像(正対画像)に変換する。すなわち被写体の像が等速直線運動する画像が生成される。画像変換部13は、変換した正対画像を、処理部14に供給する。
Returning to FIG. 3, the
ここで画像変換部13の画像変換の原理について説明する。
Here, the principle of image conversion of the
例えば図5に示すような等間隔に穴が空いた鉄板Tを、図6に示すように、カメラCAによって所定の仰角θで撮像すると、図7に示すような、穴の模様(肌理)が手前になるほどが粗く、遠ざかるほどが細かくなるような勾配を有する画像Daが得られる。なお図7中の目盛りMは、穴の模様の縦方向(肌理の勾配方向)の位置を表している。 For example, when an iron plate T having holes at equal intervals as shown in FIG. 5 is imaged at a predetermined elevation angle θ by a camera CA as shown in FIG. 6, a hole pattern (texture) as shown in FIG. An image Da having a gradient that becomes rougher toward the front and becomes finer as it moves away is obtained. Note that the scale M in FIG. 7 represents the position in the vertical direction (texture gradient direction) of the hole pattern.
このような肌理の勾配を有する画像Daを、今度は、図8に示すように、プロジェクタPJを用いて、カメラCAの仰角θと同じ分だけ傾けられたスクリーンSCに表示すると、図9に示すように、実際の鉄板T(図5)と同様に、穴の模様が一定間隔で並ぶ鉄板Tの画像Dbが映し出される。 When the image Da having such a texture gradient is displayed on the screen SC tilted by the same angle as the elevation angle θ of the camera CA, as shown in FIG. 8, this time, as shown in FIG. Thus, like the actual iron plate T (FIG. 5), the image Db of the iron plate T in which hole patterns are arranged at regular intervals is displayed.
なお図9の矢印の元は、画像Daの所定の穴の模様の縦方向の位置を表し、矢印の先は、矢印の元の画像Daの穴の模様に対応する画像Dbの穴の模様の縦方向の位置を表している。 9 represents the vertical position of the predetermined hole pattern of the image Da, and the tip of the arrow represents the hole pattern of the image Db corresponding to the hole pattern of the original image Da of the arrow. It represents the position in the vertical direction.
すなわち画像変換部13は、図9に示すような正対画像(画像Db)および入力画像(画像Da)の画素位置と仰角(θ)の幾何学的な関係を利用して、算出された仰角に基づいて、正対画像を構成する各画素に対応する入力画像の画素を検出し、検出した入力画像の画素の画像値を正対画像の画素に設定することで、正対画像を生成する。
That is, the
なお消失点(正確には消失点の像)Rは、図7の例では、穴の模様の縦方向の間隔がなくなる図上、上方に存在する。また図9に示すように、消失点Rと焦点Qを結ぶ線は、被写体の面(図9の例では、スクリーンの面)と並行となることから、仰角(カメラ光軸と被写体の面の角度)は、消失点を求めることで得ることができる。すなわちこの理由から、仰角算出部12では、はじめに消失点を求め(消失点算出部22)、それを利用して仰角を算出する(仰角算出部23)。
Note that the vanishing point (more precisely, the image of the vanishing point) R exists in the upper part of the drawing in which the vertical interval of the hole pattern disappears in the example of FIG. Also, as shown in FIG. 9, the line connecting the vanishing point R and the focal point Q is parallel to the surface of the subject (the screen surface in the example of FIG. 9), so the elevation angle (the camera optical axis and the surface of the subject) (Angle) can be obtained by calculating the vanishing point. That is, for this reason, the elevation
図3に戻り処理部14は、画像変換部13から得られた正対画像に対して、動き補償付きノイズリダクション処理を行い、その結果得られた画像を、画像変換部15に供給する。
Returning to FIG. 3, the
具体的には、動き補償付きフレームメモリ31は、画像変換部13から供給された正対画像を、所定フレーム分遅延させて、動きベクトル推定部32に供給する。動き補償付きフレームメモリ31はまた、アドレス制御部33の制御に従って、入力された正対画像について動きベクトル推定部32で推定された動きベクトルに応じた動き補償を行って記憶し、それを乗算器34に供給する。
Specifically, the
動きベクトル推定部32は、画像変換部13から供給された正対画像と、動き補償付きフレームメモリ31から供給された正対画像(過去の画像)を利用してブロックマッチング等を行い、動きベクトルを推定し、アドレス制御部33に供給する。
The motion
アドレス制御部33は、動きベクトル推定部32から供給された動きベクトルに応じて、動き補償付きフレームメモリ31に記憶される正対画像をシフトさせる(動き補償)。
The
乗算部34は、動き補償付きフレームメモリ31から供給された正対画像(過去の正対画像)に係数k(0<k<1)を乗算し、その結果を加算器36に供給する。
The
乗算器35は、画像変換部13から供給された正対画像に係数(1−k)を乗算し、その結果得られた画像を加算器36に供給する。なお係数kは、推定された動きベクトルに基づいて信頼性判断が適宜行われて決定される。
The
加算器36は、乗算器34から供給された画像と、乗算器35から供給された画像を加算し、その結果得られた画像(ノイズが除去された画像)を画像変換部15に供給する。
The
画像変換部15は、処理部14から供給された正対画像(ノイズが除去された正対画像)を、仰角算出部12から供給された仰角に基づいて、入力画像と同様の肌理の勾配を有する画像(以下、出力画像と称する)に変換し、画像出力部16に供給する。
Based on the elevation angle supplied from the elevation
画像出力部16は、画像変換部15から供給された出力画像を、例えば図示せぬ表示部に出力して表示させたり、記録媒体に出力して記録させる。
The
次に、図10のフローチャートを参照して、画像処理装置1の動作を説明する。
Next, the operation of the
ステップS1において、仰角算出部12(図3)は、画像入力部11から入力された入力画像から、撮像時の撮像部の仰角を算出する。ここでの処理を、図11のフローチャートと図4を参照して説明する。
In step S1, the elevation angle calculation unit 12 (FIG. 3) calculates the elevation angle of the imaging unit at the time of imaging from the input image input from the
ステップS11において、仰角算出部12の量子化部21(特徴量抽出部51)は、入力画像の1フレーム毎にその各画素の特徴量を抽出する。例えば各画素の色差値やエッジ強度が抽出される。なおエッジ強度を特徴量とする場合、特徴量抽出部51は、微分フィルタ(図示せず)を内蔵し、入力画像のエッジを強調してエッジ強度を抽出する。
In step S11, the quantization unit 21 (feature amount extraction unit 51) of the elevation
ステップS12において、量子化部21の量子化部52は、ステップS11で抽出された各画素の特徴量に基づいて、入力画像を量子化する。
In step S12, the
例えば特徴量が色差値である場合、所定の基準値と同じ色差値を有する画素の値が1とされ、それ以外の色差値を有する画素の値が0とされる。 For example, when the feature amount is a color difference value, the value of the pixel having the same color difference value as the predetermined reference value is set to 1, and the value of the pixel having the other color difference value is set to 0.
例えば図2に示した入力画像は、図12に示すように量子化される。なお図12中、白点は、値1の画素を表し、黒点は、値0の画素を表している。 For example, the input image shown in FIG. 2 is quantized as shown in FIG. In FIG. 12, a white point represents a pixel having a value of 1, and a black point represents a pixel having a value of 0.
ここで基準値を決定するための処理を、図13のフローチャートを参照して説明する。 Here, the process for determining the reference value will be described with reference to the flowchart of FIG.
ステップS21において、入力画像(例えば、1フレーム)から、所定の特徴量(この例の場合、色差値)のヒストグラムが生成される。 In step S21, a histogram of predetermined feature amounts (in this example, color difference values) is generated from the input image (for example, one frame).
ステップS22において、ステップS21で生成されたヒストグラムにおいて、度数の上位n個の色差値が選択される。 In step S22, the top n color difference values in frequency are selected in the histogram generated in step S21.
ステップS23において、ステップS22で選択されたn個の色差値の中から1個の色差値が選択され、ステップS24において、選択された色差値と同じ色差値を有する画素の位置が検出される。 In step S23, one color difference value is selected from the n color difference values selected in step S22. In step S24, the position of a pixel having the same color difference value as the selected color difference value is detected.
次にステップS25において、図14乃至図16に示す例のように、ステップS24でその位置が検出された画素の、水平方向の位置(X軸座標)の最大値と最小値の差、および垂直方向の位置(Y軸座標)の最大値と最小値の差がそれぞれ算出されるとともに、その合計値が算出される。 Next, in step S25, as in the example shown in FIGS. 14 to 16, the difference between the maximum value and the minimum value of the horizontal position (X-axis coordinates) of the pixel whose position is detected in step S24, and the vertical The difference between the maximum value and the minimum value of the direction position (Y-axis coordinates) is calculated, and the total value is calculated.
ステップS26において、ステップS22で選択されたn個の色差値のすべてがステップS23で選択されたか否かが判定され、まだ選択されていない色差値があると判定された場合、ステップS23に戻り、次の色差値が選択され、ステップS24以降の処理が同様に行われる。 In step S26, it is determined whether all of the n color difference values selected in step S22 have been selected in step S23. If it is determined that there are color difference values that have not yet been selected, the process returns to step S23. The next color difference value is selected, and the processing from step S24 is similarly performed.
ステップS26で、すべての色差値が選択されたと判定された場合、ステップS27に進み、ステップS25で算出された合計値の中で最大の合計値が得られた色差値が基準値として選択される。 If it is determined in step S26 that all the color difference values have been selected, the process proceeds to step S27, and the color difference value that provides the maximum total value among the total values calculated in step S25 is selected as the reference value. .
このようにして基準値が決定される。すなわち入力画像に、例えば比較的多く存在する色であって、入力画像全体に分布している色の色差値が基準値となり、そのような色について量子化される。 In this way, the reference value is determined. That is, for example, there are relatively many colors in the input image, and the color difference values of the colors distributed over the entire input image become reference values, and such colors are quantized.
なおここでは特徴量が色差値である場合を例として説明したが、エッジ強度等の他の特徴量についても同様にして基準値が決定される。 Although the case where the feature amount is a color difference value has been described as an example here, the reference value is similarly determined for other feature amounts such as edge strength.
図11に戻りステップS13において、仰角算出部12(消失点算出部22)は、ステップS12で得られた量子化データから消失点を算出する。 Returning to FIG. 11, in step S <b> 13, the elevation angle calculation unit 12 (vanishing point calculation unit 22) calculates the vanishing point from the quantized data obtained in step S <b> 12.
具体的には、消失点算出部22の肌理勾配算出部61は、ステップS12で得られた量子化データ(図12)から、ライン毎に、白点(肌理)の間隔の平均値(肌理勾配データ)を算出する。例えば図17に示すように、所定のラインにおいて値が1の画素a1,a2,a3,a4が並んでいる場合、その間隔の平均値が算出される。
Specifically, the texture
そして肌理勾配算出部61は、算出したライン毎のこの平均値AV(図18)に基づいて、図19に示すように回帰直線を設定する。すなわちこの回帰直線が肌理の勾配に相当する。
The texture
次に消失点算出部62は、設定された回帰直線と、そのY軸(入力画像上のY軸)との交点を消失点として算出する。
Next, the vanishing
消失点Rは、入力画像(図2)を見た場合の被写体の平面が無限遠方に収束する点であるので、図20に示すように入力画像を超えた位置に存在する場合もある。なお消失点RのX軸座標は、入力画像の中心点のX軸座標とする。 Since the vanishing point R is a point where the plane of the subject converges to infinity when the input image (FIG. 2) is viewed, it may exist at a position beyond the input image as shown in FIG. Note that the X-axis coordinate of the vanishing point R is the X-axis coordinate of the center point of the input image.
次にステップS14において、仰角算出部12(仰角算出部23)は、ステップS13で算出された消失点を利用して仰角を算出する。 Next, in step S14, the elevation angle calculation unit 12 (elevation angle calculation unit 23) calculates the elevation angle using the vanishing point calculated in step S13.
仰角は、図21に示すように、消失点Rと焦点Qを結ぶ直線と、結像面Zの中心点と焦点Qを結ぶ直線からなる角度と同値であるので、仰角は、式(1)に示すように算出される。 As shown in FIG. 21, the elevation angle has the same value as the angle formed by the straight line connecting the vanishing point R and the focal point Q and the straight line connecting the central point of the imaging plane Z and the focal point Q. Is calculated as shown in FIG.
なお式中、pは、入力画像の中心点と消失点Rの距離(図20)であり、hは、入力画像のY軸方向の大きさ(高さ)(図20)であり、rは、p/hである。またkは所定の係数である(後述)。また図21に示した幾何学関係は、図22に示すこともできる。 In the equation, p is the distance between the center point of the input image and the vanishing point R (FIG. 20), h is the size (height) in the Y-axis direction (FIG. 20) of the input image, and r is , P / h. K is a predetermined coefficient (described later). The geometric relationship shown in FIG. 21 can also be shown in FIG.
このようして仰角が算出されると図10のステップS2において、画像変換部13は、その仰角を利用して、入力画像を正対画像に変換する。
When the elevation angle is calculated in this way, in step S2 of FIG. 10, the
具体的には、正対画像の画素(x1,y1)毎に、それに対応する入力画像の画素(x0,y0)が検出される(図23)。 Specifically, for each pixel (x1, y1) of the directly-facing image, the corresponding pixel (x0, y0) of the input image is detected (FIG. 23).
正対画像の画素(x1,y1)、入力画像の画素(x0,y0)、および仰角θは、図24に示すような幾何学的な関係を有しているので、正対画像の画素(x1,y1)に対応する入力画像の画素(x0,y0)は、式(2)に示すように求められる。
これを用いて、入力画像が与えられたとき被写体平面上の実際の模様を推定することができる。
The pixel (x1, y1) of the directly-facing image, the pixel (x0, y0) of the input image, and the elevation angle θ have a geometrical relationship as shown in FIG. The pixel (x0, y0) of the input image corresponding to x1, y1) is obtained as shown in equation (2).
Using this, when an input image is given, an actual pattern on the object plane can be estimated.
次にステップS3に進み、処理部14は、画像変換部13により変換された正対画像に対して、上述したような動き補償付きノイズリダクション処理を施する。
Next, proceeding to step S3, the
ステップS4において、画像変換部15は、ステップS1で算出された仰角を利用して、処理部14によりノイズリダクション処理が施された正対画像を、元の肌理の勾配を有する画像(出力画像)に変換する。
In step S4, the
具体的には、出力画像の画素(x0,y0)毎に、それに対応する正対画像(x1,y1)の画素が検出される(図25)。 Specifically, for each pixel (x0, y0) of the output image, the corresponding pixel of the facing image (x1, y1) is detected (FIG. 25).
出力画像の画素(x0,y0)、正対画像の画素(x1,y1)、および仰角θは、図26に示すような幾何学的な関係を有しているので、出力画像の画素(x0,y0)に対応する正対画像の画素(x1,y1)は、式(3)に示すように求められる。これを用いればフィルムにどのように像が写るかを知ることができる。 The pixel (x0, y0) of the output image, the pixel (x1, y1) of the directly-facing image, and the elevation angle θ have a geometrical relationship as shown in FIG. , Y0), the pixel (x1, y1) of the directly-facing image corresponding to (0, y0) is obtained as shown in Expression (3). This can be used to know how the image appears on the film.
次にステップS5において、画像出力部16は、画像変換部15から供給された出力画像を、表示部や記録媒体に供給する。
In step S5, the
以上のような処理が1フレーム毎に繰り返し行われて、入力画像が処理される。 The above process is repeated for each frame to process the input image.
実際にカメラで撮影した画像から被写体平面上の模様を推定しようとする際、カメラの画角や原点からの距離は未知である場合が多い。正しいkおよびdの値を、それぞれk0, d0, 推定値をk1, d1とすると、推定した被写体平面上の点P(x1,y1)と実際の被写体平面上の点P(X1,Y1)との関係は、式(2)でk=k1, d=d1とし、これを式(3)でk=k0, d=d0としたものに代入することにより、式(17) となる。 When trying to estimate a pattern on a subject plane from an image actually taken by a camera, the angle of view of the camera and the distance from the origin are often unknown. If the correct k and d values are k0, d0, and the estimated values are k1, d1, respectively, the estimated point P (x1, y1) on the subject plane and the point P (X1, Y1) on the actual subject plane The relationship is expressed by equation (17) by substituting k = k1 and d = d1 in equation (2) into k = k0 and d = d0 in equation (3).
このことから、レンズの焦点距離 k h やカメラの原点からの距離 d が正確に求まっていなくても、推定した被写体平面上に描画した模様は、実際の被写体平面上の模様を x および y 方向に定数倍に拡大もしくは縮小したものとなる。このようにして求めた正対画像上では、多くの場合、物体は等速直線運動を行っていると考えることができる。 From this, even if the focal length kh of the lens and the distance d from the camera origin are not accurately determined, the pattern drawn on the estimated object plane is the actual pattern on the object plane in the x and y directions. Enlarged or reduced to a constant multiple. In many cases, it can be considered that the object is performing a uniform linear motion on the facing image thus obtained.
これは、簡単な作図によっても確認することが可能である(図27乃至図29) This can be confirmed by simple drawing (FIGS. 27 to 29).
例えば図21を参照して説明すると、画角fovは、式(4)に示すように、係数kで特定され、仰角は、式(1)に示したようにその係数を含んで求められるので、画角に応じて仰角は変化する。なお図27乃至図29の例において、縦方向の拡大率をrとすると、式(5)が成立する。 For example, referring to FIG. 21, the angle of view fov is specified by a coefficient k as shown in Expression (4), and the elevation angle is obtained including the coefficient as shown in Expression (1). The elevation angle changes according to the angle of view. In the examples of FIGS. 27 to 29, if the vertical enlargement ratio is r, Expression (5) is established.
また以上においては、水平被写体を撮像した場合を例として説明したが、図30に示すように垂直被写体を撮像した場合においても、本発明を適用することができる。 In the above description, a case where a horizontal subject is imaged has been described as an example. However, the present invention can also be applied to a case where a vertical subject is imaged as shown in FIG.
この場合の画像処理装置1の構成例を図31に示す。この画像処理装置には、図3に示す画像処理装置1に、画像回転部71乃至スイッチ73がさらに設けられている。
A configuration example of the
画像回転部71は、画像入力部11から供給された入力画像(垂直被写体像をも含む可能性のある画像)を90度回転し、その結果得られた画像(以下、回転画像と称する)を、方向決定部72およびスイッチ73に供給する。
The
方向決定部72は、仰角算出部12から供給された信頼性情報に基づいて、スイッチ73を制御して、画像回転部71から供給される回転画像または画像入力部11から供給される入力画像を選択させ、いずれか一方の画像を仰角算出部12および画像変換部13に供給させる。
The
仰角算出部12は、仰角を算出する際に、はじめに、入力画像そのもの、および入力画像が90度回転された画像(回転画像)のいずれを利用して仰角を算出すればよいかを表す信頼性情報を生成し、方向決定部72に供給する。
When calculating the elevation angle, the elevation
具体的には仰角算出部12は、1フレームの入力画像および回転画像のそれぞれから消失点を算出し、そのとき利用した回帰直線(図19)に対して、各肌理勾配データ(図19の例の場合、ライン毎の値が1の画素の間隔平均値)がどれだけ離れているかを算出し(分散や偏差を算出し)、それを(またはその逆数を)信頼性情報とする。
Specifically, the elevation
すなわち方向決定部72は、入力画像から得られた信頼性情報と、回転画像から得られた信頼性情報を比較し、信頼性が高い方(分散や偏差が小さい方)の画像が仰角算出部12および画像変換部13に供給されるようにスイッチ73を制御する。
That is, the
上記の方向決定処理は、所定数のフレームにつき1回行うものとする。 The above direction determination process is performed once for a predetermined number of frames.
以上のようにして、垂直被写体に対しても本発明を適用することができる。また、原理的には本発明は、水平と垂直以外の任意の角度のついた平面に対しても適用することが可能である。 As described above, the present invention can be applied to a vertical subject. In principle, the present invention can also be applied to a plane with an arbitrary angle other than horizontal and vertical.
また以上においては、仰角算出部12の量子化部21(図4)において入力画像を量子化する際に、各画素について、1個の特徴の特徴量(例えば、色差値またはエッジ強度)を利用したが、複数の特徴の特徴量を利用することができる。
Further, in the above, when the input image is quantized by the quantization unit 21 (FIG. 4) of the elevation
この場合の仰角算出部12の構成例を図32に示す。この仰角算出部には、図4の仰角算出部12の量子化部21に代えて、量子化部81が設けられている。この量子化部81には、n個の特徴量抽出部51−1乃至51−nと、特徴量評価部91が設けられている。他の部分は、図4における場合と同様であるので、その説明は適宜省略する。
A configuration example of the elevation
n個の特徴量抽出部51それぞれには、入力画像が供給され、各特徴量抽出部51は、1フレーム毎にその各画素の所定の特徴量を抽出する。例えば特徴量抽出部51−1は、色差値を抽出し、特徴量抽出部51−2は、エッジ強度を抽出する。各特徴量抽出部51は、抽出した各画素の特徴量を特徴量評価部91に供給する。
An input image is supplied to each of the n feature
特徴量評価部91は、特徴量抽出部51から供給された特徴量に基づいて各画素の評価値を算出し、量子化部52に供給する。
The feature
量子化部52は、特徴量評価部91から供給された各画素の評価値に基づいて、入力画像を量子化する。
The
このようにして複数の特徴量を利用して入力画像を量子化することができる。 In this way, the input image can be quantized using a plurality of feature amounts.
また特徴量評価部91は、各特徴Cに対して評価値Eを算出する。そして図33に示すような、利用する特徴Cに応じた重み値Wを示すテーブルを保持しておき、評価値Eを算出する際に、式(6)に示すように重み付けを行って評価値Eを算出することができる。
E=W1・E1+W2・E2+・・・+Wn・En・・・(6)
ただし、E1乃至EnはC1乃至Cnの特徴量による評価値とする。
The feature
E = W1 · E1 + W2 · E2 + ... + Wn · En (6)
However, E1 to En are evaluation values based on the feature amounts of C1 to Cn.
また特徴量評価部91は、図34に示すような所定の特徴(利用する特徴の全部または一部)(図34の例では、特徴C1乃至Cj)に応じた重み値W(W1乃至Wj)を示すテーブルを保持しておき、その特徴の特徴量から評価値Zを、式(7)に示すように算出する。
Z=W1・E1+W1・E2+・・・+Wj・Ej・・・(7)
Further, the feature
Z = W1 · E1 + W1 · E2 + ... + Wj · Ej (7)
そして特徴量評価部91は、図35に示すような、評価値Zに応じた、所定の特徴C(利用する特徴の全部または一部(図35の例では、評価値Zを算出する際に利用されなかった特量C(j+1)乃至Cn)の重み値W(W(j+1)乃至Wn)を示すテーブルを保持しておき、その重み値Wの組みから、式(8)に示すように評価値Eを算出することもできる。
E=W(j+1)・E(j+1)+W(j+2)・E(j+2)+・・・+Wn・En・・・(8)
Then, the feature
E = W (j + 1) * E (j + 1) + W (j + 2) * E (j + 2) + ... + Wn * En (8)
図36は、仰角算出部12の他の構成例を示している。この仰角算出部には、図4に示す仰角算出部12の量子化部21および消失点算出部22に代えて、消失点算出部101が設けられている。他の部分は、図4における場合と同様である。
FIG. 36 shows another configuration example of the elevation
この仰角算出部12の動作を、図37のフローチャートを参照して説明する。
The operation of the elevation
ステップS51において、消失点算出部101は、繰り返し回数Aを設定する。
In step S51, the vanishing
ステップS52において、消失点算出部101は、乱数 i, j, s を発生させる。
In step S52, the vanishing
ステップS53において、消失点算出部101は、図39に示すように、入力画像から所定の座標(i,j)を中心とした、一辺の長さがSの正方形(以下、サブ画像と称する)を切り出す。
In step S53, the vanishing
サブ画像の中心座標(i,j)は、式(9)に示すように決められる。式中、wは、入力画像のX軸方向の長さであり、hは、Y軸方向の長さである(図38)。random()は、0以上1未満のランダムな実数を発生させる乱数発生器(図示せず)の出力で、計算の度に異なった値となる。すなわちiの計算に利用される乱数とjの計算に利用される乱数は異なる。
i=w×random()
j=h×random()・・・・(9)
The center coordinates (i, j) of the sub-image are determined as shown in Expression (9). In the equation, w is the length of the input image in the X-axis direction, and h is the length of the Y-axis direction (FIG. 38). random () is an output of a random number generator (not shown) that generates a random real number greater than or equal to 0 and less than 1, and takes a different value for each calculation. That is, the random number used for calculating i is different from the random number used for calculating j.
i = w × random ()
j = h × random () (9)
またサブ画像の一辺の長さsは、式(10)で算出される。式中、logは、自然対数であり、expは、指数関数であり、min(a,b)は、aとbの小さい方を示す関数である。 Further, the length s of one side of the sub-image is calculated by Expression (10). In the formula, log is a natural logarithm, exp is an exponential function, and min (a, b) is a function indicating the smaller of a and b.
なおサブ画像が入力画像からはみ出る場合、はみ出なくなるまで別の乱数でi、j、sが、それぞれが計算される。 When the sub image protrudes from the input image, i, j, and s are calculated with different random numbers until they do not protrude.
次に、ステップS54において、消失点算出部101は、(i,j)を中心に入力画像から切り出した上下それぞれSの幅の帯状の部分である、部分画像の各画素(p,q)について、サブ画像とマッチングを行う。具体的には、消失点算出部101は、部分画像の各画素(p,q)を中心に、一辺の長さSの正方形と切り出し、サブ画像との間で、全画素についての、RGBそれぞれの画素値の差の絶対値の合計値V(p,q)を算出する。この処理では絶対値以外にも二乗値も用いられる。
Next, in step S54, the vanishing
ステップS55において、消失点算出部101は、ステップS54で算出した各画素の合計値V(p,q)に基づいて、Y座標毎の特徴量U(p)を特定する。
In step S55, the vanishing
具体的には、Y座標毎の合計値V(p,q)の最小値が特徴量U(p)とされる(式(11))。 Specifically, the minimum value of the total value V (p, q) for each Y coordinate is set as the feature amount U (p) (formula (11)).
またY座標毎の合計値V(p,q)の平均値が特徴量U(p)とされる(式(12))。 Further, the average value of the total value V (p, q) for each Y coordinate is defined as the feature amount U (p) (formula (12)).
またY座標毎の合計値V(p,q)のうち、q=sにおける値が特徴量U(p)とされる(式(13))。 Of the total value V (p, q) for each Y coordinate, the value at q = s is defined as the feature amount U (p) (formula (13)).
ステップS56において、消失点算出部101は、ステップS55で算出された特徴量Uから肌理勾配データaを算出する。
In step S56, the vanishing
例えば特徴量Uのアクティビティ値が(式(14))、肌理勾配データaとされる。 For example, the activity value of the feature amount U is (formula (14)), which is texture gradient data a.
また特徴量Uの自己相関関数X(t)を利用して、肌理勾配データaを算出することもできる。 The texture gradient data a can also be calculated using the autocorrelation function X (t) of the feature amount U.
具体的には、式(15)を満たすt1を自己相関の半値とし(図40)、これが肌理勾配データaとされる。 Specifically, t1 satisfying the equation (15) is set as a half value of the autocorrelation (FIG. 40), and this is the texture gradient data a.
また自己相関関数X(t)がゼロになる回数(ゼロクロス)の逆数が肌理勾配データaとされる(図41)。ゼロクロス回数が0の場合は、a=0とする。 Further, the reciprocal of the number of times that the autocorrelation function X (t) becomes zero (zero cross) is the texture gradient data a (FIG. 41). If the number of zero crossings is 0, a = 0.
また式(16)により求められる相関アクティビティが肌理勾配データaとされる。 Moreover, the correlation activity calculated | required by Formula (16) is made into the texture gradient data a.
以上のようにして、部分画像の肌理勾配データaが算出されると、ステップS57に進む。 When the texture gradient data a of the partial image is calculated as described above, the process proceeds to step S57.
ここでは、上記各試行毎に、部分画像に対してX軸座標毎の特徴量Uが算出されるとともに、その特徴量Uから肌理勾配データaが求められる。 Here, for each trial, a feature value U for each X-axis coordinate is calculated for the partial image, and texture gradient data a is obtained from the feature value U.
消失点算出部101は、図42に示すような、肌理勾配データaを利用して、分割領域毎に、1つの点をプロットする。
The vanishing
上記ステップSS52乃至S57までの試行を1試行とする。この次にステップS58に進み、上記試行が、所定回数Aだけ繰り返されたかどうかが判定され、そうであればステップS59に、そうでなければステップS52に進む。 The trial from step SS52 to S57 is defined as one trial. Next, the process proceeds to step S58, where it is determined whether the trial has been repeated a predetermined number of times A. If so, the process proceeds to step S59, and if not, the process proceeds to step S52.
ステップS58で試行が所定の回数繰り返されたと判定された場合、ステップS59において、消失点算出部101は、図43に示すように、上記プロットの集合を、垂直方向にnの区分に分け、それぞれの区分の中に含まれるプロットのみを対象として、肌理勾配データaの平均値やメディアンをA(n)とし、j方向の中間の中間値をj(n)として、その座標で特定される点をプロットする。
If it is determined in step S58 that the trial has been repeated a predetermined number of times, in step S59, the vanishing
さらに消失点算出部101は、このプロットを利用して、回帰直線を設定し、そのY軸との交点を消失点とする。
Further, the vanishing
ステップS60において、仰角算出部23は、ステップS59で算出された消失点を利用して、仰角を算出する。
In step S60, the elevation
図44乃至図48は、上記処理の例を示している。 44 to 48 show an example of the above processing.
図49は、仰角算出部12の他の構成例を示している。この仰角算出部には、図4に示す仰角算出部12の量子化部21および消失点算出部22に代えて、ブロック化部111と消失点算出部112が設けられている。他の部分は、図4における場合と同様である。
FIG. 49 shows another configuration example of the elevation
ブロック化部111は、入力画像を、肌理の勾配を利用してブロックサイズを決定する。
The blocking
ブロック化部111の構成について説明する。ブロック化メモリ121は、アドレス制御部125の制御に従って、入力画像の一部(ブロック)を切り出して、特徴量算出部122に供給する。
The configuration of the
特徴量算出部122は、ブロック化メモリ121から供給されたブロックから所定の特徴量を算出する。例えばブロック内の画素の輝度値やエッジ強度のヒストグラムの分布、RGBヒストグラムの各成分の差分、またはブロック内の画素の輝度値やエッジ強度の最大値、最小値、若しくはダイナミックレンジが特徴量として算出される。
The feature
特徴量判定部123は、特徴量算出部122から供給されたブロックの特徴量に応じてブロック化メモリ121で切り出されるブロックのサイズを小さくさせたり、そのときのブロックの大きさを記憶部124に記憶させる。
The feature
アドレス制御部125は、特徴量判定部123からの判定結果に基づいて、切り出されるブロックのサイズを変更させて、入力画像全体からブロックを切り出させる。
The
消失点算出部112は、ブロック化部111で特定されたブロックのサイズを利用して、消失点を算出する。
The vanishing
次に、この仰角算出部12の動作を、図50のフローチャートを参照して説明する。
Next, the operation of the elevation
ステップS71において、アドレス制御部125は、ブロックサイズを初期値に設定し、ステップS72において、ブロック化メモリ121を制御して、ブロックをラスタ順の所定の位置に設定する。
In step S71, the
ステップS73において、ブロック化メモリ121は、設定されたブロックを切り出す。ここで切り出されたブロックは特徴量算出部122に供給される。
In step S73, the blocked
ステップS74において、特徴量算出部122は、ブロック化メモリ121から供給されたブロックの特徴量を算出する。
In step S <b> 74, the feature
次にステップS75において、特徴量判定部123は、特徴量算出部122により算出された特徴量と基準特徴量(初期ブロックサイズの特徴量もしくは直前ブロックサイズの特徴量)との差が所定の閾値より大きいか否かを判定し、それ以下であると判定した場合、ステップS76に進み、その旨をアドレス制御部125に通知する。これにより、アドレス制御部125は、切り出すブロックのサイズを1サイズ分だけ小さくする。
In step S75, the feature
その後処理は、ステップS73に戻り、それ以降の処理が行われる。 Thereafter, the processing returns to step S73, and the subsequent processing is performed.
ステップS75で、閾値より大きいと判定された場合、ステップS77に進み、特徴量判定部123は、そのときのブロックサイズを記憶部124に記憶する。
If it is determined in step S75 that it is larger than the threshold value, the process advances to step S77, and the feature
次にステップS78において、アドレス制御部125は、入力画像全体からブロックを切り出したか否かを判定し、切り出していないと判定した場合、ステップS71に戻り、ブロックサイズを初期サイズに設定するとともに、ステップS72において、ブロックを次のラスタ順の位置に移動させる。そしてそれ以降の処理が同様にして行われる。
Next, in step S78, the
ステップS78で、入力画像全体からブロックが切り出されたと判定された場合、ステップS79に進む。 If it is determined in step S78 that the block has been cut out from the entire input image, the process proceeds to step S79.
ステップS79において、消失点算出部112は、特定されたブロックについて、ライン毎にブロックサイズの平均値を算出する。
In step S79, the vanishing
次にステップS80において、消失点算出部112は、算出した平均値を利用して回帰直線を設定し、消失点を算出する。
In step S80, the vanishing
ステップS81において、仰角算出部23は、ステップS80で算出された消失点を利用して、仰角を算出する。
In step S81, the elevation
その後処理は終了する。 Thereafter, the process ends.
上述した一連の処理は、ハードウエアにより実現させることもできるが、ソフトウエアにより実現させることもできる。一連の処理をソフトウエアにより実現する場合には、そのソフトウエアを構成するプログラムがコンピュータにインストールされ、そのプログラムがコンピュータで実行されることより、上述した画像処理装置1が機能的に実現される。
The series of processes described above can be realized by hardware, but can also be realized by software. When a series of processing is realized by software, a program constituting the software is installed in a computer, and the program is executed by the computer, whereby the above-described
図51は、コンピュータ501の構成例を示している。CPU(Central Processing Unit)511にはバス515を介して入出力インタフェース516が接続されており、CPU511は、入出力インタフェース516を介して、ユーザから、キーボード、マウスなどよりなる入力部518から指令が入力されると、例えば、ROM(Read Only Memory)512、ハードディスク514、またはドライブ520に装着される磁気ディスク531、光ディスク532、光磁気ディスク533、若しくは半導体メモリ534などの記録媒体に格納されているプログラムを、RAM(Random Access Memory)513にロードして実行する。これにより、上述した各種の処理が行われる。さらに、CPU511は、その処理結果を、例えば、入出力インタフェース516を介して、LCD(Liquid Crystal Display)などよりなる出力部517に必要に応じて出力する。なお、プログラムは、ハードディスク514やROM512に予め記憶しておき、コンピュータ501と一体的にユーザに提供したり、磁気ディスク531、光ディスク532、光磁気ディスク533、半導体メモリ534等のパッケージメディアとして提供したり、衛星、ネットワーク等から通信部519を介してハードディスク514に提供することができる。
FIG. 51 shows a configuration example of the
なお、本明細書において、記録媒体により提供されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program provided by the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.
1 画像処理装置, 11 画像入力部, 12 仰角算出部, 13 画像変換部, 14 処理部, 15 画像変換部, 16 画像出力部, 21 量子化部, 22 消失点算出部, 23 仰角算出部, 51 特徴量抽出部, 52 量子化部, 61 肌理勾配算出部, 62 消失点算出部, 71 画像回転部, 72 方向決定部, 73 スイッチ, 81 量子化部, 91 特徴量評価部, 101 特徴量抽出部, 102 消失点算出部, 111 ブロック化部, 121 ブロック化メモリ, 122 特徴量計算部, 123 特徴量判定部, 124 記憶部, 125 アドレス制御部, 11 無線部, 12 符号復号処理部, 13 制御部, 14 記憶部, 15 データベース部, 16 表示部, 17 音声信号発生部, 18 スピーカ
DESCRIPTION OF
Claims (3)
前記入力画像の前記ブロックから、前記ブロック内の画素の輝度値の最大値、最小値、若しくはダイナミックレンジ、前記画素のエッジ強度の最大値、最小値、若しくはダイナミックレンジ、前記画素の輝度値のヒストグラムの分布、または前記画素のエッジ強度のヒストグラムの分布を、前記ブロックの特徴量として抽出する特徴量算出手段と、
前記入力画像の前記ブロックのそれぞれについて、前記ブロックの前記特徴量と所定の基準値との差が予め定めた閾値以上となるように、前記ブロックの大きさをより小さい大きさに変更して、前記ブロック化手段に変更後の大きさの前記ブロックを切り出させる特徴量判定手段と、
前記入力画像上の所定方向に並ぶ前記画素からなるラインごとに、前記ライン上に並ぶ前記ブロックの大きさの平均値を算出し、前記ラインごとの前記平均値を利用して回帰直線を設定し、消失点を算出する消失点算出手段と、
前記消失点を利用して前記仰角を算出する仰角算出手段と、
前記仰角を利用して、前記撮像手段により前記被写体を正面から撮像したときに得られる正対画像に、前記入力画像を変換する画像処理手段と
を備えることを特徴とする画像処理装置。 Blocking means for blocking an input image obtained by imaging a subject at a predetermined elevation angle by an imaging means, and cutting out a block of a predetermined size from the input image ;
From the block of the input image, a maximum value, a minimum value, or a dynamic range of luminance values of pixels in the block, a maximum value, a minimum value, or a dynamic range of edge intensity of the pixels, and a histogram of the luminance values of the pixels Or a feature amount calculation means for extracting the distribution of the edge intensity histogram of the pixel as a feature amount of the block;
For each block of the input image, change the block size to a smaller size so that the difference between the feature amount of the block and a predetermined reference value is equal to or greater than a predetermined threshold value, Feature amount determination means for causing the block forming means to cut out the block having the changed size; and
For each line composed of the pixels arranged in a predetermined direction on the input image, an average value of the sizes of the blocks arranged on the line is calculated, and a regression line is set using the average value for each line. a vanishing point calculation means for calculating a vanishing point,
An elevation angle calculating means for calculating the elevation angle using the vanishing point;
An image processing apparatus comprising: an image processing unit that converts the input image into a facing image obtained when the subject is imaged from the front by the imaging unit using the elevation angle .
前記入力画像の前記ブロックから、前記ブロック内の画素の輝度値の最大値、最小値、若しくはダイナミックレンジ、前記画素のエッジ強度の最大値、最小値、若しくはダイナミックレンジ、前記画素の輝度値のヒストグラムの分布、または前記画素のエッジ強度のヒストグラムの分布を、前記ブロックの特徴量として抽出する特徴量算出ステップと、
前記入力画像の前記ブロックのそれぞれについて、前記ブロックの前記特徴量と所定の基準値との差が予め定めた閾値以上となるように、前記ブロックの大きさをより小さい大きさに変更して、前記ブロック化手段に変更後の大きさの前記ブロックを切り出させる特徴量判定ステップと、
前記入力画像上の所定方向に並ぶ前記画素からなるラインごとに、前記ライン上に並ぶ前記ブロックの大きさの平均値を算出し、前記ラインごとの前記平均値を利用して回帰直線を設定し、消失点を算出する消失点算出ステップと、
前記消失点を利用して前記仰角を算出する仰角算出ステップと、
前記仰角を利用して、前記撮像手段により前記被写体を正面から撮像したときに得られる正対画像に、前記入力画像を変換する画像処理ステップと
を含むことを特徴とする画像処理方法。 A blocking step in which the blocking means blocks the input image obtained by imaging the subject at a predetermined elevation angle by the imaging means, and cuts out a block of a predetermined size from the input image ; and
From the block of the input image, a maximum value, a minimum value, or a dynamic range of luminance values of pixels in the block, a maximum value, a minimum value, or a dynamic range of edge intensity of the pixels, and a histogram of the luminance values of the pixels Or a feature amount calculating step of extracting the distribution of the edge intensity histogram of the pixel as a feature amount of the block;
For each block of the input image, change the block size to a smaller size so that the difference between the feature amount of the block and a predetermined reference value is equal to or greater than a predetermined threshold value, A feature amount determination step of cutting out the block having the changed size by the blocking unit;
For each line composed of the pixels arranged in a predetermined direction on the input image, an average value of the sizes of the blocks arranged on the line is calculated, and a regression line is set using the average value for each line. a vanishing point calculation step of calculating a vanishing point,
An elevation angle calculating step of calculating the elevation angle using the vanishing point;
An image processing method comprising: an image processing step of converting the input image into a facing image obtained when the subject is imaged from the front by the imaging means using the elevation angle .
前記入力画像の前記ブロックから、前記ブロック内の画素の輝度値の最大値、最小値、若しくはダイナミックレンジ、前記画素のエッジ強度の最大値、最小値、若しくはダイナミックレンジ、前記画素の輝度値のヒストグラムの分布、または前記画素のエッジ強度のヒストグラムの分布を、前記ブロックの特徴量として抽出する特徴量算出ステップと、
前記入力画像の前記ブロックのそれぞれについて、前記ブロックの前記特徴量と所定の基準値との差が予め定めた閾値以上となるように、前記ブロックの大きさをより小さい大きさに変更して、前記ブロック化手段に変更後の大きさの前記ブロックを切り出させる特徴量判定ステップと、
前記入力画像上の所定方向に並ぶ前記画素からなるラインごとに、前記ライン上に並ぶ前記ブロックの大きさの平均値を算出し、前記ラインごとの前記平均値を利用して回帰直線を設定し、消失点を算出する消失点算出ステップと、
前記消失点を利用して前記仰角を算出する仰角算出ステップと、
前記仰角を利用して、前記撮像手段により前記被写体を正面から撮像したときに得られる正対画像に、前記入力画像を変換する画像処理ステップと
を含む処理をコンピュータに実行させることを特徴とするプログラム。 A blocking step in which the blocking means blocks the input image obtained by imaging the subject at a predetermined elevation angle by the imaging means, and cuts out a block of a predetermined size from the input image ; and
From the block of the input image, a maximum value, a minimum value, or a dynamic range of luminance values of pixels in the block, a maximum value, a minimum value, or a dynamic range of edge intensity of the pixels, and a histogram of the luminance values of the pixels Or a feature amount calculating step of extracting the distribution of the edge intensity histogram of the pixel as a feature amount of the block;
For each block of the input image, change the block size to a smaller size so that the difference between the feature amount of the block and a predetermined reference value is equal to or greater than a predetermined threshold value, A feature amount determining step of cutting out the block having the changed size by the blocking unit;
For each line composed of the pixels arranged in a predetermined direction on the input image, an average value of the sizes of the blocks arranged on the line is calculated, and a regression line is set using the average value for each line. a vanishing point calculation step of calculating a vanishing point,
An elevation angle calculating step of calculating the elevation angle using the vanishing point;
An image processing step of converting the input image into a facing image obtained when the subject is imaged from the front by the imaging means using the elevation angle is executed by a computer. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004297032A JP4483517B2 (en) | 2004-10-08 | 2004-10-08 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004297032A JP4483517B2 (en) | 2004-10-08 | 2004-10-08 | Image processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006107408A JP2006107408A (en) | 2006-04-20 |
JP4483517B2 true JP4483517B2 (en) | 2010-06-16 |
Family
ID=36377033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004297032A Expired - Fee Related JP4483517B2 (en) | 2004-10-08 | 2004-10-08 | Image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4483517B2 (en) |
-
2004
- 2004-10-08 JP JP2004297032A patent/JP4483517B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006107408A (en) | 2006-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10521885B2 (en) | Image processing device and image processing method | |
CA2702165C (en) | Image generation method and apparatus, program therefor, and storage medium which stores the program | |
US8750638B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP7032871B2 (en) | Image processing equipment and image processing methods, programs, storage media | |
CN111091590A (en) | Image processing method, image processing device, storage medium and electronic equipment | |
EP2221763A1 (en) | Image generation method, device, its program and recording medium stored with program | |
US20130027775A1 (en) | Image stabilization | |
JP2010152521A (en) | Apparatus and method for performing stereographic processing to image | |
US9036938B2 (en) | Image processing apparatus, image processing method, and program | |
CN108540719A (en) | Method and device for taking picture, computer equipment and storage medium | |
JP4483516B2 (en) | Image processing apparatus and method, and program | |
JP4483517B2 (en) | Image processing apparatus and method, and program | |
Dosselmann et al. | A formal assessment of the structural similarity index | |
JP4556114B2 (en) | Image processing apparatus and method, and program | |
JP4438589B2 (en) | Image processing apparatus and method, and program | |
JP2008287329A (en) | Image evaluation device and image evaluation program | |
US9215474B2 (en) | Block-based motion estimation method | |
US11120269B2 (en) | Method and apparatus for determining target rotation direction, computer readable medium and electronic device | |
JP2005339535A (en) | Calculation of dissimilarity measure | |
KR20060095173A (en) | An illumination reflectance model based image distortion elimination method | |
US9154671B2 (en) | Image processing apparatus, image processing method, and program | |
CN111091513B (en) | Image processing method, device, computer readable storage medium and electronic equipment | |
CN104504429A (en) | Two-dimensional code generation method and device | |
US8675998B2 (en) | Method and apparatus for high frequency component smoothing, and image display apparatus | |
JP4453202B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100302 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100315 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140402 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |