JP4069468B2 - Image forming device - Google Patents

Image forming device Download PDF

Info

Publication number
JP4069468B2
JP4069468B2 JP2004040593A JP2004040593A JP4069468B2 JP 4069468 B2 JP4069468 B2 JP 4069468B2 JP 2004040593 A JP2004040593 A JP 2004040593A JP 2004040593 A JP2004040593 A JP 2004040593A JP 4069468 B2 JP4069468 B2 JP 4069468B2
Authority
JP
Japan
Prior art keywords
image
video
texture feature
distance
resolution levels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004040593A
Other languages
Japanese (ja)
Other versions
JP2005202907A (en
Inventor
充夫 松田
Original Assignee
充夫 松田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 充夫 松田 filed Critical 充夫 松田
Priority to JP2004040593A priority Critical patent/JP4069468B2/en
Publication of JP2005202907A publication Critical patent/JP2005202907A/en
Application granted granted Critical
Publication of JP4069468B2 publication Critical patent/JP4069468B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Description

発明の詳細な説明Detailed Description of the Invention

本発明は、異なる距離にある被写体群を撮像した映像から、合焦した各被写体の映像を形成する装置に関する。The present invention relates to an apparatus for forming an image of each focused subject from images obtained by imaging subject groups at different distances.

光学式またはデジタルカメラやビデオカメラで被写体を撮像した場合、焦点距離の長いレンズを用いて近距離の被写体物を撮像し、それに合焦すれば得られた遠距離にある背景像はボケを生じて写しだされる。逆に遠距離の背景に合焦すれば近距離の被写体物はぼけた像になってしまう。このように有限の開口径をもつレンズで撮像した映像や画像には奥行きに関する情報がボケとして現れる。この欠点を解消するために焦点距離の短い広角レンズを用いて近距離および遠距離の被写体の全てにピントを合わせる方法が考えられるが、この場合には用途に適さないことがあり、あらゆる場面で利用できる解決方法にならない。When a subject is imaged with an optical or digital camera or video camera, a short-distance object is imaged using a lens with a long focal length, and the background image at a long distance is blurred when focused on it. It is copied. On the other hand, if the object is in the background at a long distance, the object at a short distance becomes a blurred image. In this way, information about the depth appears as a blur in a video or image captured by a lens having a finite aperture diameter. In order to eliminate this drawback, it is possible to focus on all short-distance and long-distance subjects using a wide-angle lens with a short focal length. The solution is not available.

以上に述べた問題点を解消するために、同一の光学系で焦点を遂次ずらして画像メモリに入力し、画像処理をして全領域について焦点の合った画像を合成する手法が提案されている。しかしこのような手法を採った場合は逐次に焦点をあわせるための複雑な機構の開発が必要となる。In order to solve the problems described above, a method has been proposed in which the same optical system is sequentially shifted in focus and input to an image memory, and image processing is performed to synthesize an in-focus image for all regions. Yes. However, when such a method is adopted, it is necessary to develop a complicated mechanism for sequentially focusing.

一方、特開平3−80676号公報にあるように3つの異なる距離、すなわち近距離、中距離、それに遠距離に合焦した1つの撮影系を使ってそれぞれの被写体を撮像して、後で近距離、中距離、遠距離にピントのあった映像を各映像の高周波成分を利用して抽出し合成する方式も考えられている。
また、特開2001−298657号公報に、近距離、中距離、それに遠距離の3つの異なる距離に合焦した撮影系を使ってそれぞれの被写体を撮像して、近距離、中距離、遠距離にピントのあった映像を各映像の輝度値とその移動平均値との差波形を利用して抽出し合成する方式も考えられている。
On the other hand, as disclosed in Japanese Patent Laid-Open No. 3-80676, each subject is imaged using a single imaging system focused on three different distances, that is, a short distance, a medium distance, and a long distance, and then a short distance is obtained. A method of extracting and synthesizing images focused on distance, medium distance, and long distance using high frequency components of each image is also considered.
Japanese Patent Application Laid-Open No. 2001-298657 discloses images of each subject using a photographing system focused on three different distances, a short distance, a medium distance, and a long distance. A method of extracting and synthesizing images that are in focus using the difference waveform between the luminance value of each image and its moving average value is also considered.

ウェーブレット係数を使う方法として複数の焦点距離を変えた複数映像に対してウェーブレット変換し、その係数の最大スペクトル振幅の性質を用い、係数空間上で合成された係数の逆ウェーブレット変換から合焦点映像を得る方法も考えられる。As a method of using wavelet coefficients, wavelet transform is performed on multiple images with different focal lengths, and the characteristics of the maximum spectral amplitude of the coefficients are used, and the focused image is obtained from the inverse wavelet transform of the coefficients synthesized on the coefficient space. A method of obtaining can also be considered.

しかし、どちらの映像形成装置においてこのような方法を実現する上で種々の問題点が残されている。高周波成分の多い領域を各映像から抽出して合成する場合の問題点の一つは、ノイズ等の外乱を含む映像に対して良好な合焦した映像を得ることは難しいことである。それはノイズの高周波成分と合焦によるそれとが区別できないことに起因し、同じような欠点は各映像の輝度値とその移動平均値との差である差波形を利用した場合も残っている。
高周波成分の多い領域を各映像から抽出して合成する場合の第2の問題点は、周波数の算出に一般的に使われているFFTあるいはDCTは周波数の分離精度を良くするために分割するブロックサイズをある程度大きくする必要があり、そのためブロックサイズを一定以下に小さくすることができない。またこれらの計算方法では有限な領域から周波数成分の算出するため問題点も内包している。
However, various problems remain in realizing such a method in either image forming apparatus. One of the problems when extracting and synthesizing a region having a high frequency component from each video is that it is difficult to obtain a video that is well focused on a video that includes disturbances such as noise. This is because the high frequency component of noise cannot be distinguished from that due to focusing, and the same drawback remains even when a difference waveform that is the difference between the luminance value of each image and its moving average value is used.
The second problem when extracting and synthesizing a region with many high-frequency components from each video is that the FFT or DCT generally used for frequency calculation is a block that is divided to improve frequency separation accuracy. The size needs to be increased to some extent, and therefore the block size cannot be reduced below a certain level. In addition, these calculation methods include problems because frequency components are calculated from a finite region.

複数の焦点距離を変えた映像をウェーブレット変換によって多解像表現に変換し、各多解像度の係数を同一位置で比較して最大スペクトル振幅により多解像表現を合成する方法には映像ノイズ、ボケに伴う現象、多重解像度解析の抱えるシフト不変性の点で欠点がある。
多解像表現上の係数間の関係は独立ではなく高解像レベルの係数は低解像レベルの係数を補完する関係にある。そのため各解像表現係数を単に最高スペクトル振幅に置換えた多解像表現を逆変換すれば映像の一部に元映像には実在しない像を生む映像が生じる危険性がある。
また複数の焦点距離を変えた映像の1つにスパイクノイズのような映像ノイズが発生すると、多重解像表現の高階層レベル係数ほどその影響を強く受けるので最高スペクトル振幅は必ずしも合焦点と一対一に対応しない。撮像された濃淡画像の映像では焦点距離により物体形状の変化する現象やボケが増加するつれ撮像した映像全体の輝度が増加する現象が生ずる。そのため物体形状が焦点距離によって変化する場合には多解像表現領域で同一位置を正確に決定することはできないし、スペクトル振幅のみで映像全体に増加した輝度の影響を解消できない。
そして重解像度解析において解析する座標位置がほんの少し移動しただけで解析結果が大きく変動する現象にも弱い。このようにスペクトル振幅のみを用いて多解像表現を合成する方法で所望する合成映像を得ることは困難である。
A method of converting multiple focal length images into multi-resolution representations by wavelet transform, comparing the multi-resolution coefficients at the same position, and synthesizing the multi-resolution representations with the maximum spectral amplitude is used. There is a drawback in the phenomenon accompanying the shift and the shift invariance of the multi-resolution analysis.
The relationship between the coefficients on the multi-resolution expression is not independent, and the high-resolution level coefficient complements the low-resolution level coefficient. For this reason, if the multi-resolution expression in which each resolution expression coefficient is simply replaced with the highest spectral amplitude is inversely converted, there is a risk that an image that generates an image that does not exist in the original image is generated in a part of the image.
In addition, when image noise such as spike noise occurs in one of the images with a plurality of focal lengths changed, the highest spectral amplitude is not necessarily one-to-one with the in-focus because the higher hierarchical level coefficient of the multi-resolution expression is strongly affected. Does not correspond to. In the captured gray image, a phenomenon in which the shape of the object changes depending on the focal length or a phenomenon in which the brightness of the entire captured image increases as the blur increases. For this reason, when the object shape changes depending on the focal length, the same position cannot be accurately determined in the multi-resolution expression area, and the influence of the increased luminance on the entire image cannot be eliminated only by the spectral amplitude.
Also, it is vulnerable to the phenomenon that the analysis result greatly fluctuates even if the coordinate position to be analyzed in the multi-resolution analysis is moved a little. Thus, it is difficult to obtain a desired synthesized image by a method of synthesizing a multi-resolution expression using only the spectral amplitude.

本発明は、このような問題点を解決するためになされたもので、異なる距離にある被写体に合焦した複数の映像を容易にしかも正確に合成して異なる距離にある各被写体の鮮明な映画像を形成する映像形成装置を提供することをその課題とする。The present invention has been made to solve such a problem, and easily and accurately synthesize a plurality of images focused on subjects at different distances so that a clear movie of each subject at different distances is obtained. It is an object of the present invention to provide an image forming apparatus that forms an image.

本発明は、異なる距離にある複数の被写体をそれぞれ合焦して撮像する映像入力手段100と、各映像の画素値から各映像の複数の異なる解像度レベルでの表現値集合を生成する変換手段200と、前記複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量を演算する手段300と、前記複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量により各映像から最も鮮明な領域を判定する手段400と、前記領域を結合して被写体の映像を形成する手段500を備えたことを特徴としている。なお前記最も鮮明な領域の範囲は複数の画素と1画素の両方を含む。The present invention includes a video input unit 100 that focuses and images a plurality of subjects at different distances, and a conversion unit 200 that generates expression value sets at a plurality of different resolution levels for each video from the pixel values of each video. And means 300 for calculating the texture feature amount of the expression value set at the plurality of different resolution levels, and determining the clearest region from each video based on the texture feature amount of the expression value set at the plurality of different resolution levels. It is characterized by comprising means 400 and means 500 for combining the regions to form a subject image. The range of the clearest region includes both a plurality of pixels and one pixel.

この映像形成装置より得られた映像は各画素それぞれが、異なる距離の映像のうち最も鮮明とされた映像の画素で構成されているので、全体としてすべての距離にある被写体が鮮明に映し出される。本発明に係る装置では、各画素値に対して複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量を各距離の映像に対して形成し、その表現値集合のテクスチャ特徴量に基づき各距離の映像の各画素のうちどれが最も鮮明であるかを判定しているので、複数の異なる解像度レベルでの表現値集合のもつ作用効果とテクスチャ特徴量による作用効果の相乗によりノイズなどの外乱が含まれていても正確に鮮明度の高い映像を形成することができる。  Since the image obtained from the image forming apparatus is composed of the pixels of the image that is the clearest among the images at different distances, the subject at all distances is clearly displayed as a whole. In the apparatus according to the present invention, a texture feature amount of an expression value set at a plurality of different resolution levels is formed for each pixel value for each distance image, and each distance is based on the texture feature amount of the expression value set. Since each pixel of the image of the image is determined to be the clearest, disturbances such as noise occur due to the synergy of the action and effect of the expression value set at multiple different resolution levels and the action and effect of the texture feature amount. Even if it is included, an image with high definition can be formed accurately.

本発明の装置における方法と、周波数の性質を利用した場合や各映像の輝度値とその移動平均値との差である差波形を利用した場合とを比較すると、周波数を求めるために多数のブロックに分割するが必要なくまた周波数の分離精度面から生じるブロック分割サイズの制限がない。  When comparing the method in the apparatus of the present invention with the case of using the nature of frequency and the case of using the difference waveform that is the difference between the luminance value of each image and its moving average value, a number of blocks are obtained to obtain the frequency. However, there is no restriction on the block division size which is not necessary and is caused by frequency separation accuracy.

そして周波数成分や各映像の輝度値とその移動平均値との差波形を利用して合成する方法では映像に関する単一(または少数)の特徴情報しか持たないが、テクスチャ特徴量による場合は、映像や画像の粗さや細かさ、画像の明確さ、平坦度など画像の特徴を複合的または総合的に評価・判断できる指標を与えることができ、さまざまな周波数成分を含んだ自然画像の映像やノイズなどの外乱を含んだ映像に対しても効果的に鮮明度の高い映像の提供をすることができる。The method using the difference waveform between the frequency component and the luminance value of each video and its moving average value has only a single (or a small number) of feature information about the video. Can provide indices that can be used to evaluate and judge image characteristics such as image roughness, fineness, image clarity, and flatness in a complex or comprehensive manner, and images and noise of natural images containing various frequency components. It is possible to effectively provide images with high definition even for images including disturbances.

発明の実施するための最良の形態BEST MODE FOR CARRYING OUT THE INVENTION

以下に図面を参照して本発明を詳細に説明する。
図1は各距離の映像からピントの合った部分を抽出してすべての被写体に合焦した鮮明な映像を形成する本発明の映像形成装置の構成をブロック図で示したものである。
本発明は、まず図1に示す映像入力手段100により図10に示すように異なる複数の距離にある被写体、すなわち近距離にある木T、中距離にある人物P、及び遠距離にある山M、をそれぞれ撮影して各被写体に合焦した各映像を出力する。
Hereinafter, the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of an image forming apparatus according to the present invention, which extracts a focused portion from images at various distances and forms a clear image focused on all subjects.
In the present invention, first, an object at a plurality of different distances as shown in FIG. 10 by the video input means 100 shown in FIG. 1, that is, a tree T at a short distance, a person P at a medium distance, and a mountain M at a long distance. , And outputs each image focused on each subject.

次に映像入力手段100によりメモリに取込まれた各映像に対して、複数の異なる解像度レベルでの表現値集合を生成する変換手段200を実行し、前記表現値集合に対しテクスチャ特徴量を演算する手段300を実行させる。前記テクスチャ特徴量は画素若しくはブロック単位で演算され、画素若しくはブロック単位の前記テクスチャ特徴量より各映像から最も鮮明な領域を判定する手段400を用いて、最も鮮明な領域を判定する。当然に前記最も鮮明な領域の定義には複数の画素領域のみならず1つの画素も含んでいる。このようにして決定された画素若しくはブロックを結合して被写体の映像を形成する手段500によって、全体としてすべての距離にある被写体が鮮明に映し出された映像を形成する。Next, conversion means 200 for generating expression value sets at a plurality of different resolution levels is executed for each image captured in the memory by the image input means 100, and texture feature values are calculated for the expression value sets. Means 300 to execute. The texture feature amount is calculated in units of pixels or blocks, and the sharpest region is determined using the means 400 for determining the clearest region from each video from the texture feature amount in units of pixels or blocks. Naturally, the definition of the clearest region includes not only a plurality of pixel regions but also one pixel. By means of combining the pixels or blocks thus determined to form an image of the subject, an image in which subjects at all distances are clearly projected as a whole is formed.

図2は異なる距離にある複数の被写体をそれぞれ合焦して撮像する映像入力手段100から取込まれた各映像の情報容量が大きいため、一括の画像処理能力を越す場合に各距離の映像を分割して、ピントの合った部分を抽出してすべての被写体に合焦した鮮明な映像を形成する本発明の装置の構成をブロック図で示したものである。2 has a large information capacity of each video captured from the video input means 100 that focuses and images a plurality of subjects at different distances. FIG. 2 is a block diagram illustrating the configuration of an apparatus according to the present invention that divides and extracts a focused portion to form a clear image focused on all subjects.

図5は1つ撮影系で近距離、中距離、それに遠距離の3つの異なる距離にある被写体に合焦する本発明の実施例1の映像入力手段100の構成図を示している。この構成では近距離、中距離、それに遠距離の3つの異なる距離にある各被写体はビームスプリッタを介して3つの経路に分配される。分配された映像はレンズによりそれぞれ近距離、中距離、それに遠距離の3つの異なる距離にある主要な被写体に合焦した像を撮像する。3つの異なる合焦の操作は焦点調節機構103が担う。FIG. 5 shows a block diagram of the video input means 100 according to the first embodiment of the present invention that focuses on subjects at three different distances, that is, a short distance, a medium distance, and a long distance in one photographing system. In this configuration, each subject at three different distances, short distance, medium distance, and long distance, is distributed to three paths via the beam splitter. The distributed image is captured by the lens with images focused on main subjects at three different distances, ie, a short distance, a medium distance, and a long distance. The focus adjustment mechanism 103 is responsible for three different focusing operations.

前記レンズを通過したそれぞれに近距離、中距離、それに遠距離の3つの異なる合焦した像はCCDまたは2次元イメージセンサ104により電気的信号に変換され、映像処理105を経て各距離に合焦した図10に示す近映像1、中映像2、遠映像3がメモリ106に記憶される。Three different focused images of short distance, medium distance, and long distance for each passing through the lens are converted into electrical signals by CCD or two-dimensional image sensor 104, and are focused on each distance through video processing 105. The near image 1, middle image 2, and far image 3 shown in FIG. 10 are stored in the memory 106.

図10は、図5のメモリ106に記憶された近距離にある木の被写体T、中距離にある人及び遠距離にある山の被写体をそれぞれP、Mを同時に撮像し、各距離に合焦した近映像1、中映像2、遠映像3を示している。FIG. 10 shows images of a short-distance tree object T, a medium-distance person, and a long-distance mountain object P and M simultaneously stored in the memory 106 of FIG. The near image 1, the middle image 2, and the far image 3 are shown.

図3は近距離、中距離、それに遠距離の3つの異なる距離ごとに合焦した撮影系の本発明の実施例2である。この実施例2では、映像入力手段100と各映像の画素値を複数の異なる解像度レベルでの表現値集合を生成する変換手段200と前記表現値集合のテクスチャ特徴量を演算する手段300とは並列に動作する。FIG. 3 shows an embodiment 2 of the present invention of an imaging system focused at three different distances, short distance, medium distance, and long distance. In the second embodiment, the video input unit 100, the conversion unit 200 that generates a representation value set of pixel values of each video at a plurality of different resolution levels, and the unit 300 that calculates the texture feature amount of the representation value set are parallel. To work.

図4は近距離、中距離、それに遠距離の3つの異なる距離ごとに合焦した撮影系を時分割に動作させる本発明の実施例3である。この実施例3では、映像入力手段100と各映像の画素値を複数の異なる解像度レベルでの表現値集合を生成する変換手段200と前記表現値集合のテクスチャ特徴量を演算する手段300とは、一定時間間隔に切替わり動作する。FIG. 4 shows a third embodiment of the present invention in which an imaging system focused at three different distances, a short distance, a medium distance, and a long distance, is operated in a time division manner. In the third embodiment, the image input means 100, the conversion means 200 for generating the expression value set at a plurality of different resolution levels from the pixel values of each image, and the means 300 for calculating the texture feature quantity of the expression value set include: It operates by switching at regular time intervals.

なお、図面には記載していないが各映像の画素値から複数の異なる解像度レベルでの表現値集合を生成する変換手段200の実行に先立ち、合焦した各映像は光学系の光軸のずれ、傾きあるいは倍率(大きさ、ひずみ)に相違があると、各映像の中心、傾き、大きさが相違することにより映像の合成ができない場合が生じたり或いは不正確な合成が生じたりするので、できればこれらの前処理を行なうことが望ましい。Although not shown in the drawings, prior to the execution of the conversion means 200 for generating expression value sets at a plurality of different resolution levels from the pixel values of each video, each focused video is shifted by the optical axis of the optical system. If there is a difference in tilt or magnification (size, distortion), the center, tilt, and size of each video may be different, so that the video may not be synthesized or incorrect synthesis may occur. If possible, it is desirable to perform these pretreatments.

次に近距離、中距離、それに遠距離の3つの異なる距離に合焦した各映像の画素値から最も鮮明な領域(画素)を抽出し、合成することにより鮮明な映像を得るまでの過程を説明する。
図1または図2に示した本発明の前記複数の異なる解像度レベルでの表現値集合を生成する変換手段200は、ウェーブレット変換、ハー変換、あるいはアダマール変換である。ウェーブレット変換を適用する場合、離散値系ウエーブレット変換あるいはガボール・ウェーブレット関数に基づいた変換が適切である。
Next, the process of extracting the sharpest area (pixel) from the pixel values of each image focused on three different distances, short distance, medium distance, and long distance, and combining them to obtain a clear image explain.
The conversion means 200 for generating the expression value sets at the plurality of different resolution levels of the present invention shown in FIG. 1 or FIG. 2 is a wavelet transform, a Her transform, or a Hadamard transform. When applying the wavelet transform, a discrete wavelet transform or a transform based on a Gabor wavelet function is appropriate.

画像処理分野でよく使用されるフーリエ変換を用いる手法では、映像の局所的な波の周波数成分はノイズ成分に埋もれてしまうが、ガボール・ウェーブレット関数に基づいた変換は、この種の局所的な波の周波数成分を検出するのに適する。また、映像処理を実時間で行うには計算量の軽減が課題になるが、そのような場合は、精度を少し犠牲にすれば、ハー変換、あるいはアダマール変換を採用することで実時間の映像処理も可能となる。In the method using Fourier transform, which is often used in the field of image processing, the frequency component of the local wave of the image is buried in the noise component, but the transformation based on the Gabor wavelet function is this kind of local wave. Suitable for detecting frequency components of. In addition, reducing the amount of calculation is an issue for video processing in real time. In such a case, if the accuracy is sacrificed a little, the real-time video can be obtained by adopting the Her transform or Hadamard transform. Processing is also possible.

図6はメモリに取込まれた各映像に対し複数の異なる解像度レベルでの表現値集合を生成する変換手段200として、ウェーブレット変換による多重解像度解析を適用した実施例4を模式的に表したものである。図6の左図が1段階のウェーブレット変換を示し、右図は第1段階ウェーブレット変換から生成されたサブバンド成分にさらに2段階、3段階のウェーブレット変換を施したものを示している。サブバンドLL1成分には元映像における低周波成分が抽出され、HL1成分には元映像の水平方向の高周波成分が、LH1成分には元映像の垂直方向の高周波成分が、HH1成分には元映像の対角方向の高周波成分が抽出される。言い換えるならば、それぞれ水平方向、垂直方向、斜め方向に画素値の変動の大きな領域(エッジ情報)を抽出していることに相当している。このウェーブレット変換の性質は不連続な境界の精度よい抽出を可能にし、正確に鮮明な画素を決定するのに大きく寄与している。FIG. 6 schematically shows a fourth embodiment in which multi-resolution analysis by wavelet transform is applied as the conversion means 200 for generating a set of expression values at a plurality of different resolution levels for each video captured in the memory. It is. The left diagram of FIG. 6 shows the one-stage wavelet transform, and the right diagram shows the subband components generated from the first-stage wavelet transform, which are further subjected to the two-stage and three-stage wavelet transform. The subband LL1 component is extracted from the low frequency component in the original video, the HL1 component is the high frequency component in the horizontal direction of the original video, the LH1 component is the high frequency component in the vertical direction of the original video, and the HH1 component is the original video. The high-frequency component in the diagonal direction is extracted. In other words, this corresponds to extracting a region (edge information) having a large variation in pixel value in the horizontal direction, the vertical direction, and the diagonal direction. The nature of this wavelet transform makes it possible to accurately extract discontinuous boundaries and greatly contributes to accurately determining clear pixels.

図11は近距離、中距離、それに遠距離の3つの映像の画素値に対し、複数の異なる解像度レベルでの表現値集合を生成する変換手段200として1段階の多重解像度解析を適用した実施例4をより詳細に表したものである。第1段階のサブバンド成分であるLL1成分、HL1成分、LH1成分、HH1成分ごとのテクスチャ特徴量が求められ、このテクスチャ特徴量から各映像のうち最も鮮明な画素を決定していく。この図ではすべてのサブバンド成分のテクスチャ特徴量を演算して判定しているが、映像の特徴によっては、LL1成分のみで十分に最も鮮明な画素が決定できる場合もある。この場合、計算量は全体から決定する場合の4分の1に軽減され実時間の処理に適する。FIG. 11 shows an embodiment in which one-step multi-resolution analysis is applied as a conversion means 200 for generating a set of expression values at a plurality of different resolution levels for pixel values of three images at short distance, medium distance, and long distance. 4 is expressed in more detail. A texture feature amount for each of the LL1 component, HL1 component, LH1 component, and HH1 component, which are sub-band components in the first stage, is obtained, and the clearest pixel in each video is determined from the texture feature amount. In this figure, the texture feature values of all the subband components are calculated and determined. However, depending on the feature of the video, a sufficiently clear pixel may be determined with only the LL1 component. In this case, the amount of calculation is reduced to a quarter of the case of determining from the whole, and is suitable for real-time processing.

今度は前記表現値集合のテクスチャ特徴量を演算する手段300について図7から図9までの図と、図12を用いて説明する。前記表現値集合のテクスチャ特徴量を演算する手段300、すなわち実施例4のサブバンド成分のテクスチャ特徴量を演算するには同時生起行列(または共起行列という)を必要とする。Next, means 300 for calculating the texture feature quantity of the expression value set will be described with reference to FIGS. 7 to 9 and FIG. To calculate the texture feature quantity of the expression value set 300, that is, to calculate the texture feature quantity of the subband components in the fourth embodiment, a co-occurrence matrix (or co-occurrence matrix) is required.

このために、まず図12のステップS1でサブバンド成分のブロックサイズL、同時生起行列の演算に必要となる相対的な位置d(方向と距離をもつベクトル量)、サブバンド成分を階調化するための量子化ステップ量を設定する。図7は、メモリに格納されている近(中、遠)映像のウェーブレット変換による多重解像度解析から得られた符号201のサブバンド成分HL1に適用したものを示しており、テクスチャ特徴量の演算対象となるブロック4のサイズは3×3の大きさとしている。To this end, first, in step S1 of FIG. 12, the block size L of the subband component, the relative position d (vector quantity having direction and distance) necessary for the calculation of the co-occurrence matrix, and the subband component are gradationized. Quantization step amount for setting is set. FIG. 7 shows the one applied to the subband component HL1 of the code 201 obtained from the multi-resolution analysis by the wavelet transform of the near (medium, far) video stored in the memory, and the texture feature calculation target The size of the block 4 is 3 × 3.

図12のステップS3において、各映像のテクスチャ特徴量の演算対象ブロック4のサブバンド成分は量子化操作によってq階調のサブバンド成分量に変換される。このステップS3で最小量子化量以下のサブバンド成分値はゼロ(0)値となるため、自動的にノイズ成分は軽減・除去される効果が働く。次のステップS4では、図8に示すようなテクスチャ特徴量の演算対象ブロック4のq階調のサブバンド成分量から、階調値iの点から相対的な位置がdである点の階調値がjである割合M(i,j),(i,j=0,1,・・・,q−1)をij要素とする同時生起行列を求める。In step S3 of FIG. 12, the subband component of the calculation target block 4 of the texture feature amount of each video is converted into a subband component amount of q gradation by a quantization operation. In this step S3, the sub-band component value equal to or less than the minimum quantization amount is zero (0) value, so that the effect of automatically reducing and removing the noise component works. In the next step S4, the gradation of the point whose relative position is d from the point of the gradation value i from the q gradation subband component amount of the calculation target block 4 of the texture feature amount as shown in FIG. A co-occurrence matrix having a ratio M d (i, j), (i, j = 0, 1,..., Q−1) whose value is j as ij elements is obtained.

図9は、図8に示す3つの階調値(0、1、2)を持つ量子化された複数の異なる解像度レベルでの表現値集合(サブバンド成分)の階調値6から構成されるテクスチャ特徴量の演算対象ブロック4に対して、水平方向上にあって左から右にd=1の相対距離をもつ表現値の階調値のみを考えて作成された生起行列の要素値M(i,j)の例を示している。点線で囲まれた階調値(2,1)の対は、図8では1組しか現れないので、図9の生起行列の(i,j)=(2,1)の要素値7のM(2,1)は1となる。ここで、図9の符号5はテクスチャ特徴量の演算対象ブロックの局所座標、符号6は映像のサブバンド成分の量子化された階調値を表し、図9の符号7は同時生起行列の要素値M(i,j)である。FIG. 9 is composed of gradation values 6 of a set of expression values (subband components) at a plurality of different quantized resolution levels having the three gradation values (0, 1, 2) shown in FIG. The element value M d of the occurrence matrix created considering only the gradation value of the expression value having the relative distance d = 1 from the left to the right with respect to the texture feature calculation target block 4 An example of (i, j) is shown. Since only one pair of gradation values (2, 1) surrounded by a dotted line appears in FIG. 8, M of element value 7 of (i, j) = (2, 1) of the occurrence matrix of FIG. d (2,1) is 1. Here, reference numeral 5 in FIG. 9 represents local coordinates of the calculation target block of the texture feature quantity, reference numeral 6 represents the quantized gradation value of the subband component of the video, and reference numeral 7 in FIG. 9 represents an element of the co-occurrence matrix The value M d (i, j).

次のステップS5では、図9に示す同時生起行列から複数個のテクスチャ特徴量を算出する。代表的なテクスチャ特徴量として角2次モーメント、コントラスト、エントロピ、相関、分散などを含め13種類の選択が考えられる。しかしテクスチャ特徴量に基づき各距離の映像の画素若しくはブロックのうち最も映像が鮮明な領域を画素若しくはブロックごとに求める上で、これらのテクスチャ特徴量をすべて用いる必要はなく、映像の性質に応じて選択すればよい。一般的な映像の場合は角2次モーメント、コントラスト、エントロピを選択する。In the next step S5, a plurality of texture feature amounts are calculated from the co-occurrence matrix shown in FIG. As typical texture feature amounts, 13 types of selection including angular second moment, contrast, entropy, correlation, variance, and the like can be considered. However, it is not necessary to use all of these texture feature values for each pixel or block in order to obtain the clearest image area for each pixel or block based on the texture feature values. Just choose. In the case of a general image, an angular second moment, contrast, and entropy are selected.

角2次モーメントfは式1から計算され、表現値集合の変化の乏しい度合いを示す。
この値は階調値の変化が乏しいと同時生起行列の要素値7のM(i、j)に偏りが生じてfは大きな値になる。

Figure 0004069468
コントラストfは式2から計算され、fは局所的な変化が大きい場合に大きな値になる。
Figure 0004069468
エントロピfは式3から計算され、表現値集合の複雑さの測度を表し、表現値集合が偏りなく現れる場合は大きな値になる。
Figure 0004069468
The angular second moment f 1 is calculated from Equation 1 and indicates a poor degree of change in the expression value set.
If the change in gradation value is poor, M d (i, j) of the element value 7 of the co-occurrence matrix is biased and f 1 becomes a large value.
Figure 0004069468
The contrast f 2 is calculated from Equation 2, and f 2 takes a large value when the local change is large.
Figure 0004069468
Entropy f 3 is calculated from Equation 3 and represents a measure of the complexity of the expression value set, and becomes large if the expression value set appears without bias.
Figure 0004069468

相関fは式4から計算され、表現値集合に一様な部分が多いとfは大きな値をとり、ランダムノイズのように広い帯域で不規則データが多く含まれる場合にfは小さくなる。したがってステップ6の判定の項目に相関fを入れることでノイズなどの外乱の影響を少なくできる。

Figure 0004069468
ここでそれぞれi、j方向の平均階調値をμ、μで表し、数5及び数6から計算される。同様にj、j方向の偏差をσ、σで表し、数7から計算される。
Figure 0004069468
Figure 0004069468
Figure 0004069468
Correlation f 4 is calculated from Equation 4, f 4 takes a large value when there are many uniform parts in the expression value set, and f 4 is small when random data is included in a wide band such as random noise. Become. Therefore, the influence of disturbances such as noise can be reduced by adding the correlation f 4 to the determination item of step 6.
Figure 0004069468
Here, the average gradation values in the i and j directions are represented by μ x and μ y , respectively, and are calculated from Equations 5 and 6. Similarly, deviations in the j and j directions are represented by σ x and σ y and are calculated from Equation 7.
Figure 0004069468
Figure 0004069468
Figure 0004069468

ホモジニティfは式8から計算し、局所的に変化に乏しいときに大きな値になる。

Figure 0004069468
その他に分散、総和平均、総和分散、総和エントロピ、差分分散、差分エントロピ、相関情報測度のテクスチャ特徴量も選択できる。Homojiniti f 5 is calculated from the equation 8, a large value when poor locally varying.
Figure 0004069468
In addition, texture feature quantities such as variance, sum average, sum variance, sum entropy, difference variance, difference entropy, and correlation information measure can be selected.

図12のステップS6では各映像の画素若しくはブロックごとに求めた前記テクスチャ特徴量から、各映像の画素若しくはブロックから最も鮮明な映像を決定する。この決定は前記テクスチャ特徴量のうち1つの項目、例えばコントラストfのみから決定してもよいし、あるいは角2次モーメントf、コントラストfとエントロピfの3つの組合せのように複数個の項目から総合的に評価し決定してもよい。In step S6 of FIG. 12, the clearest video is determined from the pixel or block of each video from the texture feature amount obtained for each pixel or block of each video. This determination may be made from only one item of the texture feature amount, for example, contrast f 2 , or a plurality of combinations such as three combinations of angular second moment f 1 , contrast f 2 and entropy f 3. You may evaluate and determine comprehensively from the item of.

さらに各映像の鮮明な領域と映像がぼけており鮮明でない領域において、各映像の前記コントラストfの前記テクスチャ特徴量分布を取りその分布状態を比較すると、後者の領域は平坦な分布やまばら分布を示し明らかに分布状態は異なる。この事実を利用すれば、このステップS6で前記テクスチャ特徴量の単独または複数の組合せにより各映像の画素若しくは領域のうち最も鮮明な映像を決定するだけでなく、画素と画素近傍、あるいは領域と領域近傍の前記テクスチャ特徴量の分布を求め、その分布も考慮して各映像の画素若しくは領域のうち最も鮮明な映像を決定すればいっそう正確度は向上する。Further, when the texture feature amount distribution of the contrast f 2 of each image is taken and the distribution state is compared in the clear region and the unclear region of each image, the latter region has a flat distribution or a sparse distribution. The distribution state is clearly different. If this fact is utilized, not only the sharpest image among pixels or regions of each image is determined by the single or a plurality of combinations of the texture feature amounts in this step S6, but also the pixel and the pixel neighborhood or the region and the region. If the distribution of the texture feature amount in the vicinity is obtained and the distribution is also taken into consideration to determine the clearest image among the pixels or regions of each image, the accuracy is further improved.

また、ステップS6で求めた各画素若しくは領域のデータは、最も鮮明な各映像の画素若しくは領域の画素値を直接に表示用のメモリに格納してもよいが、各画素若しくは領域を識別する記号や数字に置換して、抽出された各画素若しくは領域に対応する識別記号や数字だけをメモリに記録し、合成するときその識別記号や数字を参照して対応する映像データを読み出すようにしてもよい。In addition, the pixel or area data obtained in step S6 may store the pixel values of the clearest video or area directly in the display memory. Or, it is replaced with a number, and only the identification symbol or number corresponding to each extracted pixel or area is recorded in the memory, and when synthesizing, the corresponding video data is read with reference to the identification symbol or number. Good.

以上の説明は映像データが画素値(カラー画像であれば一般的にはR、G、B値)として述べてきたが、映像データが輝度値Yまたは色差値I、Qと明度値Vまたは色相、彩度である場合でも、前記複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量に基づいて最も鮮明な画素または領域を求める基本的な過程(プロセス)は変わらない。In the above description, the video data has been described as pixel values (in general, R, G, B values in the case of a color image), but the video data has luminance values Y or color difference values I and Q and lightness values V or hues. Even in the case of saturation, the basic process (process) for obtaining the clearest pixel or region based on the texture feature amount of the expression value set at the plurality of different resolution levels does not change.

各映像の画素の輝度値Yの複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量から合焦した鮮明な画素または領域を求める場合、RGBのカラー画像のRGB画素値からNTSC方式の輝度値Yを求めるには数23が使われる。ここでIとQは色差値である。

Figure 0004069468
また記載の色相、彩度、明度値VについてはRGB画像からHSV値への変換はやや複雑ではあるけれども変換の式が考案されている。When obtaining a clear pixel or region focused from the texture feature amount of the expression value set at a plurality of different resolution levels of the luminance value Y of the pixel of each video, the luminance value of the NTSC system from the RGB pixel value of the RGB color image Equation 23 is used to determine Y. Here, I and Q are color difference values.
Figure 0004069468
For the hue, saturation, and lightness value V described, although conversion from an RGB image to an HSV value is somewhat complicated, a conversion formula has been devised.

発明の効果The invention's effect

以上説明したように、本発明によれば各画素それぞれが、異なる距離の映像のうち最も鮮明とされた映像の画素で構成されているので、全体としてすべての距離にある被写体が鮮明に映し出される。本発明の装置では、各画素値に対して複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量を各距離の映像に対して形成し、その表現値集合のテクスチャ特徴量に基づき各距離の映像の各画素のうちどれが最も鮮明であるかを判定しているので、複数の異なる解像度レベルでの表現値集合のもつ作用効果とテクスチャ特徴量による作用効果の相乗によりノイズなどの外乱が含まれていても正確に鮮明度の高い映像を形成することができる。複数の異なる解像度レベルでの表現値集合とその解像度レベルでの表現値集合のテクスチャ特徴量を大域的な作用効果は、計算量の削減効果や実時間の処理に適する。またその作用効果はわずかな物体形状や位相の変化に対してもロバストである。As described above, according to the present invention, each pixel is composed of the pixel of the image that is the clearest among the images of different distances, so that subjects at all distances are clearly displayed as a whole. . In the apparatus of the present invention, a texture feature amount of an expression value set at a plurality of different resolution levels is formed for each pixel value for each distance image, and each distance value is based on the texture feature amount of the expression value set. Since each pixel of the image is determined to be the clearest, disturbances such as noise are included due to the synergy of the effect of the expression value set at multiple different resolution levels and the effect of the texture feature. However, it is possible to form an image with high definition accurately. The global effect of the expression value set at a plurality of different resolution levels and the texture feature quantity of the expression value set at that resolution level is suitable for the effect of reducing the amount of calculation and real-time processing. In addition, the effect is robust against slight changes in object shape and phase.

本発明の装置における方法と周波数の性質を利用した場合や各映像の輝度値とその移動平均値との差である差波形を利用した場合とを比較すると、周波数を求めるために多数のブロックに分割する必要がなくまた周波数の分離精度面から生じるブロック分割サイズの制限がない。When comparing the method and frequency characteristics of the apparatus of the present invention with the case of using the difference waveform, which is the difference between the luminance value of each image and its moving average value, a number of blocks are obtained to obtain the frequency. There is no need to divide and there is no restriction on the block division size resulting from the frequency separation accuracy.

また周波数成分や各映像の輝度値とその移動平均値との差波形を利用して合成する方法では映像に関する単一(または少数)の特徴情報しか持たないが、テクスチャ特徴量による場合は映像や画像の粗さや細かさ、画像の明確さ、平坦度など画像の特徴を複合的または総合的に評価・判断できる指標を与えることができ、さまざまな周波数成分を含んだ自然画像の映像やノイズなどの外乱を含んだ映像に対しても効果的に鮮明度の高い映像の提供をすることができる。In addition, the method of synthesizing using the difference waveform between the frequency component and the luminance value of each video and its moving average value has only a single (or a small number) of feature information about the video. It can provide indexes that can evaluate and judge image features such as image roughness and fineness, image clarity, and flatness in a complex or comprehensive manner, such as images and noise of natural images containing various frequency components. Therefore, it is possible to provide an image with high definition effectively even for an image including a disturbance.

各距離の映像からピントの合った部分を抽出してすべての被写体に合焦した鮮明な映像を形成する映像形成装置の構成をブロック図で示したものであるFIG. 2 is a block diagram showing a configuration of an image forming apparatus that extracts a focused portion from images of each distance and forms a clear image focused on all subjects. 請求項2に記載の各距離の映像を分割してピントの合った部分を抽出してすべての被写体に合焦した鮮明な映像を形成する映像形成装置の構成をブロック図で示したものである。FIG. 3 is a block diagram illustrating a configuration of a video forming apparatus that divides a video of each distance according to claim 2 and extracts a focused portion to form a clear video focused on all subjects. . 近距離、中距離、それに遠距離の3つの異なる距離ごとに合焦した撮影系の実施例2を示したものである。The second embodiment of the photographing system focused at three different distances of short distance, medium distance, and long distance is shown. 近距離、中距離、それに遠距離の3つの異なる距離ごとに合焦した撮影系を時分割に動作させる実施例3である。This is a third embodiment in which an imaging system focused at three different distances, a short distance, a medium distance, and a long distance, is operated in a time division manner. 1つ撮影系で近距離、中距離、それに遠距離の3つの異なる距離にある被写体に合焦する映像入力手段の実施例1の構成図を示している。FIG. 2 is a configuration diagram of Embodiment 1 of video input means for focusing on a subject at three different distances of a short distance, a medium distance, and a long distance in one photographing system. メモリに取込まれた各映像のウェーブレット変換による多重解像度解析を適用した実施例4を模式的に表したものである。10 schematically shows Example 4 to which multiresolution analysis by wavelet transform of each video captured in a memory is applied. ウェーブレット変換による多重解像度解析から得られた実施例4のサブバンド成分HL1のテクスチャ特徴量の演算対象ブロックを示している。The block for which the texture feature-value of the subband component HL1 of Example 4 obtained from multiresolution analysis by wavelet transform is calculated is shown. 実施例4のサブバンド成分の階調値から水平方向について求めた同時生起行列の要素値7M(i,j)を説明した図である。It is the figure explaining element value 7M d (i, j) of the co-occurrence matrix calculated | required about the horizontal direction from the gradation value of the subband component of Example 4. 3つの階調値(0、1、2)のサブバンド成分の階調値6から作成された生起行列の要素値M(i,j)の例を示している。An example of an occurrence matrix element value M d (i, j) created from sub-band component gradation values 6 of three gradation values (0, 1, 2) is shown. メモリ106に記憶された近距離の木の被写体T、中距離の人P及び遠距離にある山Mに合焦した近映像1、中映像2、遠映像3を示したものである。The near image 1, the middle image 2, and the far image 3 focused on a short-distance tree subject T, a medium-distance person P, and a distant mountain M stored in the memory 106 are shown. 近距離、中距離、それに遠距離の3つの画素値にウェーブレット分解、テクスチャ特徴量演算、最も鮮明な領域の判定を適用した実施例4を示したものである。FIG. 10 shows a fourth embodiment in which wavelet decomposition, texture feature amount calculation, and determination of the clearest region are applied to three pixel values of a short distance, a medium distance, and a long distance. 前記表現値集合のテクスチャ特徴量により各映像から最も鮮明な画素または領域を判定する手段を用いて最も鮮明な画素を判定し、すべての被写体が鮮明に映し出された映像を形成する流れの部分を示したフローチャート図である。The most sharp pixel is determined using means for determining the clearest pixel or region from each image according to the texture feature amount of the expression value set, and a part of the flow that forms an image in which all subjects are clearly displayed It is the shown flowchart figure.

符号の説明Explanation of symbols

1 メモリ106に格納された近映像
2 メモリ106に格納された中映像
3 メモリ106に格納された遠映像
4 複数の異なる解像度レベルでの表現値集合の演算対象ブロック
5 局所座標
6 量子化された複数の異なる解像度レベルでの表現値集合の階調値
7 同時生起行列の要素値M(i,j)
201 ウェーブレット変換による多重解像度解析から得られたサブバンド成分HL1
1 Near image stored in the memory 106 2 Medium image stored in the memory 106 3 Far image stored in the memory 106 Operation block 5 of the expression value set at a plurality of different resolution levels 5 Local coordinates 6 Quantized Tone value 7 of expression value set at a plurality of different resolution levels Element value M d (i, j) of co-occurrence matrix
201 Subband component HL1 obtained from multi-resolution analysis by wavelet transform

Claims (2)

異なる距離にある複数の被写体をそれぞれ合焦して撮像する映像入力手段100と、各映像の画素値から各映像の複数の異なる解像度レベルでの表現値集合を生成する変換手段200と、前記複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量を演算する手段300と、前記複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量により各映像から最も鮮明な領域を判定する手段400と、前記領域を結合して被写体の映像を形成する手段500を備えたことを特徴とする映像形成装置。Video input means 100 that focuses and images a plurality of subjects at different distances, conversion means 200 that generates expression value sets at a plurality of different resolution levels of each video from the pixel values of each video, and the plurality Means 300 for calculating the texture feature amount of the expression value set at different resolution levels, means 400 for determining the clearest region from each video based on the texture feature amounts of the expression value set at the plurality of different resolution levels, An image forming apparatus comprising means 500 for combining the areas to form an image of a subject. 異なる距離にある複数の被写体をそれぞれ合焦して撮像する映像入力手段100と、各映像を複数の領域に分割する手段600と、前記分割手段により分割されたブロックの画素値から前記ブロックごとに複数の異なる解像度レベルでの表現値集合を生成する変換手段200と、前記複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量を演算する手段300と、前記複数の異なる解像度レベルでの表現値集合のテクスチャ特徴量により各映像から最も鮮明な領域を判定する手段400と、前記領域を結合して被写体の映像を形成する手段500を備えたことを特徴とする映像形成装置。A video input unit 100 that focuses and images a plurality of subjects at different distances, a unit 600 that divides each video into a plurality of regions, and a pixel value of a block divided by the division unit for each block. Converting means 200 for generating expression value sets at a plurality of different resolution levels; means 300 for calculating texture feature quantities of expression value sets at the plurality of different resolution levels; and expression values at the plurality of different resolution levels. An image forming apparatus comprising: means 400 for determining the clearest area from each image based on texture features of the set; and means 500 for combining the areas to form a subject image.
JP2004040593A 2004-01-15 2004-01-15 Image forming device Expired - Fee Related JP4069468B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004040593A JP4069468B2 (en) 2004-01-15 2004-01-15 Image forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004040593A JP4069468B2 (en) 2004-01-15 2004-01-15 Image forming device

Publications (2)

Publication Number Publication Date
JP2005202907A JP2005202907A (en) 2005-07-28
JP4069468B2 true JP4069468B2 (en) 2008-04-02

Family

ID=34824467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004040593A Expired - Fee Related JP4069468B2 (en) 2004-01-15 2004-01-15 Image forming device

Country Status (1)

Country Link
JP (1) JP4069468B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8300965B2 (en) * 2009-03-24 2012-10-30 General Electric Company Methods and apparatus to perform multi-focal plane image acquisition and compression
JP4988057B1 (en) * 2011-10-11 2012-08-01 アキュートロジック株式会社 Omnifocal image generation method, omnifocal image generation device, omnifocal image generation program, subject height information acquisition method, subject height information acquisition device, and subject height information acquisition program
US9161010B2 (en) * 2011-12-01 2015-10-13 Sony Corporation System and method for generating robust depth maps utilizing a multi-resolution procedure
JP5668027B2 (en) * 2012-07-03 2015-02-12 アキュートロジック株式会社 Omnifocal image generation method, omnifocal image generation device, omnifocal image generation program, subject height information acquisition method, subject height information acquisition device, and subject height information acquisition program

Also Published As

Publication number Publication date
JP2005202907A (en) 2005-07-28

Similar Documents

Publication Publication Date Title
JP4469019B2 (en) Apparatus, method and program for generating image data
Chandler Seven challenges in image quality assessment: past, present, and future research
KR101780057B1 (en) Apparatus and method for restroing high resolution image
TWI399975B (en) Fusing of images captured by a multi-aperture imaging system
JP5047287B2 (en) Sparse integral image descriptor with application to motion analysis
JP5188205B2 (en) Method for increasing the resolution of moving objects in an image acquired from a scene by a camera
JP4209938B2 (en) Image processing apparatus and method, image processing program, and image processor
JP3182015B2 (en) Optical image synthesis method
EP1583357A2 (en) Imaging system, image data stream creation apparatus, image generation apparatus, image data stream generation apparatus, and image data stream generation system
JP2005318548A (en) Imaging system, image data train forming device, image generating device, image data train generating system, and image transmission system
WO2011129249A1 (en) Image processing device, image capture device, program, and image processing method
RU2690757C1 (en) System for synthesis of intermediate types of light field and method of its operation
JPH09284798A (en) Signal processor
JP2009194896A (en) Image processing device and method, and imaging apparatus
JP2004056789A (en) Resolution and picture quality improving method for small image sensor
US7868925B2 (en) Device, method, and program for generating high-resolution image data at a low data transfer rate
JP4069468B2 (en) Image forming device
Paul et al. Maximum accurate medical image demosaicing using WRGB based Newton Gregory interpolation method
KR101105675B1 (en) Method and apparatus of inpainting for video data
JP2017208642A (en) Imaging device using compression sensing, imaging method, and imaging program
WO2014077024A1 (en) Image processing device, image processing method and image processing program
JP2019207464A (en) Phase difference detection device, image processing device, and program
Bonanomi et al. I3D: a new dataset for testing denoising and demosaicing algorithms
Fishbain et al. Spatial, temporal, and interchannel image data fusion for long-distance terrestrial observation systems
Patil et al. Interpolation for super resolution imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080104

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140125

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees