JP2000194845A - Image processor, image processing method and image processing system - Google Patents

Image processor, image processing method and image processing system

Info

Publication number
JP2000194845A
JP2000194845A JP10371476A JP37147698A JP2000194845A JP 2000194845 A JP2000194845 A JP 2000194845A JP 10371476 A JP10371476 A JP 10371476A JP 37147698 A JP37147698 A JP 37147698A JP 2000194845 A JP2000194845 A JP 2000194845A
Authority
JP
Japan
Prior art keywords
frame
image
motion vector
image processing
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10371476A
Other languages
Japanese (ja)
Inventor
Nobutaka Miyake
信孝 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP10371476A priority Critical patent/JP2000194845A/en
Priority to CA002289053A priority patent/CA2289053C/en
Priority to US09/434,378 priority patent/US6804419B1/en
Priority to EP19990308897 priority patent/EP1001374A3/en
Priority to AU58374/99A priority patent/AU777493B2/en
Publication of JP2000194845A publication Critical patent/JP2000194845A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor, an image processing method and an image processing system capable of improving image quality in converting to a high resolution still image, based on plural low resolution images. SOLUTION: Among the plural frames of moving images stored in a storage part 101, the motion vector of an m-th frame and an (m+n)-th frame is extracted in a motion vector computation part 102 and the motion vector is divided by a frame number among the frames in a vector division part 103. Then, based on the divided vector, the pixels of an (m+a)-th frame (a<n) are respectively arranged in an arrangement part B105 and synthesized with the pixels of the m-th frame in a synthesis part 106.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置及びそ
の方法、及び画像処理システムに関し、特に画像情報を
高解像度変換する画像処理装置及びその方法、及び画像
処理システムに関する。
The present invention relates to an image processing apparatus and method, and an image processing system, and more particularly to an image processing apparatus and method for converting image information into high resolution, and an image processing system.

【0002】[0002]

【従来の技術】従来より、入力した低解像情報を高解像
情報に解像度変換する方法として、様々な方法が提案さ
れている。
2. Description of the Related Art Conventionally, various methods have been proposed as a method of converting the resolution of input low-resolution information into high-resolution information.

【0003】従来より提案されている解像度変換方法に
おいては、低解像情報に対して画素を内挿することによ
り高解像度化を実現しており、対象となる画像の種類
(例えば、各画素が階調情報を持つ多値画像、疑似中間
調により2値化された2値画像、固定閾値により2値化
された2値画像、文字画像等)によって、その変換処理
方法が異なっていた。
In the resolution conversion method conventionally proposed, high resolution is realized by interpolating pixels with respect to low-resolution information, and the type of target image (for example, each pixel is The conversion processing method is different depending on a multivalued image having gradation information, a binary image binarized by a pseudo halftone, a binary image binarized by a fixed threshold, a character image, and the like.

【0004】従来の解像度変換方法における画素内挿の
方法としては、図11に示すような、内挿点に最も近い
同じ画素値を配列する最近接内挿方法や、図12に示す
ような内挿点を囲む4点(4点の画素値をA,B,C,
Dとする)の距離により、以下の演算によって内挿点E
の画素値を決定する共1次内挿法等が一般的に用いられ
ている。 E=(1-i)(1-j)A+i(1-j)B+j(1-i)C+ijD …式1 (但し、画素間距離を1とした場合に、内挿点EはAか
ら横方向にi、縦方向にjの距離があるとする。(i≦
1、j≦1)) また、従来よりサンプリング定理で表されているよう
に、サンプリングされた離散信号を連続信号に変換する
手段として、SINC関数で表現できる理想低域ろ波器
を通過させることによって、連続信号を再現することが
できる。また、SINC関数の演算は処理時間がかかる
ことなどから、SINC関数で表現される補間関数を近
似して、簡単な積和演算のみで補間値を算出する方法が
ある。
As a method of pixel interpolation in a conventional resolution conversion method, a nearest interpolation method in which the same pixel value closest to an interpolation point is arranged as shown in FIG. 11 or an interpolation method as shown in FIG. Four points surrounding the insertion point (the pixel values of the four points are A, B, C,
D), the interpolation point E is calculated by the following calculation.
Is commonly used to determine the pixel value of the pixel. E = (1-i) (1-j) A + i (1-j) B + j (1-i) C + ijD Equation 1 (However, if the distance between pixels is 1, interpolation points Let E be a distance from A to i in the horizontal direction and j in the vertical direction (i ≦
1, j ≦ 1)) Further, as represented by the sampling theorem, as a means for converting a sampled discrete signal into a continuous signal, the signal is passed through an ideal low-pass filter that can be expressed by a SINC function. Thus, a continuous signal can be reproduced. Further, since the calculation of the SINC function takes a long processing time, there is a method of approximating an interpolation function represented by the SINC function and calculating an interpolation value only by a simple product-sum operation.

【0005】例えば、「画像解析ハンドブック:高木幹
雄、下田陽久監修東京大学出版会」によると、3次たた
み込み内挿法(Cubic Convolution interpolation)にお
いて、補間関数の近似が実現できる。該内挿法による補
間値の算出方法を、図13を参照して説明する。図13
に示す画素配置において、Pが内挿した点(補間点)であ
り、P11〜P44はその周囲の16画素の画素値を示す。
そして、以下に示す式で示される3次たたみ込み関数を
用いて、補間点を内挿する。尚、下式においては、x^y
でxのy乗を示すとする。 (但し、[]はガウス記号を示し、整数部分をとる) しかし、上述した3種の内挿方法による解像度変換の結
果としては、いずれも補間によるボケ、及び入力低解像
に依存したブロック状のジャギー等が発生してしまい、
高画質な高解像情報を作成することはできなかった。
[0005] For example, according to "Image Analysis Handbook: Mikio Takagi and Hirohisa Shimoda, University of Tokyo Press", an approximation of an interpolation function can be realized in the cubic convolution interpolation method. A method for calculating an interpolation value by the interpolation method will be described with reference to FIG. FIG.
In the pixel arrangement shown in (1), P is an interpolated point (interpolation point), and P11 to P44 indicate the pixel values of the surrounding 16 pixels.
Then, the interpolation points are interpolated using a tertiary convolution function represented by the following equation. In the following equation, x ^ y
Denote x to the y-th power. (However, [] indicates a Gaussian symbol and takes an integer part.) However, as a result of the resolution conversion by the above three kinds of interpolation methods, all of the results are blurring by interpolation and a block-like shape depending on the input low resolution. Jaggy etc. will occur,
High-resolution high-resolution information could not be created.

【0006】そこで本出願人は、低解像情報から高解像
情報を作成する際に、補間処理に起因する補間ボケもな
く、また、ジャギーが発生することなく解像度変換を可
能とする方法を特開平7−93531号、特開平7−1
07268号、特開平7−105359号により提案し
た。
Accordingly, the present applicant has developed a method for generating resolution information from low resolution information without interpolating blur caused by interpolation processing and enabling resolution conversion without jaggies. JP-A-7-93531, JP-A-7-1
No. 07268 and JP-A-7-105359.

【0007】これらの提案における基本的な考え方は、
入力した原情報から解像度依存成分を除去し、その後、
画素数を出力解像度相当まで増加させ、その状態で変換
すべき解像度(高解像度)に見合う情報を推測し、最終的
に解像度変換された画像情報を作成する方法である。例
えば、入力解像度の依存性を除去することはローパスフ
ィルタ(LPF)による平滑化で、画素数を増加させるこ
とは線形補間により、実現可能である。また、高解像情
報の推測は、補間後の情報を単純2値化して、“1”に
分類された画素と“0”に分類された画素とでそれぞれ
異なる処理を行うことにより、出力する画素値を算出す
る。
The basic idea in these proposals is as follows:
After removing the resolution-dependent component from the input source information,
This is a method in which the number of pixels is increased to an output resolution equivalent, information corresponding to the resolution (high resolution) to be converted in that state is estimated, and finally image information subjected to resolution conversion is created. For example, removing the dependency of the input resolution can be realized by smoothing with a low-pass filter (LPF), and increasing the number of pixels can be realized by linear interpolation. The high-resolution information is estimated by simply binarizing the information after interpolation and performing different processing for pixels classified as "1" and pixels classified as "0", and outputs the processed data. Calculate the pixel value.

【0008】また出願人は特開平9−252400号に
より、画素値の連続性が保たれた良好なエッジを作成す
る方法を提案した。該提案によれば、低解像度注目画素
の周辺画素よりm点(m≧1)の画素(ただし、m点中の
観測点nにおける画素値をP(n)とする)を検出し、該
注目画素を複数画素分に補間した各補間点kにおける前
記補間値C(k)を基に、出力値h(k)を以下の式により
演算している。 h(k)=Σα(n)P(n)+βC(k) (Σの範囲はn=1からm) …式5 尚、α(n),βは任意の係数であり、β≠0
Further, the applicant has proposed a method for producing a good edge while maintaining the continuity of pixel values in Japanese Patent Application Laid-Open No. 9-252400. According to the proposal, a pixel at m points (m ≧ 1) (where the pixel value at the observation point n among the m points is P (n)) is detected from the peripheral pixels of the low-resolution target pixel, and the target pixel is detected. An output value h (k) is calculated by the following equation based on the interpolation value C (k) at each interpolation point k obtained by interpolating a pixel into a plurality of pixels. h (k) = Σα (n) P (n) + βC (k) (The range of Σ is from n = 1 to m) Equation 5 where α (n) and β are arbitrary coefficients, and β ≠ 0

【発明が解決しようとする課題】しかしながら、上記従
来の内挿方法による解像度変換においては、以下に述べ
るような欠点があった。即ち、いくら高解像情報の作成
を行っても、高画質化に限界があるという点である。
However, the resolution conversion by the above-described conventional interpolation method has the following disadvantages. That is, no matter how much high-resolution information is created, there is a limit to high image quality.

【0009】サンプリング定理より明らかなように、入
力解像度のナイキスト限界以上の情報は入力画像には存
在しないため、ナイキスト周波数以上の情報作成は全て
推測によるものになる。従って、あまり複雑ではないC
G画像、イラスト画像、アニメーション画像の様な平坦
な人工的画像をジャギーレスに変換することは容易であ
るが、自然画像をナイキスト限界以上の情報推測により
高画質化することは難しい。即ち、いかなる方法を用い
たとしても、低解像情報を入力して高解像に変換した画
像は、もともと高解像情報として入力された画像と比較
すると、明らかに画質は低くなる。
As is apparent from the sampling theorem, since information having an input resolution equal to or higher than the Nyquist limit does not exist in an input image, all information generation having a frequency higher than the Nyquist frequency is based on estimation. Therefore, the less complex C
It is easy to convert a flat artificial image such as a G image, an illustration image, or an animation image into a jaggy-less image, but it is difficult to increase the quality of a natural image by estimating information equal to or more than the Nyquist limit. That is, no matter what method is used, an image obtained by inputting low-resolution information and converting it to high-resolution clearly has lower image quality than an image originally input as high-resolution information.

【0010】一方、近年のデジタルビデオカメラ等の普
及により、撮影した動画像を、連続した1フレーム単位
でコンピュータに入力することが容易に可能となってい
る。従って、動画像の1フレームをプリンタによりプリ
ント出力することも可能であるが、年々増加しているプ
リンタの出力解像度に比べると、撮像系の入力解像度は
増加傾向にあるとはいっても、まだまだ低いのが現状で
ある。
[0010] On the other hand, with the recent spread of digital video cameras and the like, it is possible to easily input a captured moving image to a computer in a continuous frame unit. Therefore, it is possible to print out one frame of a moving image by a printer, but the input resolution of the imaging system tends to increase, but is still lower than the output resolution of the printer, which is increasing year by year. is the current situation.

【0011】従って、上記従来例で説明したように1枚
の低解像静止画から1枚の高解像静止画を作成するので
はなく、動画から取り込んだ複数の連続する低解像静止
画から1枚の高解像静止画を作成することが考えられ
る。
Therefore, instead of creating one high-resolution still image from one low-resolution still image as described in the above-mentioned conventional example, a plurality of continuous low-resolution still images captured from a moving image are obtained. It is conceivable to create one high-resolution still image from.

【0012】複数の静止画から、より広範囲のパノラマ
画像を作成する技術としては、「動画像のパニングを考
慮した背景画像の合成:吉沢、花村、富永、信学春季全
大予稿集7−51(1990)」、及び、「分割撮像に
よるパノラマ画像の生成法:中村、金子、林、信学春季
全大予稿集7−165(1991)」等の提案がある。
しかし、これらは1枚の静止画よりも撮像範囲を拡大し
たパノラマ画像を作成する技術の提案であり、撮像範囲
は同一で、複数の静止画の情報を合成させて、内挿によ
り画像の解像度を向上させるものではない。
As a technique for creating a wider-range panoramic image from a plurality of still images, a technique for synthesizing a background image in consideration of panning of a moving image: Yoshizawa, Hanamura, Tominaga, and Shingaku Spring Full Preliminary Collection 7-51 (1990) "and" Generation method of panoramic image by divisional imaging: Nakamura, Kaneko, Hayashi, and IEICE Spring Full Preliminary Proceedings 7-165 (1991) ".
However, these are proposals of a technique for creating a panoramic image in which the imaging range is enlarged more than one still image. The imaging range is the same, information of a plurality of still images is combined, and the resolution of the image is determined by interpolation. It does not improve.

【0013】低解像の動画から高解像の静止画を作成す
る技術としては、特開平5−260264号の提案があ
る。該提案においては、連続した画像同士を比較して、
その差異に基づいてアフィン変換、及び平行移動のパラ
メータを検出し、これらの画像を合成するものである。
そして、該合成方法を補間に利用する例についても言及
されている。
As a technique for creating a high-resolution still image from a low-resolution moving image, there is a proposal in Japanese Patent Application Laid-Open No. 5-260264. In the proposal, comparing successive images,
Based on the difference, parameters of affine transformation and translation are detected, and these images are synthesized.
An example in which the synthesis method is used for interpolation is also mentioned.

【0014】しかしながら、この提案においては、以下
に示す問題点がある。
However, this proposal has the following problems.

【0015】即ち、上記合成方法を補間に利用する方法
においては、前述した図11から図13に示した補間方
法により拡大した連続画像同士を比較することにより、
前述したパラメータを算出して補間位置を決定し、合成
していく。これは、補間演算自体が新たな高解像情報を
作成するものではない為に、合成する座標の正確な決定
は困難である。
That is, in the method of using the above-mentioned synthesizing method for interpolation, by comparing continuous images enlarged by the above-described interpolation method shown in FIGS.
The above-described parameters are calculated, the interpolation position is determined, and the interpolation positions are synthesized. Since the interpolation calculation itself does not create new high-resolution information, it is difficult to accurately determine coordinates to be combined.

【0016】ここで、補間するということは、画素間を
内挿するということである。しかるに上記合成方法によ
る補間では、連続画像同士を比較する際に入力解像度の
画素間の情報がない。簡単に言い換えると、2種の画像
A,画像Bを合成する場合について考えると、画像Aの
画素間のどの位置に画像Bの画素を内挿するかという決
定は、単なる拡大画像間の比較のみでは困難である。
Here, "interpolating" means interpolating between pixels. However, in the interpolation by the above-described synthesis method, there is no information between pixels of the input resolution when comparing continuous images. In other words, considering the case where two types of images A and B are combined, the determination of where to interpolate the pixels of the image B between the pixels of the image A is merely a comparison between the enlarged images. Is difficult.

【0017】これは、動きベクトルのベクトル量の最小
単位が画素単位であり、画素間距離よりも細かい分解能
がないという点に起因している。すなわち、ベクトルの
分解能が画素間距離以下の精度を持たなければ、複数の
静止画を用いて補間する効果は薄れてしまい、上記従来
例に記載したような1枚の低解像静止画から1枚の高解
像静止画を作成した場合と、画質的にほとんど変わりが
なくなってしまう。
This is because the minimum unit of the vector amount of the motion vector is a pixel unit, and there is no resolution finer than the distance between pixels. That is, if the resolution of the vector does not have an accuracy equal to or less than the pixel-to-pixel distance, the effect of interpolating using a plurality of still images is diminished. There is almost no difference in image quality from the case of creating high resolution still images.

【0018】本発明は、上記課題を解決するためになさ
れたものであり、複数の低解像画像に基づいて1枚の高
解像静止画への変換を行なう際に、高画質化を可能とす
る画像処理装置及びその方法、及び画像処理システムを
提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and it is possible to improve the image quality when converting a plurality of low-resolution images into one high-resolution still image. It is an object of the present invention to provide an image processing apparatus and method, and an image processing system.

【0019】また本発明は、動きベクトルの分解能を画
素間距離よりも細かくした補間を行なうことにより、複
数の低解像画像から1枚の高解像静止画へ変換する画像
処理装置及びその方法、及び画像処理システムを提供す
ることを目的とする。
The present invention also provides an image processing apparatus and method for converting a plurality of low-resolution images into a single high-resolution still image by performing interpolation with the resolution of a motion vector smaller than the pixel-to-pixel distance. , And an image processing system.

【0020】また、入出力時の解像度の異なる機種間に
おいて、高画質画像を出力可能な画像処理システムを提
供することを目的とする。
It is another object of the present invention to provide an image processing system capable of outputting a high-quality image between models having different resolutions at the time of input and output.

【0021】[0021]

【課題を解決するための手段】上記目的を達成するため
に、本発明の画像処理装置は以下の構成を備える。
In order to achieve the above object, an image processing apparatus according to the present invention has the following arrangement.

【0022】すなわち、複数の低解像度画像を入力する
入力手段と、該複数の低解像度画像間における差分を検
出する検出手段と、該差分に基づいて前記低解像度画像
から高解像度画像を生成する生成手段と、を有すること
を特徴とする。
That is, input means for inputting a plurality of low-resolution images, detecting means for detecting a difference between the plurality of low-resolution images, and generation for generating a high-resolution image from the low-resolution images based on the differences. Means.

【0023】例えば、前記入力手段は動画像における複
数フレームの画像を入力し、前記検出手段は該複数フレ
ーム間における動きベクトルを検出し、前記生成手段
は、該動きベクトルに基づいて前記複数フレームの画像
から高解像度の静止画像を生成することを特徴とする。
For example, the input unit inputs images of a plurality of frames in a moving image, the detection unit detects a motion vector between the plurality of frames, and the generation unit detects the motion vector of the plurality of frames based on the motion vector. A high-resolution still image is generated from the image.

【0024】例えば、前記入力手段は動画像の第1のフ
レームから第2のフレームまでの連続する複数フレーム
を入力し、前記検出手段は前記第1のフレームと第2の
フレーム間における動きベクトルを検出し、前記生成手
段は、前記第1のフレームと第2のフレーム間のフレー
ムの画素を、前記動きベクトルに基づいて前記第1のフ
レームの画像に内挿して静止画像を生成することを特徴
とする。
For example, the input means inputs a plurality of continuous frames from a first frame to a second frame of a moving image, and the detecting means calculates a motion vector between the first frame and the second frame. Detecting, wherein the generation unit generates a still image by interpolating pixels of a frame between the first frame and the second frame into an image of the first frame based on the motion vector. And

【0025】更に、前記生成手段は、前記動きベクトル
を前記第1のフレームと第2のフレーム間のフレーム数
で分割する分割手段と、前記第1のフレームの画素を配
置する第1の配置手段と、前記分割手段により分割され
た動きベクトルに基づいて、前記第1のフレームと第2
のフレーム間のフレームの画素を配置する第2の配置手
段と、前記第1及び第2の配置手段により配置された画
素を合成して1枚の静止画像を生成する合成手段と、を
有することを特徴とする。
Further, the generating means includes a dividing means for dividing the motion vector by the number of frames between the first frame and the second frame, and a first arranging means for arranging the pixels of the first frame. And the first frame and the second frame based on the motion vector divided by the dividing means.
Second arranging means for arranging the pixels of the frames between the frames, and synthesizing means for synthesizing the pixels arranged by the first and second arranging means to generate one still image. It is characterized by.

【0026】例えば、前記分割手段において前記動きベ
クトルをn分割した場合、前記第2の配置手段は、前記
第1のフレームからa番目のフレームの画素を前記動き
ベクトルのa/nの位置に配置することを特徴とする。
For example, if the dividing means divides the motion vector into n, the second arranging means arranges pixels of the a-th frame from the first frame at a / n positions of the motion vector. It is characterized by doing.

【0027】[0027]

【発明の実施の形態】以下、本発明に係る一実施形態に
ついて、図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described below in detail with reference to the drawings.

【0028】尚、本発明に係る画像処理装置は、主とし
て、動画像を撮像するアナログビデオカメラやデジタル
ビデオカメラの内部、もしくは、ビデオカメラと、直
接、あるいは、コンピュータを介して接続されるプリン
タやビデオプリンタ等の画像出力装置の内部に具備する
ことが効率的である。また、ビデオカメラとプリンタと
の接続で中間アダプタとなる画像処理装置、または、ホ
ストコンピュータ内のアプリケーションソフト、また、
プリンタに出力する為のプリンタドライバソフトとして
内蔵することも可能である。
It should be noted that the image processing apparatus according to the present invention is mainly provided with a printer or a printer connected directly or via a computer to an analog video camera or digital video camera for capturing moving images. It is efficient to provide it inside an image output device such as a video printer. In addition, an image processing device serving as an intermediate adapter when a video camera is connected to a printer, or application software in a host computer,
It can also be incorporated as printer driver software for outputting to a printer.

【0029】<第1実施形態> [装置構成]図1は、本実施形態の画像処理装置であるコ
ンピュータの機能構成を示すブロック図であり、以下、
図1に沿ってその動作手順を説明する。尚、本実施形態
においては、デジタルビデオカメラで撮像した画像をコ
ンピュータに送信して、コンピュータ内のアプリケーシ
ョンソフトにてプリンタ相当の解像度まで変換する例に
ついて説明する。
<First Embodiment> [Apparatus Configuration] FIG. 1 is a block diagram showing a functional configuration of a computer which is an image processing apparatus of the present embodiment.
The operation procedure will be described with reference to FIG. In the present embodiment, an example will be described in which an image captured by a digital video camera is transmitted to a computer and converted to a resolution equivalent to a printer by application software in the computer.

【0030】図中100はビデオカメラにて撮像された
動画像がコンピュータ内に入力される入力端子である。
ユーザは、デジタルビデオで撮影した動画像を記録媒体
から再生し、所望するシーンで画像の取り込み命令を送
る。この取り込み命令に同期して、コンピュータ内の格
納部101に取り込み命令直後の連続した複数フレーム
の画像情報が格納される。102は動きベクトル演算部
であり、2種画像の差異に基づいて、部分的に移動した
移動量をベクトルとして計測する手段である。尚、動き
ベクトル演算部102の詳細については後述する。10
3は算出したベクトルを複数に分割するベクトル分割部
であり、その詳細については後述する。
In the figure, reference numeral 100 denotes an input terminal for inputting a moving image picked up by a video camera into a computer.
A user reproduces a moving image captured by digital video from a recording medium and sends a command to capture an image in a desired scene. In synchronization with this fetch instruction, image information of a plurality of continuous frames immediately after the fetch instruction is stored in the storage unit 101 in the computer. Reference numeral 102 denotes a motion vector calculation unit, which is a unit that measures a movement amount of a partial movement as a vector based on a difference between two types of images. The details of the motion vector calculation unit 102 will be described later. 10
Reference numeral 3 denotes a vector division unit that divides the calculated vector into a plurality of vectors, the details of which will be described later.

【0031】104は配置部Aであり、撮像した画像の
画素配置を制御する。また、105は配置部Bであり、
ベクトル分割部103にて分割されたベクトル量に応じ
て、配置部A104で画素配置された画像に対して内挿
する画素配置を制御する。106は合成部であり、配置
部A104,配置部B105によってそれぞれ画素配置
された画像を合成する。107は補間部であり、合成部
106において合成した画像が、まだ所望の解像度まで
は内挿点の情報が埋まっていない場合に、埋まっていな
い内挿点の情報を補間演算により算出する。この補間部
107によって所望の解像度を達成するに十分な画素が
生成されることにより、本実施形態における高解像度化
が達成される。108は出力端子であり、高解像度化し
た画像情報がプリンタ等に送信される。
Reference numeral 104 denotes an arrangement unit A, which controls the arrangement of pixels of a captured image. Reference numeral 105 denotes an arrangement unit B,
In accordance with the vector amount divided by the vector dividing unit 103, a pixel arrangement to be interpolated in the image in which the pixels are arranged by the arrangement unit A104 is controlled. Reference numeral 106 denotes a synthesizing unit, which synthesizes images in which pixels are arranged by the arranging units A104 and B105. Reference numeral 107 denotes an interpolation unit which, when the image synthesized by the synthesizing unit 106 does not yet have the interpolation point information filled up to the desired resolution, calculates the interpolation point information that is not embedded by interpolation. By generating enough pixels to achieve a desired resolution by the interpolation unit 107, a higher resolution in the present embodiment is achieved. Reference numeral 108 denotes an output terminal for transmitting image information having a high resolution to a printer or the like.

【0032】110はCPUであり、ROM111に保
持された制御プログラムに従って、上述した各構成の動
作を統括的に制御する。RAM112は、CPU110
の作業領域として使用される。
Reference numeral 110 denotes a CPU, which controls the operations of the above-described components according to a control program stored in the ROM 111. RAM 112 is CPU 110
Used as a work area.

【0033】[動きベクトル演算]次に、動きベクトル演
算部102における処理について詳細に説明する。
[Motion Vector Calculation] Next, the processing in the motion vector calculation unit 102 will be described in detail.

【0034】動きベクトルを算出するために、以前より
様々な方法が提案されている。以下、「画像解析ハンド
ブック:高木幹雄、下田陽久監修東京大学出版会」に記
載されているテンプレートマッチングの中の残差逐次検
定法(SSDA法)について紹介する。
Various methods have been proposed for calculating a motion vector. In the following, we introduce the Residual Sequential Test (SSDA method) in template matching described in "Image Analysis Handbook: Mikio Takagi and Hirohisa Shimoda Supervised by the University of Tokyo Press".

【0035】図2に示すように、N1×N1画素のテン
プレート、もしくはブロックを、それよりも大きいM1
×M1画素の入力画像内の探索範囲(M1−N1+1)^2
上で動かし、以下の式6で示される残差が最小となるよ
うなテンプレート画像の左上位置を求めることにより、
重ね合わせ(マッチング)が達成されたとみなす。 R(a,b)=ΣΣ|I(a,b)(m1,n1)-T(m1,n1)| …式6 (但し、左のΣはm1=0からN1-1,右のΣはn1=0からN1-1
の範囲) ただし、式6において(a,b)は入力画像内におけるテン
プレート画像の左上位置を示し、I(a,b)(m1,n1)は入力
画像の部分画像、T(m1,n1)はテンプレート画像である。
As shown in FIG. 2, a template or block of N1 × N1 pixels is set to a larger M1.
× M1 pixel search range in the input image (M1-N1 + 1) ^ 2
By moving the above, by obtaining the upper left position of the template image such that the residual represented by the following Expression 6 is minimized,
It is considered that the superposition (matching) has been achieved. R (a, b) = ΣΣ | I (a, b) (m1, n1) -T (m1, n1) |… Equation 6 (However, the left Σ is from m1 = 0 to N1-1, and the right Σ is n1 = 0 to N1-1
Where (a, b) indicates the upper left position of the template image in the input image, I (a, b) (m1, n1) is a partial image of the input image, and T (m1, n1) Is a template image.

【0036】この際、重ね合せがずれていると、各画素
について順次加算していくときに残差が急激に増大す
る、そこで、式6に示す加算の途中で残差がある閾値を
超えたら、重ね合せが不十分であると判断して加算を打
ち切り、次の(a,b)の演算に移る方法が残差逐次検定法
である。
At this time, if the superposition is displaced, the residual increases rapidly when sequentially adding each pixel. Therefore, if the residual exceeds a certain threshold value in the middle of the addition shown in equation (6). A method of judging that the superposition is insufficient and discontinuing the addition and proceeding to the next operation (a, b) is a residual sequential test method.

【0037】すなわち、ここで、2種の画像を動画上の
連続画像と坂定すると、上記方法を用いることにより、
両者間の幾何学的ずれを定量化することが容易に可能と
なる。
That is, here, when two types of images are determined to be continuous images on a moving image, the following method is used.
It is easy to quantify the geometric deviation between the two.

【0038】動きベクトルの演算方法としては、より高
精度である提案もなされているが、本実施形態では説明
を容易にするために、上記テンプレートマッチングによ
る方法を用いることとする。
As a method of calculating a motion vector, a method with higher accuracy has been proposed, but in the present embodiment, the method based on the above-described template matching is used for ease of explanation.

【0039】さて、上述したテンプレートマッチングに
よる動きベクトルは、残差が最小になる重ね合せを検出
するものであり、前述したようにベクトルの分解能は画
素単位である。すなわち、画素間距離よりも細かい分解
能を持ち合わせていない。符号化時に動き補償としてテ
ンプレートマッチングを用いるのは非常に有効である
が、補間、すなわち、画素間の情報を埋める内挿技術へ
の応用としては、より細かい分解能が必要となる。
The motion vector obtained by the above-described template matching is for detecting a superposition in which the residual is minimized, and the resolution of the vector is in units of pixels as described above. That is, it does not have a resolution finer than the distance between pixels. Although it is very effective to use template matching as motion compensation during encoding, finer resolution is required for application to interpolation, ie, an interpolation technique for filling information between pixels.

【0040】そこで本実施形態においては、連続した2
種の画像の動きベクトルを算出するのではなく、あえて
時間的にサンプリングの離れた2種の画像について動き
ベクトルを算出する。
Therefore, in the present embodiment, two consecutive
Instead of calculating the motion vector of the kind image, the motion vector is calculated for two kinds of images that are temporally separated in sampling.

【0041】すなわち、格納部101から動きベクトル
演算部102に送信される2種の画像として、一方は、
ユーザが取り込み命令を発した直後のる画像(mフレー
ムと称する)であり、他方はmフレーム目からnフレー
ム後の画像((m+n)フレームと称する、但しn>
1)であるとする。ここで、n=3の場合を例として説
明すると、動きベクトル演算部102においては、mフ
レーム目の画像と(m+3)フレーム目の画像間におい
て、どのようなベクトル移動が発生したかを検出するも
のである。当然、この時に算出される動きベクトルの分
解能は画素単位である。
That is, as two types of images transmitted from the storage unit 101 to the motion vector calculation unit 102, one of
An image immediately after the user issues a capture command (referred to as an m-th frame), and the other image is referred to as an image ((m + n) -th frame after an n-th frame from the m-th frame, where n>
1). Here, the case where n = 3 will be described as an example. The motion vector calculation unit 102 detects what kind of vector movement has occurred between the image of the m-th frame and the image of the (m + 3) -th frame. Things. Naturally, the resolution of the motion vector calculated at this time is in pixel units.

【0042】[ベクトル分割]次に、ベクトル分割部10
3における処理について詳細に説明する。
[Vector division] Next, the vector division unit 10
3 will be described in detail.

【0043】ベクトル分割部103は、動きベクトル演
算部102において演算された動きベクトル量に基づい
て、nフレーム間で移動したベクトル量を1フレームあ
たりのベクトル量に換算する為にnの値で除算する除算
器により構成される。
The vector dividing unit 103 divides a vector amount moved between n frames into a vector amount per frame based on the motion vector amount calculated by the motion vector calculating unit 102 by the value of n. And a divider.

【0044】上述したように、本発明の特徴は、動きベ
クトルの分解能を画素間距離よりも細かく設定して補間
することにある。従って本実施形態においては、動きベ
クトルが時間的に全く線形に移動するものと仮定する。
このように動きベクトルが線形に移動しているのであれ
ば、複数フレームの時間差をおいて動きベクトルを算出
して1フレームあたり換算することにより、連続フレー
ム間において画素間よりも細かいベクトルの算出が可能
となる。
As described above, the feature of the present invention resides in that the resolution of a motion vector is set finer than the distance between pixels, and interpolation is performed. Therefore, in the present embodiment, it is assumed that the motion vector moves linearly in time.
If the motion vector moves linearly as described above, the motion vector is calculated with a time difference of a plurality of frames and converted for each frame, so that a vector finer than the pixel between consecutive frames can be calculated. It becomes possible.

【0045】尚、本実施形態は上述した仮定の基に成立
しているため、以下に示す若干の制約が設けられる。即
ち、nフレーム間の動きベクトル量がnの値に比べて余
りにも大きい場合には、1フレームあたりのベクトル量
の精度が低下してしまうということである。
Since the present embodiment is established based on the above assumptions, the following slight restrictions are provided. That is, when the motion vector amount between n frames is too large compared to the value of n, the accuracy of the vector amount per frame is reduced.

【0046】ただし、対象画像が、スポーツシーン等の
動きの激しいものではなく、記念撮影や風景、植物、静
止物等の比較的動きの少ないものであれば、画像中の多
くのブロックにおいて絶対的な移動量が少ない。そこ
で、図2に示すテンプレートマッチングによる動きベク
トル検出方法においては、当然ブロック単位で動き量が
異なるため、移動量が所定値よりも大きいブロックにつ
いては分割しないように構成することも考えられる。
However, if the target image is not a fast-moving one such as a sports scene, but rather a relatively small one such as a commemorative photograph, a landscape, a plant, a still object, etc., an absolute number of blocks in the image are absolute. Small moving amount. Therefore, in the motion vector detection method based on template matching shown in FIG. 2, since the motion amount naturally differs in block units, it may be possible to adopt a configuration in which a block having a movement amount larger than a predetermined value is not divided.

【0047】[画素配置概要]配置部A104はmフレー
ム目の画素を配置し、配置部B105はベクトル分割量
に応じてmフレーム目の画像に対する内挿画素を配置す
る。すなわち、配置部B105に入力されるフレームは
m+aフレーム(a=1〜(n−1))目であり、(n−
1)フレーム数分を順次入力して、その分割量に応じて
内挿画素の画素値を配置していく。
[Outline of Pixel Arrangement] The arrangement unit A104 arranges pixels in the m-th frame, and the arrangement unit B105 arranges interpolation pixels for the image in the m-th frame in accordance with the vector division amount. That is, the frame input to the arrangement unit B105 is the (m + a) -th frame (a = 1 to (n−1)), and
1) The number of frames is sequentially input, and the pixel values of the interpolation pixels are arranged according to the division amount.

【0048】この時、ベクトル分割部103から送信さ
れる分割量は、動きベクトルの1/nであり、配置部B
105では、これにaを乗ずる。すなわち、動きベクト
ル×(a/n)が、(m+a)フレーム目を入力した際の配
置位置になる。
At this time, the division amount transmitted from the vector division unit 103 is 1 / n of the motion vector,
At 105, this is multiplied by a. That is, the motion vector × (a / n) is the arrangement position when the (m + a) th frame is input.

【0049】ここでn=3を例とすると、配置部B10
5は、動きベクトルの分割量として1/3を受けて、(m
+1)フレーム目は動きベクトルの1/3、(m+2)フレ
ーム目は動きベクトルの2/3を配置することになる。
Here, assuming that n = 3, the arrangement portion B10
5 receives 1/3 as the motion vector division amount and obtains (m
In the (+1) th frame, 1/3 of the motion vector is arranged, and in the (m + 2) th frame, 2/3 of the motion vector is arranged.

【0050】図3は、実際の画像の動き例を表した図で
あり、撮影した物体(もしくはカメラ)が徐々に斜め方
向に移動している例である。図3の(a)〜(d)は、それ
ぞれmフレーム目〜(m+3)フレーム目の画像を表して
いる。
FIG. 3 is a diagram showing an example of the movement of an actual image, in which a photographed object (or a camera) is gradually moving in an oblique direction. (A) to (d) of FIG. 3 represent images of the mth to (m + 3) th frames, respectively.

【0051】図4は、図3に示す例における動きベクト
ルの様子を表した図である。図4の(a)はmフレーム目
の画像であり、図4の(b)は(m+3)フレーム目の画像
である。ここで、動きベクトルを算出する2種の画像と
して、図4の(a),(b)に示す画像を用いるとする。図
4において物体(オブジェクト)を囲むブロックは、動き
ベクトルを算出するためのブロックであり、図2で示し
たN1×N1のブロックに相当する。尚、ここでは説明
を容易にするために、あえて動きベクトルが全ブロック
共通であると仮定する。図4の(a),(b)により得られ
た動きベクトルを、図4の(c)に示す。
FIG. 4 is a diagram showing the state of the motion vector in the example shown in FIG. 4A is an image of the m-th frame, and FIG. 4B is an image of the (m + 3) -th frame. Here, it is assumed that the images shown in FIGS. 4A and 4B are used as the two types of images for calculating the motion vector. In FIG. 4, a block surrounding an object is a block for calculating a motion vector, and corresponds to the N1 × N1 block shown in FIG. Here, for ease of explanation, it is assumed that the motion vector is intentionally common to all blocks. The motion vectors obtained by (a) and (b) of FIG. 4 are shown in (c) of FIG.

【0052】図5は、図4の(c)に示す動きベクトルを
分割する様子を示す。図5の(a)は算出された3フレー
ム分の動きベクトルを示し、図5の(b)は図5の(a)の
ベクトルを1/3にしたもの、図5の(c)は図5の(a)
のベクトルを2/3にしたものである。すなわち、図5
の(a)に示すベクトル量は3フレーム間において移動し
たものであるため、該ベクトルをフレーム数で除算する
ことになる。
FIG. 5 shows how the motion vector shown in FIG. 4C is divided. 5A shows the calculated motion vectors for three frames, FIG. 5B shows the vector obtained by reducing the vector of FIG. 5A to 1, and FIG. 5 (a)
Is reduced to 2/3. That is, FIG.
Since the vector amount shown in (a) has moved between three frames, the vector amount is divided by the number of frames.

【0053】図6は、図5に示した様に算出したベクト
ルの分割量に応じて、ブロックを移動させた様子を示
す。図6の(a)は全く移動しない画像、図6の(b)はベ
クトル量を1/3だけ移動させた画像、図6の(c)はベ
クトル量を2/3だけ移動させた画像、図6の(d)はベ
クトル量を1だけ移動させた画像である。ここで、図6
の(a)及び(d)は、図3の(a)及び(d)にそれぞれ一致
する。しかしながら、図6の(b)及び(c)は、図3の
(b)及び(c)とは完全には一致しない。上述したように
本実施形態は、動きベクトルが時間軸に線形である(但
し、短時間、及び、移動距離が微小である場合)という
仮定に基づいているため、図6の(b)及び(c))の位置
はあくまでも推測によるものとなる。
FIG. 6 shows a state in which blocks are moved according to the vector division amount calculated as shown in FIG. 6A shows an image that does not move at all, FIG. 6B shows an image obtained by moving the vector amount by /, FIG. 6C shows an image obtained by moving the vector amount by /, FIG. 6D is an image obtained by moving the vector amount by one. Here, FIG.
(A) and (d) correspond to (a) and (d) in FIG. 3, respectively. However, (b) and (c) of FIG.
(b) and (c) do not completely match. As described above, the present embodiment is based on the assumption that the motion vector is linear on the time axis (however, in a short time and when the moving distance is very small). The position of c)) is based on a guess.

【0054】[画素配置詳細]以下、本実施形態における
画素配置について、更に詳細に説明する。
[Details of Pixel Arrangement] Hereinafter, the pixel arrangement in the present embodiment will be described in more detail.

【0055】図7は、ベクトル分割の様子を詳細に示す
図であり、縦横の直線の交点が各画素位置を示してい
る。図7の(a)における○印間の矢印は、mフレームと
(m+n)フレームの画像間において算出した動きベクト
ルを示す。以下、n=3である場合を仮定して説明す
る。
FIG. 7 is a diagram showing the details of the vector division, where the intersections of the vertical and horizontal lines indicate the positions of the respective pixels. The arrow between the circles in FIG.
It shows a motion vector calculated between images of (m + n) frames. Hereinafter, the description will be made on the assumption that n = 3.

【0056】図7の(a)に示す動きベクトルは、左に3
画素、上に2画素移動している。すなわち、3フレーム
分で、この矢印相当のベクトル移動があったことを示
す。図7の(b)における○印と△印を結ぶ矢印は、図7
の(a)に示すベクトルの1/3だけ移動した量を示して
いる。つまり、(m+1)フレーム目において、○印の画
素が△印まで移動したと仮定する。同様に、図7の(c)
における○印と×印を結ぶ矢印は、図7の(a)に示すベ
クトルの2/3だけ移動した量を示している。つまり、
(m+2)フレーム目において、○印の画素が×印まで移
動したと仮定する。
The motion vector shown in FIG.
The pixel has moved up by two pixels. In other words, this indicates that the vector movement corresponding to the arrow has occurred in three frames. In FIG. 7B, an arrow connecting a circle and a triangle indicates that the arrow in FIG.
(A) shows the amount moved by / of the vector shown in FIG. That is, in the (m + 1) th frame, it is assumed that the pixel marked with a circle has moved to the mark marked with a triangle. Similarly, FIG.
In FIG. 7, the arrow connecting the mark and the mark indicates the amount moved by 2/3 of the vector shown in FIG. That is,
In the (m + 2) -th frame, it is assumed that the pixel marked by ○ has moved to the mark ×.

【0057】図8は、図7に示した分割ベクトル量に基
づいて、mフレーム、(m+1)フレーム、(m+2)フレ
ームの3フレーム分の情報を配置して合成させた様子を
示す図である。つまり、mフレーム目の情報(○印)は移
動量なしで配置し、(m+1)フレーム目の情報(△印)は
ベクトルの1/3だけ移動した位置で配置し、(m+2)
フレーム目の情報(×印)は、ベクトルの2/3だけ移動
した位置で配置する。このように配置を制御することに
より、図8に示すように画素間の内挿が実行できる。
FIG. 8 is a diagram showing a state in which information for three frames of m, (m + 1) and (m + 2) frames is arranged and synthesized based on the amount of divided vectors shown in FIG. . That is, the information of the m-th frame (marked by ○) is arranged without the movement amount, the information of the (m + 1) th frame (marked by △) is arranged at a position moved by / of the vector, and
The information of the frame (marked by x) is arranged at a position shifted by 2/3 of the vector. By controlling the arrangement in this way, interpolation between pixels can be performed as shown in FIG.

【0058】図8に示す例においては垂直方向に3倍の
補間が実現したわけであるが、水平方向、もしくは、よ
り多くの垂直方向への補間演算は、補間部107にて実
行する。この時の補間の方法としては、上記従来例にお
いて図11〜図13で示した方法等が考えられる。
In the example shown in FIG. 8, three times interpolation is realized in the vertical direction. However, the interpolation operation in the horizontal direction or in the vertical direction is executed by the interpolation unit 107. As the interpolation method at this time, the methods shown in FIGS.

【0059】尚、本実施形態による内挿方法において
は、画素間の所望の内挿位置に画素情報が配置されると
は限らない。その場合には補間演算を施すことにより、
所望の内挿位置の情報を算出するわけであるが、1枚の
静止画の場合よりも複数の静止画を合成した場合の方
が、補間演算において参照される画素が内挿位置により
近くなるために、より高精細な画像を作成することがで
きる。
In the interpolation method according to the present embodiment, pixel information is not always arranged at a desired interpolation position between pixels. In that case, by performing an interpolation operation,
The information of the desired interpolation position is calculated. However, when a plurality of still images are combined, the pixel referred to in the interpolation calculation is closer to the interpolation position than when a single still image is obtained. Therefore, a higher definition image can be created.

【0060】尚、本実施形態においては画素を内挿する
ことにより高解像度化を実現する例について説明した
が、もちろん拡大変倍を実現する場合においても同様に
適用できることはいうまでもない。
In the present embodiment, an example has been described in which the resolution is increased by interpolating pixels. However, it is needless to say that the present invention can be similarly applied to the case of realizing enlargement / reduction.

【0061】以上説明したように本実施形態によれば、
複数フレーム分の動きベクトルを抽出し、フレーム数で
除算することにより、連続フレームの動きベクトル量の
分解能を1画素単位よりも細かく設定することができ
る。従って、1画素よりも細かい分解能で複数フレーム
を合成することにより、高解像度画像をより高詳細に生
成することができる。
As described above, according to the present embodiment,
By extracting the motion vectors for a plurality of frames and dividing by the number of frames, the resolution of the motion vector amount of the continuous frames can be set finer than one pixel unit. Therefore, by synthesizing a plurality of frames with a resolution finer than one pixel, a high-resolution image can be generated in higher detail.

【0062】また、連続フレームの動きベクトルを算出
する場合に比べ、動きベクトルを演算する回数が減るた
め、高速処理が可能となる。
Further, as compared with the case where the motion vector of a continuous frame is calculated, the number of times of calculating the motion vector is reduced, so that high-speed processing can be performed.

【0063】従って、例えばビデオカメラにて撮影した
低解像静止画情報から1枚の高解像静止画情報を容易に
作成してプリンタ等に出力することが可能となるため、
入出力時の解像度の異なる機種間通信を行なう画像処理
システムにおいて、高画質画像の出力が可能となる。
Accordingly, for example, one piece of high-resolution still image information can be easily created from low-resolution still image information captured by a video camera and output to a printer or the like.
In an image processing system for performing communication between models having different resolutions at the time of input / output, it is possible to output a high-quality image.

【0064】<第2実施形態>以下、本発明に係る第2
実施形態について説明する。
<Second Embodiment> Hereinafter, a second embodiment according to the present invention will be described.
An embodiment will be described.

【0065】図9は、第2実施形態の画像処理装置であ
るコンピュータの機能構成を示すブロック図であり、上
述した第1実施形態で示した図1と同様の構成には同一
番号を付し、説明を省略する。
FIG. 9 is a block diagram showing a functional configuration of a computer which is an image processing apparatus according to the second embodiment. Components similar to those shown in FIG. 1 according to the first embodiment are denoted by the same reference numerals. The description is omitted.

【0066】第2実施形態においては、1枚の静止画を
作成する際に、動きベクトルの算出対象となる2種の画
像を逐次切り替えて、更に合成していくことを特徴とす
る。
The second embodiment is characterized in that, when one still image is created, two types of images for which a motion vector is to be calculated are sequentially switched and further combined.

【0067】図9において、カウンタ900は、配置部
B105における各分割ベクトルに基づく配置回数をカ
ウントする。
In FIG. 9, a counter 900 counts the number of arrangements based on each divided vector in arrangement section B105.

【0068】ここで、上述した第1実施形態と同様に、
mフレーム目と(m+n)フレーム目の動きベクトルを算
出し、その分割ベクトルに基づいて、(m+1)フレーム
目から(m+n−1)フレーム目までを、(n−1)枚配置
していく例について説明する。
Here, similarly to the above-described first embodiment,
Example in which the motion vectors of the m-th frame and the (m + n) -th frame are calculated, and (n-1) -th frames from the (m + 1) -th frame to the (m + n-1) -th frame are arranged based on the divided vectors. Will be described.

【0069】カウンタ900においては、(n−1)枚ま
での配置をカウントすると、出力フレーム制御部901
に通知する。出力フレーム制御部901は、該通知を受
けて格納部902に格納されているフレームの中から、
更に次の動きベクトルの算出対象となる2フレームを指
定する。次の2フレームは、前回の2フレームの一方で
ある(m+n)フレーム目が基準となり、更にそれからn
フレーム進行した(m+2n)フレーム目との動きベクト
ルを算出する。
When the counter 900 counts the arrangement of (n-1) sheets, the output frame control unit 901
Notify. Upon receiving the notification, the output frame control unit 901 selects, from among the frames stored in the storage unit 902,
Furthermore, two frames for which the next motion vector is to be calculated are specified. The next two frames are based on the (m + n) th frame, which is one of the previous two frames, and then n
A motion vector with the (m + 2n) th frame that has progressed by the frame is calculated.

【0070】そして配置部A104及び配置部B105
において、該動きベクトルに基づいた画素配置が行わ
れ、合成部106で合成されるが、このとき合成部10
6においては、既に前回のmフレーム目から(m+n−
1)フレーム目までに基づく合成画像が完成されてい
る。従って、該合成画像に更に、(m+n)フレーム目か
ら(m+2n−1)フレーム目までに基づく画素配置が合
成される。
The arrangement section A104 and the arrangement section B105
In, the pixel arrangement based on the motion vector is performed and synthesized by the synthesizing unit 106.
In (6), (m + n-
1) A composite image based on the frames up to the frame is completed. Therefore, a pixel arrangement based on the (m + n) th frame to the (m + 2n-1) th frame is further combined with the combined image.

【0071】このように第2実施形態においては、nフ
レーム進行した画像同士を順次比較してその動き量を求
め、該動き量をnで除算した分割ベクトルに基づいて、
画素を順次配置していく。即ち、図9に示される様に、
bを整数とすると、動きベクトルを(m+n×b)フレー
ム目と(m+n×(b+1))フレーム目によって求め、そ
の分割ベクトルに基づいて、(m+n×b+a)フレーム
目を(n−1)フレーム毎に配置していくことになる。そ
してこの処理を、bを1づつインクリメントして所定の
上限値まで繰り返すことにより、より高画質な高解像度
画像が得られる。
As described above, in the second embodiment, images that have progressed by n frames are sequentially compared to determine the amount of motion, and based on the divided vector obtained by dividing the amount of motion by n,
Pixels are sequentially arranged. That is, as shown in FIG.
Assuming that b is an integer, a motion vector is obtained by the (m + n × b) th frame and the (m + n × (b + 1)) th frame, and based on the divided vector, the (m + n × b + a) th frame is obtained by the (n−1) th frame. It will be arranged every time. Then, by repeating this process by incrementing b by one and up to a predetermined upper limit, a higher-quality high-resolution image can be obtained.

【0072】以上説明したように第2実施形態によれ
ば、上述した第1実施形態により得られる効果に加え
て、上記bの上限値を大きく設定することにより1枚の
静止画作成に使用するフレーム数が増加するため、内挿
後の画質が更に向上する。
As described above, according to the second embodiment, in addition to the effects obtained by the above-described first embodiment, by setting the upper limit value of b to be large, it is possible to use one still image. Since the number of frames is increased, the image quality after interpolation is further improved.

【0073】尚、第2実施形態においてn,bの値を、
例えば実験的に得られた最適値に設定することによっ
て、最高画質による解像度変換を可能とする画像処理装
置が提供できる。
In the second embodiment, the values of n and b are
For example, it is possible to provide an image processing apparatus capable of performing resolution conversion with the highest image quality by setting an optimal value obtained experimentally.

【0074】尚、第2実施形態においてカウンタ900
は、配置部B105における配置回数をカウントすると
して説明したが、カウントする数値は配置回数には限ら
ず、次回の動きベクトル演算の開始タイミングを規定す
ることができれば何でも良い。
In the second embodiment, the counter 900 is used.
Has been described as counting the number of arrangements in the arrangement unit B105, but the numerical value to be counted is not limited to the number of arrangements, and may be anything as long as the start timing of the next motion vector calculation can be defined.

【0075】<第3実施形態>以下、本発明に係る第3
実施形態について説明する。
<Third Embodiment> Hereinafter, a third embodiment according to the present invention will be described.
An embodiment will be described.

【0076】図10は、第3実施形態の画像処理装置で
あるコンピュータの機能構成を示すブロック図であり、
上述した第1実施形態で示した図1と同様の構成には同
一番号を付し、説明を省略する。
FIG. 10 is a block diagram showing a functional configuration of a computer which is an image processing apparatus according to the third embodiment.
The same components as those in FIG. 1 shown in the above-described first embodiment are denoted by the same reference numerals, and description thereof is omitted.

【0077】第3実施形態においては、算出された動き
ベクトル量の大きさに応じて、動きベクトルの算出対象
となる2種の画像を切り替えることを特徴とする。即
ち、動きベクトル演算部1001において算出されたベ
クトル量に基づいて、比較対象フレームをフィードバッ
クする構成になっている。
The third embodiment is characterized in that two types of images for which a motion vector is to be calculated are switched according to the magnitude of the calculated motion vector amount. That is, the comparison target frame is fed back based on the vector amount calculated by the motion vector calculation unit 1001.

【0078】ここで、上述した第1実施形態と同様に、
動きベクトル演算部1001において、mフレーム目と
(m+n)フレーム目との間で動きベクトルを算出する場
合について考える。このとき、mフレーム目から(m+
n)フレーム目にかけて、移動量が予め設定した閾値よ
りも大きい、即ち、算出した動きベクトルの値が大きい
と判断された場合には、出力フレーム制御部1002に
通知される。出力フレーム制御部1002においては、
(m+n)フレーム目から1フレーム分逆行した(m+n
−1)フレーム目をベクトル演算対象として、格納部1
003に指定する。すると格納部1003は(m+n−
1)フレーム目を出力し、動きベクトル演算部1001
では今度はmフレーム目と(m+n−1)フレーム目との
比較を行うことになる。
Here, similarly to the above-described first embodiment,
In the motion vector calculation unit 1001, the m-th frame
Consider a case where a motion vector is calculated between the (m + n) th frame. At this time, (m +
When it is determined that the movement amount is larger than the preset threshold value, that is, the calculated motion vector value is larger in the (n) th frame, the output frame control unit 1002 is notified. In the output frame control unit 1002,
(m + n) One frame backward from the (m + n) th frame (m + n
-1) The storage unit 1 uses the frame number as a vector operation target.
003. Then, the storage unit 1003 stores (m + n-
1) The frame is output and the motion vector calculation unit 1001
Then, the m-th frame and the (m + n-1) -th frame are compared.

【0079】即ち、動きベクトル演算部1001におい
てmフレームと比較されるフレームは、状況に応じて、
(m+n−c)フレーム目(c=0〜n−2)となる。この
cの値を1ずつ増加させながら2フレームを比較してい
くわけであるが、c=n−2になった場合でも、まだ動
きベクトルが所定の閾値よりも大きい場合には合成は行
わず、mフレーム目の画像をそのまま出力する。
That is, the frame to be compared with the m frame in the motion vector calculation unit 1001 depends on the situation.
The (m + n−c) th frame (c = 0 to n−2). The two frames are compared while increasing the value of c by one. Even when c = n−2, if the motion vector is still larger than the predetermined threshold, the synthesis is not performed. , And outputs the image of the m-th frame as it is.

【0080】配置部B105においては、(m+a)フレ
ーム(a=1〜(n−c−1))目を(n−c−1)フレーム
分入力して、(n−c)で除算したベクトル分割量に応じ
て、画素値を配置していく。
In the arranging section B105, the (m + a) th frame (a = 1 to (nc-1)) is input for (nc-1) frames, and the vector is divided by (nc). Pixel values are arranged according to the division amount.

【0081】以上説明したように第3実施形態によれ
ば、上述した第1実施形態により得られる効果に加え
て、更に適切な移動量を有するフレーム間においてのみ
動きベクトルを算出して適切な内挿処理を行なうことに
より、内挿後の画質が更に向上する。
As described above, according to the third embodiment, in addition to the effects obtained by the above-described first embodiment, a motion vector is calculated only between frames having a more appropriate moving amount and an appropriate By performing the insertion process, the image quality after interpolation is further improved.

【0082】尚、上述した各実施形態においては、mフ
レームより時間的に進行したフレームに対して動きベク
トル量を算出する処理について説明したが、mフレーム
目以前のフレームを利用して動きベクトルを算出するこ
とももちろん同様に可能である。
In each of the above-described embodiments, the processing of calculating the motion vector amount for a frame temporally advanced from the m-th frame has been described. Of course, the calculation is also possible.

【0083】また、動きベクトルの算出方法としては、
テンプレートマッチングを例として説明したが、これ以
外の方法であってももちろん構わない。例えば、フレー
ム間における移動が平行移動のみである場合以外に、回
転系の動きをアフィン変換の係数として算出し、該係数
を分割して画素配置する方法も考えられる。
The method of calculating the motion vector is as follows.
Although template matching has been described as an example, other methods may of course be used. For example, in addition to the case where the movement between frames is only a parallel movement, a method of calculating the movement of the rotation system as an affine transformation coefficient, dividing the coefficient, and arranging pixels may be considered.

【0084】また、上述した各実施形態においては、ビ
デオカメラによる撮影画像を一旦ビデオテープ等の記録
媒体に録画し、該記録媒体を再生して所望の複数フレー
ムを格納する例について説明した。しかしながら、本発
明における処理対象となる複数フレームはこのような中
間媒体からの再生画像に限定されず、ユーザの指定によ
って撮影画像から複数フレームを直接格納して、高解像
静止画を作成する構成であっても良い。
In each of the above-described embodiments, an example has been described in which an image captured by a video camera is temporarily recorded on a recording medium such as a video tape, and the recording medium is reproduced to store a desired plurality of frames. However, the plurality of frames to be processed in the present invention are not limited to the reproduced image from such an intermediate medium, and a plurality of frames are directly stored from a captured image according to a user's specification to create a high-resolution still image. It may be.

【0085】[0085]

【他の実施形態】なお、本発明は、複数の機器(例えば
ホストコンピュータ,インタフェイス機器,リーダ,プ
リンタなど)から構成されるシステムに適用しても、一
つの機器からなる装置(例えば、複写機,ファクシミリ
装置など)に適用してもよい。
[Other Embodiments] Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine) Machine, facsimile machine, etc.).

【0086】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
Further, an object of the present invention is to supply a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0087】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0088】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0089】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0090】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。本発明を上記記憶
媒体に適用する場合、その記憶媒体には、先に説明した
フローチャートに対応するプログラムコードを格納する
ことになる。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments. When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.

【0091】[0091]

【発明の効果】以上説明したように本発明によれば、複
数の低解像画像に基づいて、高画質な高解像静止画を生
成することができる。
As described above, according to the present invention, a high-quality high-resolution still image can be generated based on a plurality of low-resolution images.

【0092】また、動きベクトルの分解能を画素間距離
よりも細かくした補間が可能となる。
Further, it is possible to perform interpolation in which the resolution of the motion vector is made finer than the distance between pixels.

【0093】また、入出力時の解像度の異なる機種間に
おいて、高画質画像を出力することが可能となる。
Further, it is possible to output a high quality image between models having different resolutions at the time of input / output.

【0094】[0094]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る一実施形態における画像処理装置
の機能構成を示すブロック図、
FIG. 1 is a block diagram showing a functional configuration of an image processing apparatus according to an embodiment of the present invention;

【図2】動きベクトル演算を説明する図、FIG. 2 is a diagram illustrating a motion vector calculation;

【図3】連続画像の一例を示す図、FIG. 3 is a diagram showing an example of a continuous image.

【図4】動きベクトルを説明する図、FIG. 4 is a diagram for explaining a motion vector;

【図5】ベクトル分割を説明する図、FIG. 5 is a diagram illustrating vector division.

【図6】フレーム毎の配置を説明する図、FIG. 6 is a diagram illustrating an arrangement for each frame;

【図7】画素単位のベクトル分割を説明する図、FIG. 7 is a diagram illustrating vector division in pixel units.

【図8】画素の配置及び合成を説明する図、FIG. 8 is a diagram illustrating the arrangement and combination of pixels.

【図9】第2実施形態における画像処理装置の機能構成
を示すブロック図、
FIG. 9 is a block diagram illustrating a functional configuration of an image processing apparatus according to a second embodiment.

【図10】第3実施形態における画像処理装置の機能構
成を示すブロック図、
FIG. 10 is a block diagram illustrating a functional configuration of an image processing apparatus according to a third embodiment;

【図11】従来の最近接内挿法を説明する図、FIG. 11 is a view for explaining a conventional nearest neighbor interpolation method;

【図12】従来の共1次内挿法を説明する図、FIG. 12 is a diagram illustrating a conventional bilinear interpolation method;

【図13】従来の3次たたみ込み内挿法を説明する図、
である。
FIG. 13 is a view for explaining a conventional cubic convolution interpolation method;
It is.

【符号の説明】[Explanation of symbols]

100 入力端子 101,902,1003 格納部 102,1001 動きベクトル演算部 103 ベクトル分割部 104 配置部A 105 配置部B 106 合成部 107 補間部 108 出力端子 900 カウンタ 901,1002 出力フレーム制御部 Reference Signs List 100 input terminal 101, 902, 1003 storage unit 102, 1001 motion vector calculation unit 103 vector division unit 104 placement unit 105 placement unit B 106 synthesis unit 107 interpolation unit 108 output terminal 900 counter 901, 1002 output frame control unit

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 複数の低解像度画像を入力する入力手段
と、 該複数の低解像度画像間における差分を検出する検出手
段と、 該差分に基づいて前記低解像度画像から高解像度画像を
生成する生成手段と、を有することを特徴とする画像処
理装置。
An input unit that inputs a plurality of low-resolution images; a detection unit that detects a difference between the plurality of low-resolution images; and a generation unit that generates a high-resolution image from the low-resolution images based on the differences. And an image processing device.
【請求項2】 前記入力手段は動画像における複数フレ
ームの画像を入力し、 前記検出手段は該複数フレーム間における動きベクトル
を検出し、 前記生成手段は、該動きベクトルに基づいて前記複数フ
レームの画像から高解像度の静止画像を生成することを
特徴とする請求項1記載の画像処理装置。
2. The input unit inputs images of a plurality of frames in a moving image, the detecting unit detects a motion vector between the plurality of frames, and the generating unit detects the motion vector of the plurality of frames based on the motion vector. The image processing apparatus according to claim 1, wherein a high-resolution still image is generated from the image.
【請求項3】 前記入力手段は動画像の第1のフレーム
から第2のフレームまでの連続する複数フレームを入力
し、 前記検出手段は前記第1のフレームと第2のフレーム間
における動きベクトルを検出し、 前記生成手段は、前記第1のフレームと第2のフレーム
間のフレームの画素を、前記動きベクトルに基づいて前
記第1のフレームの画像に内挿して静止画像を生成する
ことを特徴とする請求項2記載の画像処理装置。
3. The input means inputs a plurality of continuous frames from a first frame to a second frame of a moving image, and the detecting means detects a motion vector between the first frame and the second frame. Detecting, wherein the generating unit generates a still image by interpolating pixels of a frame between the first frame and the second frame into an image of the first frame based on the motion vector. The image processing device according to claim 2.
【請求項4】 前記生成手段は更に、 前記動きベクトルを前記第1のフレームと第2のフレー
ム間のフレーム数で分割する分割手段と、 前記第1のフレームの画素を配置する第1の配置手段
と、 前記分割手段により分割された動きベクトルに基づい
て、前記第1のフレームと第2のフレーム間のフレーム
の画素を配置する第2の配置手段と、 前記第1及び第2の配置手段により配置された画素を合
成して1枚の静止画像を生成する合成手段と、を有する
ことを特徴とする請求項3記載の画像処理装置。
4. The generating means further comprises: a dividing means for dividing the motion vector by the number of frames between the first frame and the second frame; and a first arrangement for arranging pixels of the first frame. Means, means for arranging pixels of a frame between the first frame and the second frame based on the motion vector divided by the means for dividing, and first and second arranging means 4. An image processing apparatus according to claim 3, further comprising: synthesizing means for synthesizing the pixels arranged according to (1) and generating one still image.
【請求項5】 前記分割手段において前記動きベクトル
をn分割した場合、前記第2の配置手段は、前記第1の
フレームからa番目のフレームの画素を前記動きベクト
ルのa/nの位置に配置することを特徴とする請求項4
記載の画像処理装置。
5. When the dividing unit divides the motion vector into n, the second arranging unit arranges pixels of an a-th frame from the first frame at a / n positions of the motion vector. 5. The method according to claim 4, wherein
The image processing apparatus according to any one of the preceding claims.
【請求項6】 前記生成手段は更に、 前記合成手段により合成された画像に対して更に補間演
算を施して高解像度化する補間手段を有することを特徴
とする請求項4記載の画像処理装置。
6. The image processing apparatus according to claim 4, wherein said generating means further comprises an interpolation means for further performing an interpolation operation on the image synthesized by said synthesis means to increase the resolution.
【請求項7】 前記生成手段は更に、前記第1及び第2
のフレームよりなるフレーム組の選択を制御するフレー
ム組制御手段を有することを特徴とする請求項3記載の
画像処理装置。
7. The method according to claim 7, wherein the generating unit further includes the first and second units.
4. The image processing apparatus according to claim 3, further comprising a frame set control unit that controls selection of a frame set including the frames.
【請求項8】 前記合成手段は、前記フレーム組選択手
段によって選択されたフレーム組毎に合成された静止画
像を合成することを特徴とする請求項7記載の画像処理
装置。
8. The image processing apparatus according to claim 7, wherein the synthesizing unit synthesizes a still image synthesized for each frame group selected by the frame group selecting unit.
【請求項9】 前記フレーム組制御手段は、前記フレー
ム組のそれぞれにおいて、前記第1及び第2のフレーム
間隔が同じになるように制御することを特徴とする請求
項8記載の画像処理装置。
9. The image processing apparatus according to claim 8, wherein the frame group control means controls the first and second frame intervals to be the same in each of the frame groups.
【請求項10】 前記フレーム組制御手段は、現在選択
されているフレーム組の第2のフレームが、次に選択さ
れるフレーム組の第1のフレームとなるように制御する
ことを特徴とする請求項9記載の画像処理装置。
10. The frame set control means controls the second frame of the currently selected frame set to be the first frame of the next selected frame set. Item 10. The image processing device according to Item 9.
【請求項11】 前記フレーム組制御手段は、前記検出
手段により検出された動きベクトルに基づいて、前記フ
レーム組を選択することを特徴とする請求項7記載の画
像処理装置。
11. The image processing apparatus according to claim 7, wherein said frame set control means selects said frame set based on a motion vector detected by said detection means.
【請求項12】 前記フレーム組制御手段は、前記動き
ベクトルが所定値以上である場合に、前記フレーム組に
おける第1及び第2のフレーム間隔を狭めるように制御
することを特徴とする請求項11記載の画像処理装置。
12. The apparatus according to claim 11, wherein said frame set control means performs control so as to narrow the first and second frame intervals in said frame set when said motion vector is equal to or greater than a predetermined value. The image processing apparatus according to any one of the preceding claims.
【請求項13】 前記フレーム組制御手段は、前記動き
ベクトルが所定値以上である場合に、前記フレーム組に
おける第2のフレームを第1のフレームに近づけるよう
に制御することを特徴とする請求項12記載の画像処理
装置。
13. The frame set control means controls the second frame in the frame set to be closer to the first frame when the motion vector is equal to or larger than a predetermined value. 13. The image processing device according to 12.
【請求項14】 前記フレーム組における第1及び第2
のフレーム間隔が2フレーム分になった場合に、前記動
きベクトルが所定値以上であれば、前記生成手段は、前
記第1のフレームの画像をそのまま出力することを特徴
とする請求項13記載の画像処理装置。
14. The first and second frames in the frame set.
14. The method according to claim 13, wherein when the frame interval becomes two frames, if the motion vector is equal to or more than a predetermined value, the generation unit outputs the image of the first frame as it is. Image processing device.
【請求項15】 複数の低解像度画像を入力する入力工
程と、 該複数の低解像度画像間における差分を検出する検出工
程と、 該差分に基づいて前記低解像度画像から高解像度画像を
生成する生成工程と、を有することを特徴とする画像処
理方法。
15. An inputting step of inputting a plurality of low-resolution images, a detecting step of detecting a difference between the plurality of low-resolution images, and a generating step of generating a high-resolution image from the low-resolution images based on the difference. And an image processing method.
【請求項16】 動画像を撮影する撮像装置と、該撮影
された動画像を処理する画像処理装置とを接続した画像
処理システムであって、該画像処理装置は、 前記撮像装置により撮影された動画像の複数フレームを
入力する入力手段と、 該複数フレーム間における動きベクトルを検出する検出
手段と、 該動きベクトルに基づいて前記複数フレームの画像から
該画像よりも高解像度の静止画像を生成する生成手段
と、を有することを特徴とする画像処理システム。
16. An image processing system in which an imaging device that captures a moving image and an image processing device that processes the captured moving image are connected, wherein the image processing device is configured to capture an image captured by the imaging device. Input means for inputting a plurality of frames of a moving image; detecting means for detecting a motion vector between the plurality of frames; generating a still image having a higher resolution than the image from the plurality of frames based on the motion vector An image processing system comprising: a generation unit.
【請求項17】 画像処理のプログラムコードが記録さ
れた記録媒体であって、該プログラムコードは、 複数の低解像度画像を入力する入力工程のコードと、 該複数の低解像度画像間における差分を検出する検出工
程のコードと、 該差分に基づいて前記低解像度画像から高解像度画像を
生成する生成工程のコードと、を含むことを特徴とする
記録媒体。
17. A recording medium on which a program code for image processing is recorded, wherein the program code detects a code between an input step of inputting a plurality of low-resolution images and a difference between the plurality of low-resolution images. A recording medium comprising: a code of a detection step of performing a detection; and a code of a generation step of generating a high-resolution image from the low-resolution image based on the difference.
【請求項18】 複数の低解像度の画像情報に基づいて
単数の高解像度の静止画像情報を作成する画像処理装置
であって、 動画像中の連続した複数フレーム分の画像情報を格納す
る格納手段と、 格納した複数フレームの中から、mフレーム目とm+n
フレーム目(m,nは自然数であり、n>1)を選択して
該フレーム間の動きベクトルを演算する演算手段と、 算出した動きベクトルをnの値に基づいて分割する分割
手段と、 mフレーム目の画素を配置する第1の配置手段と、 前記分割手段により分割した動きベクトルに応じて、m
+aフレーム目(aはa<nの自然)の画素を配置する第
2の配置手段と、 前記第1及び第2の配置手段により画素配置された各フ
レームの画素を合成する合成手段と、を有することを特
徴とする画像処理装置。
18. An image processing apparatus for creating a single piece of high-resolution still image information based on a plurality of pieces of low-resolution image information, wherein said storage means stores image information for a plurality of continuous frames in a moving image. From the stored plural frames, the m-th frame and m + n
Calculating means for selecting a frame (m and n are natural numbers and n> 1) and calculating a motion vector between the frames; dividing means for dividing the calculated motion vector based on the value of n; A first arranging unit for arranging the pixels of the frame, and m according to the motion vector divided by the dividing unit.
A second arranging means for arranging the pixels of the + a-th frame (a is a natural of a <n); An image processing apparatus comprising:
【請求項19】 複数の低解像度の画像情報に基づいて
単数の高解像度の静止画像情報を作成する画像処理装置
であって、 動画像中の連続した複数フレーム分の画像情報を格納す
る格納手段と、 格納した複数フレームの中から、m+n×bフレーム目
(m,nは自然数,bは整数であり、n>1)とm+n
×(b+1)フレーム目を選択して該フレーム間の動きベ
クトルを演算する演算手段と、 算出した動きベクトルをnの値に基づいて分割する分割
手段と、 mフレーム目の画素を配置する第1の配置手段と、 前記分割手段により分割した動きベクトルに応じて、m
+n×b+aフレーム目(aはa<nの自然数)を配置す
る第2の配置手段と、 bの値を増加させて、前記演算手段における演算対象と
なる2フレームの選択を制御する制御手段と、 前記第1及び第2の配置手段により画素配置された各フ
レームの画素を合成する合成手段と、を有することを特
徴とする画像処理装置。
19. An image processing apparatus for creating a single piece of high-resolution still image information based on a plurality of pieces of low-resolution image information, wherein the storage means stores image information for a plurality of continuous frames in a moving image. M + n × b-th frame (m and n are natural numbers, b is an integer and n> 1) among the stored plural frames, and m + n
× (b + 1) th calculating means for selecting a frame and calculating a motion vector between the frames; dividing means for dividing the calculated motion vector based on the value of n; And m according to the motion vector divided by the dividing means
+ N × b + a frame (a is a natural number of a <n), a second arranging unit, and a control unit that increases the value of b to control selection of two frames to be operated by the operation unit. An image processing apparatus comprising: a synthesizing unit that synthesizes pixels of each frame in which the pixels are arranged by the first and second arrangement units.
【請求項20】 複数の低解像度の画像情報に基づいて
単数の高解像度の静止画像情報を作成する画像処理装置
であって、 動画像中の連続した複数フレーム分の画像情報を格納す
る格納手段と、 格納した複数フレームの中から、mフレーム目とm+n
−cフレーム目(m,nは自然数、cは整数であり、n
>1,0≦c≦n−2)を選択して該フレーム間の動き
ベクトルを演算する演算手段と、 算出した動きベクトルをnの値に基づいて分割する分割
手段と、 mフレーム目の画素を配置する第1の配置手段と、 前記分割手段により分割した動きベクトルに応じて、m
+aフレーム目(aはa<nの自然)の画素を配置する第
2の配置手段と、 前記第1及び第2の配置手段により画素配置された各フ
レームの画素を合成する合成手段と、 前記動きベクトルが所定値以上であればcを増加させる
ように制御する制御手段と、を有することを特徴とする
画像処理装置。
20. An image processing apparatus for creating a single piece of high-resolution still image information based on a plurality of pieces of low-resolution image information, wherein the storage means stores image information for a plurality of continuous frames in a moving image. From the stored plural frames, the m-th frame and m + n
-C-th frame (m and n are natural numbers, c is an integer, n
> 1, 0 ≦ c ≦ n−2) to calculate a motion vector between the frames, a dividing unit to divide the calculated motion vector based on the value of n, And m in accordance with the first arranging means for arranging m and the motion vector divided by the dividing means.
A second arranging means for arranging pixels of the + a-th frame (a is a natural of a <n); a synthesizing means for synthesizing pixels of each frame arranged by the first and second arranging means; Control means for controlling to increase c if the motion vector is equal to or greater than a predetermined value.
【請求項21】 前記分割手段は、前記動きベクトルを
nで除算し、前記第2の配置手段は、前記動きベクトル
のa/nの位置に画素を配置することを特徴とする請求
項18乃至20のいずれかに記載の画像処理装置。
21. The apparatus according to claim 18, wherein said dividing means divides said motion vector by n, and said second arranging means arranges a pixel at a / n position of said motion vector. 20. The image processing device according to any one of 20.
JP10371476A 1998-11-10 1998-12-25 Image processor, image processing method and image processing system Withdrawn JP2000194845A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP10371476A JP2000194845A (en) 1998-12-25 1998-12-25 Image processor, image processing method and image processing system
CA002289053A CA2289053C (en) 1998-11-10 1999-11-08 Image processing method and apparatus
US09/434,378 US6804419B1 (en) 1998-11-10 1999-11-08 Image processing method and apparatus
EP19990308897 EP1001374A3 (en) 1998-11-10 1999-11-09 Image processing method and apparatus
AU58374/99A AU777493B2 (en) 1998-11-10 1999-11-09 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10371476A JP2000194845A (en) 1998-12-25 1998-12-25 Image processor, image processing method and image processing system

Publications (1)

Publication Number Publication Date
JP2000194845A true JP2000194845A (en) 2000-07-14

Family

ID=18498775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10371476A Withdrawn JP2000194845A (en) 1998-11-10 1998-12-25 Image processor, image processing method and image processing system

Country Status (1)

Country Link
JP (1) JP2000194845A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175536A (en) * 2000-09-06 2002-06-21 Canon Inc Computer graphic apparatus
JP2007209760A (en) * 2006-02-10 2007-08-23 Siemens Ag Method for operating radiodiagnosis apparatus for generating high resolution image
WO2008032392A1 (en) 2006-09-14 2008-03-20 Fujitsu Limited Image processing method and device, and its program
KR100908768B1 (en) * 2006-05-31 2009-07-22 가부시키가이샤 히타치세이사쿠쇼 Image signal processing device, image display device, and high resolution method of image signal
JP2014039223A (en) * 2012-08-20 2014-02-27 Canon Inc Imaging apparatus, and control method and control program of the same
JP2015535925A (en) * 2012-09-04 2015-12-17 デジタル・シグナル・コーポレーション Increasing the resolution of images acquired from 3D measurement systems
CN116886996A (en) * 2023-09-06 2023-10-13 浙江富控创联技术有限公司 Digital village multimedia display screen broadcasting system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002175536A (en) * 2000-09-06 2002-06-21 Canon Inc Computer graphic apparatus
JP4689108B2 (en) * 2000-09-06 2011-05-25 キヤノン株式会社 Computer graphic equipment
JP2007209760A (en) * 2006-02-10 2007-08-23 Siemens Ag Method for operating radiodiagnosis apparatus for generating high resolution image
KR100908768B1 (en) * 2006-05-31 2009-07-22 가부시키가이샤 히타치세이사쿠쇼 Image signal processing device, image display device, and high resolution method of image signal
WO2008032392A1 (en) 2006-09-14 2008-03-20 Fujitsu Limited Image processing method and device, and its program
US8311367B2 (en) 2006-09-14 2012-11-13 Fujitsu Limited Image processing device
JP2014039223A (en) * 2012-08-20 2014-02-27 Canon Inc Imaging apparatus, and control method and control program of the same
JP2015535925A (en) * 2012-09-04 2015-12-17 デジタル・シグナル・コーポレーション Increasing the resolution of images acquired from 3D measurement systems
CN116886996A (en) * 2023-09-06 2023-10-13 浙江富控创联技术有限公司 Digital village multimedia display screen broadcasting system
CN116886996B (en) * 2023-09-06 2023-12-01 浙江富控创联技术有限公司 Digital village multimedia display screen broadcasting system

Similar Documents

Publication Publication Date Title
JP4371457B2 (en) Image processing apparatus, method, and computer-readable storage medium
US6804419B1 (en) Image processing method and apparatus
US10277812B2 (en) Image processing to obtain high-quality loop moving image
CA2430591C (en) Techniques and systems for developing high-resolution imagery
JP2989364B2 (en) Image processing apparatus and image processing method
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
EP2661071B1 (en) Image signal processor and image signal processing method
US7227557B2 (en) Method, system and record medium for generating wide-area high-resolution image
EP1538562A1 (en) Generation of still image from a plurality of frame images
US20050200706A1 (en) Generation of static image data from multiple image data
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP4250237B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP2000194845A (en) Image processor, image processing method and image processing system
JP4095204B2 (en) Image processing apparatus, method, and computer-readable storage medium
US7522189B2 (en) Automatic stabilization control apparatus, automatic stabilization control method, and computer readable recording medium having automatic stabilization control program recorded thereon
KR100972764B1 (en) Image processing device, image processing method and recording medium embodying an image processing program
JP5181345B2 (en) Image processing apparatus and image processing method
JP4603799B2 (en) Digital watermark embedding device and digital watermark detection device
JP3972625B2 (en) Image processing apparatus and image processing method
JP2004056474A (en) Picture processor and program for the same
JP2005210543A6 (en) Digital watermark embedding device and digital watermark detection device
JPH05292393A (en) Moving image editing processing system
JP5853372B2 (en) Image processing apparatus and image processing method
JPH08289139A (en) Image processor and image processing method
JPH08263644A (en) Picture processor and its method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307