JP4686200B2 - Image conversion method and apparatus - Google Patents

Image conversion method and apparatus Download PDF

Info

Publication number
JP4686200B2
JP4686200B2 JP2005019518A JP2005019518A JP4686200B2 JP 4686200 B2 JP4686200 B2 JP 4686200B2 JP 2005019518 A JP2005019518 A JP 2005019518A JP 2005019518 A JP2005019518 A JP 2005019518A JP 4686200 B2 JP4686200 B2 JP 4686200B2
Authority
JP
Japan
Prior art keywords
image
feature vector
image feature
conversion
replacement data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005019518A
Other languages
Japanese (ja)
Other versions
JP2006209396A (en
Inventor
秀人 本村
克洋 金森
洋一 三宅
徳道 津村
俊哉 中口
健二 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2005019518A priority Critical patent/JP4686200B2/en
Publication of JP2006209396A publication Critical patent/JP2006209396A/en
Application granted granted Critical
Publication of JP4686200B2 publication Critical patent/JP4686200B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理技術に関するものであり、特に、画像拡大や照明変換、視点変換などの画像変換を実現する技術に関する。   The present invention relates to an image processing technique, and more particularly to a technique for realizing image conversion such as image enlargement, illumination conversion, and viewpoint conversion.

画像機器とネットワークのデジタル化により、任意の画像機器が接続できるようになり、画像交換の自由度が高まっている。そして、利用者がシステムの違いに制約を受けることなく、自由に画像を扱える環境が整備されてきた。例えば、利用者は、デジタルスチルカメラで撮影した画像をプリンタに出力したり、ネットワーク上で公開したり、家庭のテレビで鑑賞したりすることが可能になっている。   With the digitization of image devices and networks, any image device can be connected, and the degree of freedom of image exchange is increasing. An environment in which users can freely handle images without being restricted by differences in systems has been developed. For example, a user can output an image taken with a digital still camera to a printer, publish it on a network, or view it on a home television.

逆にシステム側は、様々な画像フォーマットに対応する必要があり、画像フォーマット変換には自ずと高度化が求められる。例えば画像サイズの変換は頻繁に発生し、アップコンバータ(画像数、ライン数を増やす変換装置)やダウンコンバータ(画素数、ライン数を減らす装置)が必要になる。例えば、600dpiの解像度でA4用紙(297mm×210mm)に印刷する場合、7128画素×5040ラインの原稿が必要になるが、多くのデジタルスチルカメラの解像度はこれを下回るため、アップコンバータが必要になる。一方、ネットワーク上に公開された画像は、最終的な出力形態が決まっていないため、出力デバイスが決まる都度、対応する画像サイズに変換する必要がある。また、家庭用テレビでは、デジタル地上波のサービスが開始されており、従来の標準テレビ画像とHD(High Definition)テレビ画像とが混在し、画像サイズの変換が頻繁に用いられる。   On the other hand, the system side needs to support various image formats, and image format conversion is naturally required to be sophisticated. For example, image size conversion frequently occurs, and an up converter (a conversion device that increases the number of images and lines) and a down converter (a device that reduces the number of pixels and lines) are required. For example, when printing on A4 paper (297 mm x 210 mm) at a resolution of 600 dpi, an original of 7128 pixels x 5040 lines is required, but since the resolution of many digital still cameras is lower than this, an up converter is required. . On the other hand, since the final output form of the image published on the network is not determined, it is necessary to convert it to a corresponding image size every time an output device is determined. Also, in the home television, digital terrestrial services have been started, and conventional standard television images and HD (High Definition) television images are mixed, and image size conversion is frequently used.

画像拡大では、取得時には存在しなかった画像データを新たに作り出す必要があり、すでに様々な方法が提案されている。例えば、一般的な手法として、バイリニア法やバイキュービック法などの内挿を用いる方法がある(非特許文献1)。ところが、内挿を用いた場合、サンプリングデータの中間的な値しか生成できないため、エッジなどの先鋭度が劣化し、ぼけた画像になる傾向がある。そこで、初期拡大画像として内挿画像を用い、その後、エッジ部を抽出してエッジのみを強調する技術が開示されている(特許文献1、非特許文献2)。しかし、エッジ部とノイズの切り分けが難しく、エッジ部の強調とともにノイズも強調されてしまい、画質劣化を招く傾向がある。   In image enlargement, it is necessary to newly create image data that did not exist at the time of acquisition, and various methods have already been proposed. For example, as a general method, there is a method using interpolation such as a bilinear method or a bicubic method (Non-Patent Document 1). However, when interpolation is used, only intermediate values of sampling data can be generated, so that sharpness such as edges tends to deteriorate and the image tends to be blurred. Therefore, a technique is disclosed in which an interpolated image is used as an initial enlarged image, and then an edge portion is extracted to emphasize only the edge (Patent Document 1, Non-Patent Document 2). However, it is difficult to separate the edge portion from the noise, and the noise is enhanced together with the enhancement of the edge portion, which tends to cause image quality deterioration.

そこで、画質劣化を抑えて画像拡大を行う方法として、学習方式がある。すなわち、拡大画像に相当する高解像度画像を高精細カメラ等によって予め撮影し、この高精細画像から低解像度画像を作成する。低解像度画像の生成は、ローパスフィルタを通してサブサンプリングする方法によって行う。このような低解像度画像と高解像度画像との組を多数準備し、その関係を画像拡大方法として学習する。したがって、学習方式では、上述したような強調処理は存在せず、このため、比較的画質劣化の少ない画像拡大が実現できる。   Therefore, there is a learning method as a method for enlarging an image while suppressing deterioration in image quality. That is, a high-resolution image corresponding to the enlarged image is taken in advance by a high-definition camera or the like, and a low-resolution image is created from the high-definition image. The low-resolution image is generated by a method of sub-sampling through a low-pass filter. Many pairs of such low resolution images and high resolution images are prepared, and the relationship is learned as an image enlargement method. Therefore, in the learning method, the above-described enhancement processing does not exist, and therefore, image enlargement with relatively little image quality deterioration can be realized.

学習方式の例としては、例えば、隣接画素との輝度値の関係がマルコフ過程で決まるとして、統計的手法で学習を行う技術が開示されている(非特許文献3)。また、低解像度画像から高解像度画像への変換対において画素ごとに特徴ベクトルを求め、入力画素の特徴ベクトルとの一致度と、周辺画素との一貫性とを基にして、拡大画像を生成する技術が開示されている(非特許文献4)。   As an example of the learning method, for example, a technique is disclosed in which learning is performed by a statistical method assuming that the relationship between luminance values with adjacent pixels is determined by a Markov process (Non-Patent Document 3). In addition, a feature vector is obtained for each pixel in a conversion pair from a low resolution image to a high resolution image, and an enlarged image is generated based on the degree of coincidence with the feature vector of the input pixel and consistency with surrounding pixels. A technique is disclosed (Non-Patent Document 4).

また学習方式は、画像拡大だけでなく、たとえば照明方向の変換などにも活用されている(非特許文献5)。非特許文献5では、テクスチャ(物体表面の凹凸や模様などのこと)の異なる複数の物体に異なる複数の方向から照明をあてて、学習データを作成し、テクスチャ感を保ちながら照明方向を変換する技術を開示している。
米国特許5,717,789号(図5) 荒屋真二著,「明解 3次元コンピュータグラフィックス」,共立出版,pp.144−145,2003年9月25日 中静真ら、「多重スケール輝度こう配平面における画像高解像度化」、電子情報通信学会論文誌 D−II Vol.J81−D−II No.10 pp.2249−2258,1998年10月 Freemanら、「Learning Low-Level Vision」,International Journal of Computer Vision 40(1),pp.25−47,2000年 Hertzmannら、「Image Analogies」,SIGGRAPH 2001 予稿集,pp.327−340,2001年 Malikら、「Representing and Recognizing the Visual Appearance of Materials using Three-dimensional Textons」,International Journal of Computer Vision 43(1),pp.29−44,2001年
The learning method is used not only for image enlargement but also for conversion of the illumination direction, for example (Non-Patent Document 5). In Non-Patent Document 5, illumination is applied to a plurality of objects having different textures (such as irregularities and patterns on the surface of the object) from a plurality of different directions, learning data is created, and the illumination direction is converted while maintaining a texture. The technology is disclosed.
US Pat. No. 5,717,789 (FIG. 5) Shinya Araya, “Meikyou 3D Computer Graphics”, Kyoritsu Shuppan, pp. 144-145, September 25, 2003 Nakashizuka et al., “Higher image resolution in multi-scale luminance gradient plane”, IEICE Transactions D-II Vol. J81-D-II No. 10 pp. 2249-2258, October 1998 Freeman et al., “Learning Low-Level Vision”, International Journal of Computer Vision 40 (1), pp. 25-47, 2000 Hertzmann et al., “Image Analogies”, SIGGRAPH 2001 Proceedings, pp. 327-340, 2001 Malik et al., “Representing and Recognizing the Visual Appearance of Materials using Three-dimensional Textons”, International Journal of Computer Vision 43 (1), pp. 29-44, 2001

ところが、従来技術では、次のような問題があった。   However, the prior art has the following problems.

上述した学習方式では、画像変換用の学習データは固定である。このため、学習時には想定していないような画像が入力された場合、その画像の画像変換にとって適切な学習データが、必ずしも取得できない。この結果、変換後の画像の画質が保証されず、画質劣化を招く可能性がある。また、学習時には想定していないような画像が入力した場合の対処方法については、上述した各先行技術文献には、何ら示されていない。   In the learning method described above, the learning data for image conversion is fixed. For this reason, when an image that is not assumed at the time of learning is input, learning data appropriate for image conversion of the image cannot always be acquired. As a result, the image quality of the converted image is not guaranteed, and there is a possibility that the image quality is deteriorated. In addition, there is no indication in the above-mentioned prior art documents about a coping method when an image that is not assumed at the time of learning is input.

前記の問題に鑑み、本発明は、学習方式を用いた画像変換において、学習時には想定していないような画像が入力された場合であっても、変換後の画像における画質劣化を抑えることを課題とする。   In view of the above problems, the present invention has an object to suppress image quality degradation in a converted image even when an image that is not assumed at the time of learning is input in image conversion using a learning method. And

本発明は、画像変換として、変換元の第1の画像について画像特徴解析を行い、第1の画像特徴ベクトルを得て、所定の画像変換に応じて予め学習して得た、入力画像特徴ベクトル群と出力画像特徴ベクトル群との対応関係を表す置換データを参照し、第1の画像特徴ベクトルを基にして、所定の画像変換後における第2の画像特徴ベクトルを得て、この第2の画像特徴ベクトルから、変換後の第2の画像を生成するものである。   According to the present invention, as image conversion, an input image feature vector obtained by performing image feature analysis on a first image as a conversion source, obtaining a first image feature vector, and learning in advance according to predetermined image conversion A second image feature vector after a predetermined image conversion is obtained based on the first image feature vector by referring to the replacement data representing the correspondence between the group and the output image feature vector group. A second image after conversion is generated from the image feature vector.

さらに、本発明では、画像特徴ベクトル変換の際に、置換データに含まれた入力画像特徴ベクトル群の中に、第1の画像特徴ベクトルと類似する画像特徴ベクトルが含まれているか否かを判断し、含まれていないとき、置換データに含まれた出力画像特徴ベクトル群の中から選択した複数の画像特徴ベクトルを用いて、補間演算によって、第2の画像特徴ベクトルを生成する。   Further, according to the present invention, it is determined whether or not an image feature vector similar to the first image feature vector is included in the input image feature vector group included in the replacement data at the time of image feature vector conversion. If not, a second image feature vector is generated by interpolation using a plurality of image feature vectors selected from the output image feature vector group included in the replacement data.

本発明によると、予め学習して得た置換データを参照して、変換元の第1の画像から得た第1の画像特徴ベクトルを、変換後の第2の画像の基になる第2の画像特徴ベクトルに、変換する。そしてその変換の際には、置換データに含まれた入力画像特徴ベクトル群の中に第1の画像特徴ベクトルと類似する画像特徴ベクトルが含まれていないとき、置換データに含まれた出力画像特徴ベクトル群の中から選択した複数の画像特徴ベクトルを用いて、補間演算によって、第2の画像特徴ベクトルを生成する。すなわち、第1の画像特徴ベクトルについて、予め学習した置換データの中に、画像変換を行う上で十分に類似した画像特徴ベクトルがない場合には、複数の画像特徴ベクトルを用いた補間演算によって、第2の画像特徴ベクトルが生成される。このため、学習時には想定していないような画像が入力された場合でも、学習データに含まれた出力画像特徴ベクトル群の中からただ単に選択するよりも、より適切な第2の画像特徴ベクトルを生成することができる。したがって、変換後の第2の画像における画質劣化を、抑えることができる。   According to the present invention, with reference to the replacement data obtained by learning in advance, the first image feature vector obtained from the first image of the conversion source is used as the basis of the second image after conversion. Convert to image feature vector. In the conversion, when the image feature vector similar to the first image feature vector is not included in the input image feature vector group included in the replacement data, the output image feature included in the replacement data A second image feature vector is generated by interpolation using a plurality of image feature vectors selected from the vector group. That is, for the first image feature vector, if there is no image feature vector that is sufficiently similar in performing the image conversion in the replacement data learned in advance, an interpolation operation using a plurality of image feature vectors is performed. A second image feature vector is generated. For this reason, even when an image that is not assumed at the time of learning is input, a more appropriate second image feature vector is selected than simply selecting from the output image feature vector group included in the learning data. Can be generated. Therefore, it is possible to suppress deterioration in image quality in the converted second image.

また、本発明では、画像特徴ベクトル変換の際に、置換データに含まれた入力画像特徴ベクトル群の中に、第1の画像特徴ベクトルと類似する画像特徴ベクトルが含まれているか否かを判断し、含まれていないとき、所定の変換に応じた入力画像特徴ベクトルと出力画像特徴ベクトルとの新たな対を生成し、置換データに追加する。   In the present invention, it is determined whether or not an image feature vector similar to the first image feature vector is included in the input image feature vector group included in the replacement data during the image feature vector conversion. If not included, a new pair of an input image feature vector and an output image feature vector corresponding to a predetermined conversion is generated and added to the replacement data.

本発明によると、予め学習して得た置換データを参照して、変換元の第1の画像から得た第1の画像特徴ベクトルを、変換後の第2の画像の基になる第2の画像特徴ベクトルに、変換する。そしてその変換の際には、置換データに含まれた入力画像特徴ベクトル群の中に、第1の画像特徴ベクトルと類似する画像特徴ベクトルが含まれていないとき、所定の変換に応じた入力画像特徴ベクトルと出力画像特徴ベクトルとの新たな対を生成し、置換データに追加する。すなわち、第1の画像特徴ベクトルについて、予め学習した置換データの中に、画像変換を行う上で十分に類似した画像特徴ベクトルがない場合には、所定の変換に応じた入力画像特徴ベクトルと出力画像特徴ベクトルとの新たな対が、置換データに追加される。このため、学習時には想定していないような画像が入力された場合でも、これに応じて、画像変換用の学習データが更新されることになる。したがって、変換後の第2の画像における画質劣化を、抑えることができる。   According to the present invention, with reference to the replacement data obtained by learning in advance, the first image feature vector obtained from the first image of the conversion source is used as the basis of the second image after conversion. Convert to image feature vector. In the conversion, when the image feature vector similar to the first image feature vector is not included in the input image feature vector group included in the replacement data, the input image corresponding to the predetermined conversion A new pair of feature vector and output image feature vector is generated and added to the replacement data. That is, for the first image feature vector, if there is no image feature vector that is sufficiently similar for performing image conversion in the replacement data learned in advance, the input image feature vector and output corresponding to the predetermined conversion are output. A new pair with the image feature vector is added to the replacement data. For this reason, even when an image that is not assumed at the time of learning is input, the learning data for image conversion is updated accordingly. Therefore, it is possible to suppress deterioration in image quality in the converted second image.

例えば、画像拡大の場合には、第1の画像特徴ベクトルと、第1の画像の被写体を高解像度で撮影した画像の画像特徴ベクトルとを対にして、追加すればよい。また、照明変換や視点変換の場合には、第1の画像特徴ベクトルと、第1の画像の被写体を、別の方向から照明して撮影した画像、または別の視点から撮影した画像の画像特徴ベクトルとを対にして、追加すればよい。   For example, in the case of image enlargement, a first image feature vector and an image feature vector of an image obtained by photographing the subject of the first image at high resolution may be added as a pair. Further, in the case of illumination conversion or viewpoint conversion, the first image feature vector and the image feature of an image taken by illuminating the subject of the first image from another direction, or an image taken from another viewpoint Add a pair of vectors.

本発明によると、画像特徴ベクトル変換を利用した画像変換において、学習時には想定していないような画像が入力された場合であっても、学習データに含まれた画像特徴ベクトルの補間演算を用いることによって、より適切な画像特徴ベクトル変換を実現することができる。また、入力画像に応じて、画像特徴ベクトルの変換対を追加することによって、学習データを更新することができる。したがって、変換後の画像における画質劣化を、抑えることができる。   According to the present invention, in image conversion using image feature vector conversion, interpolation of image feature vectors included in learning data is used even when an image that is not assumed at the time of learning is input. Thus, more appropriate image feature vector conversion can be realized. Further, learning data can be updated by adding a conversion pair of image feature vectors according to the input image. Therefore, image quality deterioration in the converted image can be suppressed.

本発明の第1態様では、第1の画像に対して所定の画像変換を行い、第2の画像を生成する方法として、前記第1の画像について画像特徴解析を行い、第1の画像特徴ベクトルを得る画像特徴解析ステップと、前記所定の画像変換に応じて予め学習して得た、入力画像特徴ベクトル群と出力画像特徴ベクトル群との対応関係を表す置換データを参照し、前記第1の画像特徴ベクトルを基にして、前記所定の画像変換後における第2の画像特徴ベクトルを得る画像特徴ベクトル変換ステップと、前記第2の画像特徴ベクトルから、前記第2の画像を生成する画像生成ステップとを備え、前記画像特徴ベクトル変換ステップは、前記置換データに含まれた入力画像特徴ベクトル群の中に、前記第1の画像特徴ベクトルと類似する画像特徴ベクトルが含まれているか否かを判断する第1のステップと、前記第1のステップにおいて、含まれていないと判断したとき、前記所定の変換に応じた入力画像特徴ベクトルと出力画像特徴ベクトルとの新たな対を生成し、前記置換データに追加する第2のステップとを備え、前記置換データにおいて、各入力画像特徴ベクトルおよび各出力画像特徴ベクトルにそれぞれ種類が対応付けて表されており、前記第2のステップは、前記置換データに含まれた入力画像特徴ベクトル群にそれぞれ対応付けられた種類を用いて、補間演算によって前記第1の画像に係る第1の種類を求めるステップと、前記第1の種類から、前記所定の画像変換の内容に従って第2の種類を求めるステップと、前記第2の種類を基にして、前記第1の画像に対する前記所定の画像変換後の画像の候補となる追加画像を取得するステップとを備え、前記第1の画像特徴ベクトルと前記追加画像の画像特徴ベクトルとを対にして、前記置換データに追加するものを提供する。 In the first aspect of the present invention, as a method of performing predetermined image conversion on the first image and generating a second image, image feature analysis is performed on the first image, and the first image feature vector is obtained. An image feature analysis step for obtaining the first image, and replacement data representing a correspondence relationship between the input image feature vector group and the output image feature vector group obtained by learning in advance according to the predetermined image conversion, An image feature vector conversion step for obtaining a second image feature vector after the predetermined image conversion based on an image feature vector, and an image generation step for generating the second image from the second image feature vector The image feature vector converting step includes an image feature vector similar to the first image feature vector in the input image feature vector group included in the replacement data. A first step for determining whether or not the input image feature vector is included, and when it is determined in the first step that the input image feature vector and the output image feature vector are not included in the first step, And a second step of adding to the replacement data, and each of the input image feature vectors and each output image feature vector is associated with each type in the replacement data . The step of 2 determines the first type related to the first image by interpolation using the types respectively associated with the input image feature vector group included in the replacement data; and Obtaining the second type from the type according to the content of the predetermined image conversion, and based on the second type, the predetermined type for the first image And a step of acquiring an additional image to be a candidate of the image after the image conversion, and an image feature vector of the first image feature vector and the additional images in pairs, providing a shall be added to the replacement data To do.

本発明の第2態様では、前記所定の画像変換は、視点方向または照明方向を所定の角度変える視点変換または照明変換であり、前記種類は、視点方向または照明方向を示す角度である第1態様の画像変換方法を提供する。 In the second aspect of the present invention, the predetermined image transformation, the viewpoint direction or lighting direction is perspective transformation or illumination conversion predetermined angle changing, the kind, the first embodiment is an angle indicating the view direction or lighting direction An image conversion method is provided.

本発明の第3態様では、第1の画像に対して所定の画像変換を行い、第2の画像を生成する装置として、前記第1の画像について画像特徴解析を行い、第1の画像特徴ベクトルを得る画像特徴解析部と、前記所定の画像変換に応じて予め学習して得た、入力画像特徴ベクトル群と出力画像特徴ベクトル群との対応関係を表す置換データを有し、この置換データを参照し、前記第1の画像特徴ベクトルを基にして、前記所定の画像変換後における第2の画像特徴ベクトルを得る画像特徴ベクトル変換部と、前記第2の画像特徴ベクトルから、前記第2の画像を生成する画像生成部とを備え、前記画像特徴ベクトル変換部は、前記置換データに含まれた入力画像特徴ベクトル群の中に、前記第1の画像特徴ベクトルと類似する画像特徴ベクトルが含まれているか否かを判断する第1の手段と、前記第1の手段によって、含まれていないと判断されたとき、前記所定の変換に応じた入力画像特徴ベクトルと出力画像特徴ベクトルとの新たな対を生成し、前記置換データに追加する第2の手段とを備え、前記置換データにおいて、各入力画像特徴ベクトルおよび各出力画像特徴ベクトルに、それぞれ種類が対応付けて表されており、前記第2の手段は、前記置換データに含まれた入力画像特徴ベクトル群にそれぞれ対応付けられた種類を用いて、補間演算によって、前記第1の画像に係る第1の種類を求めるステップと、前記第1の種類から、前記所定の画像変換の内容に従って、第2の種類を求めるステップと、前記第2の種類を基にして、前記第1の画像に対する前記所定の画像変換後の画像の候補となる、追加画像を取得するステップとを実行し、前記第1の画像特徴ベクトルと前記追加画像の画像特徴ベクトルとを対にして前記置換データに追加するものを提供する。 In the third aspect of the present invention, as a device that performs predetermined image conversion on the first image and generates the second image, image feature analysis is performed on the first image, and the first image feature vector is obtained. An image feature analysis unit that obtains the image data, and replacement data that represents a correspondence relationship between the input image feature vector group and the output image feature vector group obtained by learning in advance according to the predetermined image conversion. Referring to the first image feature vector, an image feature vector conversion unit that obtains a second image feature vector after the predetermined image conversion, and from the second image feature vector, the second image feature vector An image generation unit that generates an image, and the image feature vector conversion unit includes an image feature vector similar to the first image feature vector in the input image feature vector group included in the replacement data. A first means for determining whether or not the input image feature vector and the output image feature vector corresponding to the predetermined conversion are determined to be not included by the first means. And a second means for adding to the replacement data, and in the replacement data, each input image feature vector and each output image feature vector are represented in association with each other, and The second means obtains the first type of the first image by interpolation using the types respectively associated with the input image feature vector group included in the replacement data; A step of obtaining a second type from the first type according to the content of the predetermined image conversion, and after the predetermined image conversion for the first image based on the second type The candidate of the image, perform the acquiring additional images, to provide what is added to the replacement data and the image feature vector of the first image feature vector and the additional images in pairs.

本発明の第4態様では、前記所定の画像変換は、視点方向または照明方向を所定の角度変える視点変換または照明変換であり、前記種類は、視点方向または照明方向を示す角度である第3態様の画像変換装置を提供する。In the fourth aspect of the present invention, the predetermined image conversion is viewpoint conversion or illumination conversion that changes a viewpoint direction or illumination direction by a predetermined angle, and the type is an angle that indicates the viewpoint direction or illumination direction. An image conversion apparatus is provided.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1の実施形態)
図1は本発明の第1の実施形態に係る画像変換装置を示すブロック図である。図1の構成により、第1の画像としての入力画像IINに対して、例えば画像拡大等の所定の画像変換を行い、第2の画像としての出力画像IOUTを生成する画像変換方法が実現される。入力画像特徴ベクトルデータベース102、ベクトル量子化部103、ベクトル量子化誤差算出部104、セレクタ105、画像特徴ベクトル番号置換テーブル106、出力画像特徴ベクトルデータベース107、および画像特徴ベクトル補間演算部108によって、本発明の画像特徴ベクトル変換部が、構成されている。
(First embodiment)
FIG. 1 is a block diagram showing an image conversion apparatus according to the first embodiment of the present invention. With the configuration in FIG. 1, an image conversion method for performing a predetermined image conversion such as image enlargement on the input image IIN as the first image and generating the output image IOUT as the second image is realized. . The input image feature vector database 102, vector quantization unit 103, vector quantization error calculation unit 104, selector 105, image feature vector number replacement table 106, output image feature vector database 107, and image feature vector interpolation operation unit 108 The image feature vector conversion unit of the invention is configured.

図1の構成では、所定の画像変換に応じて、予め学習することによって、入力画像特徴ベクトル群と出力画像特徴ベクトル群との対応関係を表す置換データが、準備されている。この置換データは、入力画像特徴ベクトルデータベース102、出力画像特徴ベクトルデータベース107、および画像特徴ベクトル番号置換テーブル106によって、構成されている。入力画像特徴ベクトルデータベース102は、入力画像として想定される複数の画像の画像特徴ベクトルを、予め格納している。各画像特徴ベクトルには番号が付されている。これと同様に、出力画像特徴ベクトルデータベース107も、出力画像として想定される複数の画像の画像特徴ベクトルを、番号付きで、格納している。そして、画像特徴ベクトル番号置換テーブル106は、画像特徴ベクトル番号同士を対応付けることによって、入力画像特徴ベクトル群と出力画像特徴ベクトル群との対応関係を記述している。   In the configuration of FIG. 1, replacement data representing a correspondence relationship between an input image feature vector group and an output image feature vector group is prepared by learning in advance according to predetermined image conversion. This replacement data includes an input image feature vector database 102, an output image feature vector database 107, and an image feature vector number replacement table 106. The input image feature vector database 102 stores in advance image feature vectors of a plurality of images assumed as input images. Each image feature vector is numbered. Similarly, the output image feature vector database 107 stores image feature vectors of a plurality of images assumed as output images with numbers. The image feature vector number replacement table 106 describes the correspondence between the input image feature vector group and the output image feature vector group by associating the image feature vector numbers with each other.

なお、後述する補間処理を考慮して、画像特徴ベクトル番号置換テーブル106におけるデータは、番号が連続する入力画像特徴ベクトルが、特徴量空間内で互いに隣接するように、並んでいることが好ましい。また、入力画像特徴ベクトル群と出力画像特徴ベクトル群との対応関係を、画像特徴ベクトルの番号を用いて記述することによって、画像特徴ベクトル番号置換テーブル106のデータ容量を小さくすることができる。   In consideration of interpolation processing described later, the data in the image feature vector number replacement table 106 is preferably arranged so that input image feature vectors having consecutive numbers are adjacent to each other in the feature amount space. Further, by describing the correspondence between the input image feature vector group and the output image feature vector group using the image feature vector number, the data capacity of the image feature vector number replacement table 106 can be reduced.

図1において、画像特徴解析部101は入力画像IINについて画像特徴解析を行い、第1の画像特徴ベクトルとしての入力画像特徴ベクトルIINFVを生成する。ここでの画像特徴解析は、例えば図2に示すようなウェーブレット変換などの空間周波数解析を用いて行う。このとき、画像特徴は多重解像度表現によって表される。図2の例では、n回のスケーリングそれぞれにおいてウェーブレット変換の出力HL、LH、HH、LLを求め、これらを階層ごとに束ねることによって、(3n+1)次元ベクトルを入力画像特徴ベクトルIINFVとして求めている。なお、画像特徴ベクトルIINFVは画素ごとに必要になるため、各スケールにおいてLL画像が同一サイズになるようにしている。もちろん、本発明における画像特徴の解析および表現方法はこれに限られるものではなく、任意の方法を適用することができる。   In FIG. 1, an image feature analysis unit 101 performs image feature analysis on an input image IIN, and generates an input image feature vector IINFV as a first image feature vector. The image feature analysis here is performed using spatial frequency analysis such as wavelet transform as shown in FIG. At this time, the image feature is represented by a multi-resolution expression. In the example of FIG. 2, wavelet transform outputs HL, LH, HH, and LL are obtained for each of n times of scaling, and these are combined for each layer, thereby obtaining a (3n + 1) -dimensional vector as an input image feature vector IINFV. . Since the image feature vector IINFV is required for each pixel, the LL image is set to have the same size in each scale. Of course, the image feature analysis and expression method of the present invention is not limited to this, and any method can be applied.

ベクトル量子化部103は入力画像特徴ベクトルデータベース102を参照して、入力画像特徴ベクトルIINFVに最も類似する画像特徴ベクトルを抽出し、第3の画像特徴ベクトルとしての入力画像量子化特徴ベクトルIINQFVとして出力する。また、この入力画像量子化特徴ベクトルIINQFVに付された番号を入力画像特徴ベクトル番号IINFVNとして出力する。入力画像量子化特徴ベクトルIINQFVはベクトル量子化誤差算出部104に与えられ、入力画像特徴ベクトル番号IINFVNは画像特徴ベクトル番号置換テーブル106に与えられる。   The vector quantization unit 103 refers to the input image feature vector database 102, extracts an image feature vector most similar to the input image feature vector IINFV, and outputs it as an input image quantization feature vector IINQFV as a third image feature vector To do. In addition, the number assigned to the input image quantization feature vector IINQFV is output as the input image feature vector number IINFVN. The input image quantization feature vector IINQFV is provided to the vector quantization error calculation unit 104, and the input image feature vector number IINFVN is provided to the image feature vector number replacement table 106.

ここで、ベクトル量子化部103によって、連続的な入力画像特徴ベクトルIINFVが離散的な入力画像特徴ベクトル番号IINFVNに割り当てられたため、ベクトル量子化誤差が発生する。ベクトル量子化誤差算出部104は、入力画像量子化特徴ベクトルIINQFVについて、元の入力画像特徴ベクトルIINFVとの差すなわちベクトル量子化誤差VQEを算出する。算出されたベクトル量子化誤差VQEはセレクタ105に与えられ、後述するように、第2の画像特徴ベクトルとしての出力画像特徴ベクトルIOUTFVの選択に用いられる。   Here, since the vector quantization unit 103 assigns the continuous input image feature vector IINFV to the discrete input image feature vector number IINFVN, a vector quantization error occurs. The vector quantization error calculation unit 104 calculates a difference between the input image quantization feature vector IINQFV and the original input image feature vector IINFV, that is, a vector quantization error VQE. The calculated vector quantization error VQE is given to the selector 105, and is used to select the output image feature vector IOUTFV as the second image feature vector, as will be described later.

一方、画像特徴ベクトル番号置換テーブル106では、与えられた入力画像特徴ベクトル番号IINFVNに応じて、入力側のノードが1個選択される。図1では一例として、画像特徴ベクトル番号2番のノードが選択されたものとしている。このとき、同一ノードの出力側に記録された画像特徴ベクトル番号(図1の例では20番)が候補出力画像特徴ベクトル番号CaIOUTFVNとして出力される。そして、出力画像特徴ベクトルデータベース107を参照することによって、第1の候補出力画像特徴ベクトルCaIOUTFVがセレクタ105に与えられる。   On the other hand, in the image feature vector number replacement table 106, one input-side node is selected according to the given input image feature vector number IINFVN. In FIG. 1, as an example, it is assumed that the node having the image feature vector number 2 is selected. At this time, the image feature vector number (20 in the example of FIG. 1) recorded on the output side of the same node is output as the candidate output image feature vector number CaIOUTFVN. The first candidate output image feature vector CaIOUTFV is given to the selector 105 by referring to the output image feature vector database 107.

また、入力画像特徴ベクトル番号IINFVNによって選択されたノードを中心に、上下数個(図1の例では上下1個)のノードの出力番号(図1の例では5番、20番、7番)が、候補出力画像特徴ベクトル番号群CbIOUTFVNsとして出力される。そして、出力画像特徴ベクトルデータベース107を参照することによって、候補出力画像特徴ベクトル群CbIOUTFVsに変換され、画像特徴ベクトル補間演算部108に与えられる。画像特徴ベクトル補間演算部108は、候補出力画像特徴ベクトル群CbIOUTFVsを基にして、補間演算によって、1個の第2の候補出力画像特徴ベクトルCbIOUTFVを生成し、セレクタ105に与える。   Also, the output numbers of several nodes (upper and lower in the example of FIG. 1) around the node selected by the input image feature vector number IINFVN (5, 20, and 7 in the example of FIG. 1). Is output as a candidate output image feature vector number group CbIOUTFVNs. Then, by referring to the output image feature vector database 107, it is converted into a candidate output image feature vector group CbIOUTFVs and given to the image feature vector interpolation calculation unit 108. The image feature vector interpolation calculation unit 108 generates one second candidate output image feature vector CbIOUTFV by interpolation calculation based on the candidate output image feature vector group CbIOUTFVs and supplies the second candidate output image feature vector CbIOUTFV to the selector 105.

ここで、補間演算を用いる理由は、大きな誤差や小さな誤差が入り混じって画質劣化の程度が高まることを避けるためであり、第2の候補出力画像特徴ベクトルCbIOUTFVに関する量子化誤差を平均的な誤差に抑えるためである。   Here, the reason why the interpolation calculation is used is to avoid an increase in the degree of image quality degradation due to a mixture of large and small errors. The quantization error relating to the second candidate output image feature vector CbIOUTFV is an average error. This is to keep it at a minimum.

画像特徴ベクトル補間演算部108における補間方法は任意であるが、ここでは、量子化誤差の大小を重み係数として、候補出力画像特徴ベクトル群CbIOUTFVsの加重平均を求めるものとする。この場合、ベクトル量子化部103は、入力画像特徴ベクトル番号IINFVNの上下の番号に対応する画像特徴ベクトルSQFVも、ベクトル量子化誤差算出部104に出力する。ベクトル量子化誤差算出部104は、与えられた画像特徴ベクトルSQFVについても入力画像特徴ベクトルIINFVとのベクトル量子化誤差を算出し、画像特徴ベクトル補間演算部108に与える。   The interpolation method in the image feature vector interpolation calculation unit 108 is arbitrary, but here, the weighted average of the candidate output image feature vector group CbIOUTFVs is obtained using the magnitude of the quantization error as a weighting coefficient. In this case, the vector quantization unit 103 also outputs the image feature vector SQFV corresponding to the upper and lower numbers of the input image feature vector number IINFVN to the vector quantization error calculation unit 104. The vector quantization error calculation unit 104 calculates a vector quantization error with respect to the input image feature vector IINFV for the given image feature vector SQFV, and provides the vector feature error to the image feature vector interpolation calculation unit 108.

補間演算は、例えば、(数1)のように行われる。
ここで、ベクトルFは求める対象となる第2の候補出力画像特徴ベクトルCbIOUTFVを表わし、ベクトルGi(i=1〜j)は元の候補出力画像特徴ベクトル群CbIOUTFVsを表す。図1の例では、jは3である。また、wiは重み係数であり、(数2)で与えられる。
ここで、eiはベクトルGiのベクトル量子化誤差である。(数2)から分かるように、元の候補出力画像特徴ベクトル群CbIOUTFVsの中で、入力画像特徴ベクトルIINFVとのベクトル量子誤差が小さいものほど、第2の候補出力画像特徴ベクトルCbIOUTFVの演算結果に、より大きく寄与する。
The interpolation calculation is performed, for example, as (Equation 1).
Here, the vector F represents the second candidate output image feature vector CbIOUTFV to be obtained, and the vector Gi (i = 1 to j) represents the original candidate output image feature vector group CbIOUTFVs. In the example of FIG. Further, wi is a weighting coefficient and is given by (Equation 2).
Here, ei is a vector quantization error of the vector Gi. As can be seen from (Expression 2), the smaller the vector quantum error from the input image feature vector IINFV in the original candidate output image feature vector group CbIOUTFVs, the more the result of the calculation of the second candidate output image feature vector CbIOUTFV. , Contribute more.

セレクタ105は、ベクトル量子化誤差VQEに対する閾値処理によって、第1の候補出力画像特徴ベクトルCaIOUTFVおよび第2の候補出力画像特徴ベクトルCbIOUTFVのうちのいずれかを、出力画像特徴ベクトルIOUTFVとして選択する。   The selector 105 selects one of the first candidate output image feature vector CaIOUTFV and the second candidate output image feature vector CbIOUTFV as the output image feature vector IOUTFV by threshold processing for the vector quantization error VQE.

すなわち、ベクトル量子化誤差VQEが所定の閾値(例えば0.1など)よりも大きいときは、入力画像特徴ベクトルIINFVに対して適切な画像特徴ベクトルが抽出できなかったと判断して、補間演算によって得られた第2の候補出力画像特徴ベクトルCbIOUTFVを選択する。一方、ベクトル量子化誤差VQEが所定の閾値よりも小さい、または等しいときは、入力画像特徴ベクトルIINFVに最も類似する画像特徴ベクトルに対応する第1の候補出力画像特徴ベクトルCaIOUTFVを選択する。   That is, when the vector quantization error VQE is larger than a predetermined threshold (for example, 0.1), it is determined that an appropriate image feature vector cannot be extracted from the input image feature vector IINFV, and is obtained by interpolation calculation. The selected second candidate output image feature vector CbIOUTFV is selected. On the other hand, when the vector quantization error VQE is smaller than or equal to the predetermined threshold, the first candidate output image feature vector CaIOUTFV corresponding to the image feature vector most similar to the input image feature vector IINFV is selected.

上述した閾値処理によって、置換データに含まれた入力画像特徴ベクトル群に、入力画像特徴ベクトルIINFVと類似する画像特徴ベクトルが含まれているかを、判断している、といえる。   It can be said that it is determined whether the image feature vector similar to the input image feature vector IINFV is included in the input image feature vector group included in the replacement data by the threshold processing described above.

セレクタ105から出力された出力画像特徴ベクトルIOUTFVは、画像生成部としての出力画像生成部109において輝度画像に変換され、出力画像IOUTとして出力される。   The output image feature vector IOUTFV output from the selector 105 is converted into a luminance image in an output image generation unit 109 as an image generation unit, and is output as an output image IOUT.

図3は図1の画像変換装置の動作、すなわち本実施形態に係る画像変換方法を示すフローチャートである。なお、本実施形態に係る画像変換方法は、当該方法を実現するためのプログラムをコンピュータに実行させることによって、実現することができる。   FIG. 3 is a flowchart showing the operation of the image conversion apparatus of FIG. 1, that is, the image conversion method according to the present embodiment. Note that the image conversion method according to the present embodiment can be realized by causing a computer to execute a program for realizing the method.

まず、前処理S00において、置換データを準備し、入力画像特徴ベクトルデータベース102、出力画像特徴ベクトルデータベース107、および画像特徴ベクトル番号置換テーブル106を作成する。この前処理S00の詳細については後述する。   First, in pre-processing S00, replacement data is prepared, and an input image feature vector database 102, an output image feature vector database 107, and an image feature vector number replacement table 106 are created. Details of the preprocessing S00 will be described later.

そして、ステップS1において、入力画像IINについて、画像特徴解析部101が画像特徴解析を行う。ステップS2において、入力画像特徴ベクトルIINFVを入力画像ベクトルデータベース102に格納されている複数の画像特徴ベクトルのうち、最も近いものに割り当てるベクトル量子化を行う。ステップS3において、入力画像特徴ベクトルIINFVと入力画像量子化特徴ベクトルIINVQFVとの差であるベクトル量子化誤差VQEを算出する。   In step S1, the image feature analysis unit 101 performs image feature analysis on the input image IIN. In step S <b> 2, vector quantization that assigns the input image feature vector IINFV to the closest one of the plurality of image feature vectors stored in the input image vector database 102 is performed. In step S3, a vector quantization error VQE that is a difference between the input image feature vector IINFV and the input image quantization feature vector IINVQFV is calculated.

ステップS4において、ベクトル量子化誤差VQEと所定の閾値との比較を行う。ベクトル量子化誤差VQEが閾値よりも大きいときは、ステップS10において、補間対象となる候補出力画像特徴ベクトル番号群CbIOUTFVNsを取得する。そして、ステップS11において、出力画像特徴ベクトルデータベース107を参照して候補出力画像特徴ベクトル番号群CbIOUTFVNsを候補出力画像特徴ベクトル群CbIOUTFVsに変換し、ステップS12において、上述したような補間演算を行い、ステップS13において、出力画像特徴ベクトルIOUTFVから出力画像IOUTを生成する。   In step S4, the vector quantization error VQE is compared with a predetermined threshold value. If the vector quantization error VQE is larger than the threshold value, a candidate output image feature vector number group CbIOUTFVNs to be interpolated is acquired in step S10. Then, in step S11, the candidate output image feature vector number group CbIOUTFVNs is converted into the candidate output image feature vector group CbIOUTFVs with reference to the output image feature vector database 107, and in step S12, the interpolation operation as described above is performed. In S13, an output image IOUT is generated from the output image feature vector IOUTFV.

一方、ステップS4において、ベクトル量子化誤差VQEが所定の閾値よりも小さいまたは等しいときは、ステップS20において、入力画像特徴ベクトル番号IINFVNを候補出力画像特徴ベクトル番号CaIOUTFVNに置換する。そして、ステップS21において、出力画像特徴ベクトルデータベース107を参照して第1の候補出力画像特徴ベクトルCaIOUTFVに変換し、ステップS22において、これを出力画像特徴ベクトルIOUTFVとして出力画像IOUTを生成する。   On the other hand, when the vector quantization error VQE is smaller than or equal to the predetermined threshold value in step S4, the input image feature vector number IINFVN is replaced with the candidate output image feature vector number CaIOUTFVN in step S20. In step S21, the output image feature vector database 107 is referenced to convert it into a first candidate output image feature vector CaIOUTFV. In step S22, this is used as an output image feature vector IOUTFV to generate an output image IOUT.

なお、ステップS4の閾値判定において、ベクトル量子化誤差VQEが閾値と一致したとき、ステップS20に進むものとしたが、ステップS10に進むようにしてもかまわない。   In the threshold determination in step S4, when the vector quantization error VQE matches the threshold, the process proceeds to step S20. However, the process may proceed to step S10.

<置換データの準備>
図4および図5を用いて、前処理S00すなわち置換データの準備について説明する。図4では、所定の画像変換が画像拡大であるものとしている。図4に示すように、入力画像特徴ベクトルデータベース102に低解像度画像の画像特徴ベクトルが格納され、出力画像特徴ベクトルデータベース107に高解像度画像の画像特徴ベクトルが格納される。なお、図4の例では、画像特徴ベクトルは、図2のウェーブレット変換をスケールレベル3まで実行した際に得られる10次元ベクトルとして例示している。画像特徴ベクトル番号置換テーブル106は、低解像度画像と高解像度画像との同一画素間での対応関係から構築する。
<Preparation of replacement data>
The preprocessing S00, that is, the preparation of replacement data will be described with reference to FIGS. In FIG. 4, it is assumed that the predetermined image conversion is image enlargement. As shown in FIG. 4, the image feature vector of the low resolution image is stored in the input image feature vector database 102, and the image feature vector of the high resolution image is stored in the output image feature vector database 107. In the example of FIG. 4, the image feature vector is exemplified as a 10-dimensional vector obtained when the wavelet transform of FIG. The image feature vector number replacement table 106 is constructed from the correspondence between the same pixels of the low resolution image and the high resolution image.

なお、置換データの格納順は、複数の画像特徴ベクトルを補間する場合を考慮して、番号が連続している入力画像特徴ベクトルが、特徴量空間内で互いに隣接するように、なっているのが好ましい。   Note that the storage order of the replacement data is such that the input image feature vectors having consecutive numbers are adjacent to each other in the feature amount space in consideration of a case where a plurality of image feature vectors are interpolated. Is preferred.

図5は互いに隣り合う3本の画像特徴ベクトルIFV1、IFV2、IFV3を示す。特徴量空間FSはn種類の特徴量からなるn次元空間である。IFV1を中心に見た場合、ベクトルの距離が最も短いものはIFV2であり、特徴量空間FS内でIFV1とIFV2の間に別の特徴量ベクトルは存在せず、IFV1とIFV2とは互いに隣接する。同様に、IFV2を中心に見た場合、IFV1を除いてベクトルの距離が最も短いものはIFV3であり、特徴量空間FS内でIFV1を除いてIFV2とIFV3の間に別の特徴量ベクトルは存在せず、IFV2とIFV3とは互いに隣接する。このように、1本の画像特徴ベクトルから隣接する画像特徴ベクトルを次々に求め、この順番で、画像特徴ベクトル番号置換テーブル106に置換データを格納する。   FIG. 5 shows three image feature vectors IFV1, IFV2, and IFV3 adjacent to each other. The feature amount space FS is an n-dimensional space composed of n types of feature amounts. When looking at IFV1, the shortest vector distance is IFV2, there is no other feature vector between IFV1 and IFV2 in the feature space FS, and IFV1 and IFV2 are adjacent to each other. . Similarly, when looking at IFV2 as the center, IFV3 has the shortest vector distance except IFV1, and there is another feature vector between IFV2 and IFV3 except IFV1 in feature space FS. The IFV2 and IFV3 are adjacent to each other. In this manner, adjacent image feature vectors are sequentially obtained from one image feature vector, and the replacement data is stored in the image feature vector number replacement table 106 in this order.

上述した補間演算において、補間精度を高めるためには、特徴量空間内で入力画像特徴ベクトルにできるだけ近いノードから、補間に用いる出力画像特徴ベクトルを得るべきである。そこで、例えば、特徴量空間内で互いに隣接する画像特徴ベクトルIFV1、IFV2、IFV3の順番で画像特徴ベクトル番号置換テーブル106に置換データを格納しておけば、入力画像特徴ベクトルが図5の三角形A1内に入ったとき、補間演算にとって適切な出力画像特徴ベクトルを、連続するノードから容易に取り出すことができる。   In the above-described interpolation calculation, in order to improve the interpolation accuracy, an output image feature vector used for interpolation should be obtained from a node as close as possible to the input image feature vector in the feature amount space. Therefore, for example, if the replacement data is stored in the image feature vector number replacement table 106 in the order of the image feature vectors IFV1, IFV2, and IFV3 adjacent to each other in the feature amount space, the input image feature vector becomes the triangle A1 in FIG. When entering, an output image feature vector suitable for the interpolation operation can be easily extracted from successive nodes.

なお、画像拡大以外の画像変換、例えば、照明変換や視点変換についても同様である。すなわち、照明変換の場合は、照明の方向が異なる2組の画像を用意し、各画素の画像特徴ベクトルを画像特徴ベクトル番号置換テーブル106に登録すればよい。また、視点変換の場合は、視点の方向が異なる2組の画像を用意し、各画素の画像特徴ベクトルを画像特徴ベクトル番号置換テーブル106に登録すればよい。   The same applies to image conversion other than image enlargement, for example, illumination conversion and viewpoint conversion. That is, in the case of illumination conversion, two sets of images with different illumination directions may be prepared, and the image feature vector of each pixel may be registered in the image feature vector number replacement table 106. In the case of viewpoint conversion, two sets of images with different viewpoint directions may be prepared, and the image feature vector of each pixel may be registered in the image feature vector number replacement table 106.

また、図4では、簡単のために1組の置換データを準備するものとして説明したが、複数組でもかまわない。   Further, although FIG. 4 has been described assuming that one set of replacement data is prepared for simplicity, a plurality of sets may be used.

<置換データの更新>
また、本実施形態では、置換データの更新も行う。すなわち、入力画像特徴ベクトル群の中に、適当な入力画像特徴ベクトルが含まれていないときは、入力画像特徴ベクトルと出力画像特徴ベクトルとの新たな対を、置換データに追加する。
<Update replacement data>
In this embodiment, replacement data is also updated. That is, when an appropriate input image feature vector is not included in the input image feature vector group, a new pair of the input image feature vector and the output image feature vector is added to the replacement data.

図6は本実施形態における置換データの更新処理を示すフローチャートであり、図7は置換データの更新処理に関する構成を示すブロック図である。図7の差分部201、閾値判定部202およびデータ変更部203が、本発明の画像特徴ベクトル変換部に含まれる。   FIG. 6 is a flowchart showing replacement data update processing in this embodiment, and FIG. 7 is a block diagram showing a configuration related to replacement data update processing. The difference unit 201, threshold determination unit 202, and data change unit 203 of FIG. 7 are included in the image feature vector conversion unit of the present invention.

図6の処理は、図3のステップS4においてYESのとき、すなわち、ベクトル量子化誤差が閾値よりも大きいと判断されたとき、スタートする。図3では、ステップS4においてYESのとき、ステップS10〜S13において画像特徴ベクトルを補間して画像を生成する。一方、図6の処理は、ステップS10〜S13とは並列に実行され、不足する画像特徴ベクトルの変換対を補充する。したがって、図6の処理が実行されると、現在の入力画像に対する画像変換の画質劣化は抑制される。   The process of FIG. 6 starts when YES is determined in step S4 of FIG. 3, that is, when it is determined that the vector quantization error is larger than the threshold value. In FIG. 3, when YES is determined in step S4, an image is generated by interpolating image feature vectors in steps S10 to S13. On the other hand, the process of FIG. 6 is executed in parallel with steps S10 to S13, and supplements the missing image feature vector conversion pairs. Therefore, when the processing of FIG. 6 is executed, image quality deterioration of image conversion for the current input image is suppressed.

なお、ここでは、補間演算による画像生成とともに置換データの更新を実行するものとしているが、補間演算による画像生成を行わないで、置換データの更新を行うようにしてもかまわないし、反対に、置換データの更新を行わないで、補間演算による画像生成のみを行うようにしてもかまわない。   Here, the replacement data is updated together with the image generation by the interpolation calculation. However, the replacement data may be updated without performing the image generation by the interpolation calculation. Instead of updating the data, only image generation by interpolation calculation may be performed.

まず、ステップS31において、入力画像特徴ベクトルIINFVとの変換対になる出力画像特徴ベクトルを与える追加候補画像INCを取得する。所定の画像変換として画像拡大を考えた場合、追加候補画像INCは高解像度画像になるため、入力画像IINと同一の被写体SUBを高解像度で撮影すればよい。高解像度画像を取得する方法は任意であるが、例えば図8に示すように、多焦点レンズカメラ401の場合は、被写体SUB1に対する焦点距離を変更して光学的に高解像度画像IMHを得る。単焦点レンズカメラ402の場合は、撮影者が被写体SUB1に近づいて撮影するか、撮影者に近づいてきた被写体SUB1を撮影して、高解像度画像IMHを得る。   First, in step S31, an additional candidate image INC that provides an output image feature vector that becomes a conversion pair with the input image feature vector IINFV is acquired. When image enlargement is considered as the predetermined image conversion, the additional candidate image INC becomes a high-resolution image, and therefore the same subject SUB as the input image IIN may be captured at a high resolution. The method for acquiring the high-resolution image is arbitrary, but as shown in FIG. 8, for example, in the case of the multifocal lens camera 401, the high-resolution image IMH is optically obtained by changing the focal length with respect to the subject SUB1. In the case of the single focus lens camera 402, the photographer approaches the subject SUB1 and shoots, or the subject SUB1 approaching the photographer is photographed to obtain a high resolution image IMH.

次に、ステップS32において、追加候補画像INCに対して、所定の画像変換の内容の逆変換を実行し、逆変換入力画像IININVを得る。例えば、画像拡大における拡大率が4倍である場合、追加候補画像INCに対して1/4倍の画像縮小を実行して、逆変換入力画像IININVを得る。   Next, in step S32, reverse conversion of the content of predetermined image conversion is executed on the additional candidate image INC to obtain an inverse conversion input image IININV. For example, when the enlargement ratio in image enlargement is four times, image reduction of 1/4 is performed on the additional candidate image INC to obtain an inversely converted input image IININV.

ステップS33において、逆変換入力画像IININVに対して画像特徴解析部101によって画像特徴解析を行い、得られた追加候補画像特徴ベクトルINCFVと入力画像特徴ベクトルIINFVとの差を、差分部201によって求める。さらに、閾値判定部202によって、その差が所定の閾値よりも大きいか否かを判定する。この閾値判定は、追加候補画像INCが画像変換後の画像として適切であるか否かを判定するものである。   In step S33, the image feature analysis unit 101 performs image feature analysis on the inversely transformed input image IININV, and the difference unit 201 obtains a difference between the obtained additional candidate image feature vector INCFV and the input image feature vector IINFV. Further, the threshold determination unit 202 determines whether or not the difference is larger than a predetermined threshold. This threshold determination is to determine whether or not the additional candidate image INC is appropriate as an image after image conversion.

差が閾値よりも大きいときは(S33でYES)、追加候補画像INCが入力画像INNの変換後の画像として適切でないと判断して、ステップS31に戻り、再度、追加候補画像を取得し、ステップS32,33を実行する。一方、差が閾値よりも小さい、または等しいときは、追加候補画像INCは画像変換後の画像として適切であると判断し、ステップS34に進む。なお、差が閾値と一致したとき、ステップS31に戻るようにしてもかまわない。   When the difference is larger than the threshold value (YES in S33), it is determined that the additional candidate image INC is not appropriate as the converted image of the input image INN, the process returns to step S31, and the additional candidate image is acquired again. S32 and 33 are executed. On the other hand, when the difference is smaller than or equal to the threshold value, it is determined that the additional candidate image INC is appropriate as an image after image conversion, and the process proceeds to step S34. When the difference matches the threshold value, the process may return to step S31.

そしてステップS34において、データ変更部203が、入力画像特徴ベクトルIINFVと追加候補画像特徴ベクトルINCFVとの変換対を、置換データに追加する。変換対を追加する位置は、すでに登録されている入力画像特徴ベクトル群の、入力画像特徴ベクトルIINFVに対するベクトル量子化誤差に基づいて、定めるものとする。すなわち、ベクトル量子化誤差が最も小さいノードと2番目に小さいノードとの間に(図7では、画像特徴ベクトル番号の2番と3番との間に)、新たな変換対を追加する。入力側の番号は、追加したノード以降は「1」ずつ繰り上がる。また、追加したノードの出力側の番号は「q+1」となる。   In step S34, the data changing unit 203 adds a conversion pair of the input image feature vector IINFV and the additional candidate image feature vector INCFV to the replacement data. The position at which the conversion pair is added is determined based on the vector quantization error of the already registered input image feature vector group with respect to the input image feature vector IINFV. That is, a new transform pair is added between the node having the smallest vector quantization error and the second smallest node (between the image feature vector numbers 2 and 3 in FIG. 7). The number on the input side is incremented by “1” after the added node. Further, the number on the output side of the added node is “q + 1”.

なお、図7では、ベクトル量子化誤差の小さい順番801を画像特徴ベクトル番号置換テーブル106内に記載したが、これは説明の便宜上であり、置換実行時には特には必要ない。   In FIG. 7, the order 801 with the smallest vector quantization error is described in the image feature vector number replacement table 106, but this is for convenience of explanation and is not particularly necessary when performing replacement.

このような処理によって、現在の入力画像IINに対する画像特徴ベクトルの変換対が置換データに補充される。これにより、以降の処理において、入力画像IINと同等の画像が入力された場合でも、ベクトル量子化誤差が所定の閾値以内に収まることになる。   By such processing, the replacement pairs of image feature vector conversion pairs for the current input image IIN are supplemented to the replacement data. As a result, in the subsequent processing, even when an image equivalent to the input image IIN is input, the vector quantization error falls within a predetermined threshold.

なおここでは、画像拡大を例にとって置換データの更新処理を説明したが、画像拡大以外の画像変換であっても、逆変換が可能なものであれば、任意の種類の画像変換に適応可能である。   Here, the replacement data update processing has been described by taking the image enlargement as an example, but even if the image conversion is other than the image enlargement, it can be applied to any kind of image conversion as long as the reverse conversion is possible. is there.

(第2の実施形態)
本発明の第2の実施形態は、置換データの更新を、第1の実施形態と異なる手法によって行うものである。すなわち、入力画像の種類を特定し、画像変換の内容に従って出力画像の種類を決定し、出力画像の種類に応じた追加画像を取得して、不足する画像特徴ベクトルの変換対を補充する。これ以外の構成および処理は、第1の実施形態と同様である。
(Second Embodiment)
In the second embodiment of the present invention, replacement data is updated by a method different from that of the first embodiment. That is, the type of the input image is specified, the type of the output image is determined according to the content of the image conversion, an additional image corresponding to the type of the output image is acquired, and the conversion pairs of the insufficient image feature vectors are supplemented. Other configurations and processes are the same as those in the first embodiment.

図9は本実施形態が前提とする置換データの一例である。図9では、所定の画像変換は、視点方向を所定の角度(ここでは90度)だけ変える視点変換としている。画像特徴ベクトル番号置換テーブル106では、各入力画像特徴ベクトルおよび各出力画像特徴ベクトルに、種類として、視点方向を示す角度が、対応付けて表されている。   FIG. 9 shows an example of replacement data premised on the present embodiment. In FIG. 9, the predetermined image conversion is a viewpoint conversion in which the viewpoint direction is changed by a predetermined angle (90 degrees here). In the image feature vector number replacement table 106, each input image feature vector and each output image feature vector are associated with an angle indicating the viewpoint direction as a type.

変換元画像ISは縦方向のストライプを持っているが、視点方向を90度回転させると変換後画像IDのように、横方向のストライプになる。入力画像特徴ベクトルデータベース102と出力画像特徴ベクトルデータベース107は、視点方向が90度異なる画像特徴ベクトルの対をp種類持つ。画像特徴ベクトル番号置換テーブル106では、360度をp種類に分けた360/p度ごとの視点角度が、種類として記録されている。   The conversion source image IS has a vertical stripe, but when the viewpoint direction is rotated by 90 degrees, a horizontal stripe is formed as in the converted image ID. The input image feature vector database 102 and the output image feature vector database 107 have p types of image feature vector pairs whose viewpoint directions differ by 90 degrees. In the image feature vector number replacement table 106, 360-degree degrees of viewpoint angles obtained by dividing 360 degrees into p types are recorded as types.

本発明において、画像特徴ベクトルに付される「種類」は、画像変換の内容に応じて、決められる。例えば、視点変換では、視点方向を表わす角度が種類になり、また照明変換では、照明方向を表わす角度が種類になる。なお、被写体および照明環境は同一であることが前提条件となる。   In the present invention, the “type” added to the image feature vector is determined according to the content of the image conversion. For example, in the viewpoint conversion, an angle indicating the viewpoint direction is a type, and in the illumination conversion, an angle indicating the illumination direction is a type. Note that the subject and the lighting environment are the same.

図10は本実施形態における置換データの更新処理を示すフローチャートである。図10の処理は、図3のステップS4においてYESのとき、すなわち、ベクトル量子化誤差が閾値よりも大きいと判断されたとき、スタートする。図10の処理は、図3のステップS10〜S13とは並列に実行され、不足する画像特徴ベクトルの変換対を補充する。したがって、図10の処理が実行されると、現在の入力画像に対する画像変換の画質劣化は抑制される。なお、補間演算による画像生成を行わないで、本実施形態における置換データの更新を行うようにしてもかまわない。   FIG. 10 is a flowchart showing replacement data update processing in this embodiment. The process of FIG. 10 starts when YES is determined in step S4 of FIG. 3, that is, when it is determined that the vector quantization error is larger than the threshold value. The process of FIG. 10 is executed in parallel with steps S10 to S13 of FIG. 3, and supplements the missing image feature vector conversion pairs. Therefore, when the processing of FIG. 10 is executed, image quality deterioration of image conversion for the current input image is suppressed. It should be noted that the replacement data in this embodiment may be updated without generating an image by interpolation calculation.

ステップS41において、入力画像IINに係る第1の種類を決定する。入力画像特徴ベクトルIINFVの近傍に位置する画像特徴ベクトルを取得し、これらを補間することによって、種類を決定する。   In step S41, the first type related to the input image IIN is determined. The type is determined by obtaining an image feature vector located in the vicinity of the input image feature vector IINFV and interpolating these.

いま、入力画像特徴ベクトルIINFVに最も類似する画像特徴量ベクトルの番号として、2番が得られたとする。このとき、2番と、その上下すなわち1番と3番の画像特徴ベクトルを取得し、(数3)から入力画像の種類を決定する。
ここで、cは求めたい入力画像の種類、cjは各画像特徴ベクトルの種類、mは補間に用いる画像特徴ベクトルの個数(ここでは3)、wjは重み係数である。重み係数wjは、(数4)で与えられる。
ここでejは各画像特徴ベクトルと入力画像特徴ベクトルIINFVとの距離であり、ejが小さいものほど、種類の算出に大きく寄与する。ここでは、入力画像特徴ベクトルIINFVをベクトル量子化することによって、番号2の画像特徴ベクトルが割り当てられたため、図11に示すように、入力画像特徴ベクトルIINFVと番号2の画像特徴量ベクトルとの距離D2が最も短く、補間での寄与率が最も大きくなる。次に短いのは距離D1であり、距離D3が最も長く、したがって、番号3の画像特徴量ベクトルが、補間での寄与率が最も小さくなる。
Now, it is assumed that No. 2 is obtained as the number of the image feature quantity vector most similar to the input image feature vector IINFV. At this time, the image feature vectors of No. 2 and above and below, that is, No. 1 and No. 3 are acquired, and the type of the input image is determined from (Equation 3).
Here, c is the type of input image to be obtained, cj is the type of each image feature vector, m is the number of image feature vectors used for interpolation (here, 3), and wj is a weighting coefficient. The weighting coefficient wj is given by (Equation 4).
Here, ej is the distance between each image feature vector and the input image feature vector IINFV, and the smaller the ej, the greater the contribution to the type calculation. Here, since the image feature vector of number 2 is assigned by vector quantization of the input image feature vector IINFV, the distance between the input image feature vector IINFV and the image feature quantity vector of number 2 is shown in FIG. D2 is the shortest, and the contribution ratio in the interpolation is the largest. The next shortest is the distance D1, and the distance D3 is the longest. Therefore, the image feature vector number 3 has the smallest contribution in interpolation.

ステップS42において、入力画像の種類と画像変換の内容から出力画像の種類を決定する。図9の場合、画像変換の内容は、角度90度の視点方向の変換であるので、出力画像の種類は、入力画像の種類として求めた角度に、90度を加えた角度になる。   In step S42, the type of output image is determined from the type of input image and the content of image conversion. In the case of FIG. 9, since the content of the image conversion is conversion of the viewpoint direction at an angle of 90 degrees, the type of the output image is an angle obtained by adding 90 degrees to the angle obtained as the type of the input image.

ステップS43において、出力画像の種類に応じた追加画像を取得する。図9の場合、出力画像の種類は入力画像の種類に90度加えた角度であるため、入力画像の視点方向から90度回転した方向から被写体を撮影し、追加画像を得る。   In step S43, an additional image corresponding to the type of output image is acquired. In the case of FIG. 9, since the type of the output image is an angle obtained by adding 90 degrees to the type of the input image, the subject is photographed from a direction rotated 90 degrees from the viewpoint direction of the input image, and an additional image is obtained.

そしてステップS44において、入力画像特徴ベクトルIINFVと追加画像の画像特徴ベクトルとの変換対を、置換データに追加する。   In step S44, a conversion pair of the input image feature vector IINFV and the image feature vector of the additional image is added to the replacement data.

このような処理によって、現在の入力画像IINに対する画像特徴ベクトルの変換対が置換データに補充される。これにより、以降の処理において、入力画像IINと同等の画像が入力された場合でも、ベクトル量子化誤差が所定の閾値以内に収まることになる。   By such processing, the replacement pair of the image feature vector conversion pair for the current input image IIN is supplemented. As a result, in the subsequent processing, even when an image equivalent to the input image IIN is input, the vector quantization error falls within a predetermined threshold.

なお、上述の例では、画像変換が視点変換であるものとしたが、これ以外の画像変換であっても、変換元画像と変換後画像とが画像の種類とともに取得できるものであれば、適応可能である。   In the above example, the image conversion is the viewpoint conversion. However, even if the image conversion is other than this, the conversion is applicable if the conversion source image and the converted image can be acquired together with the image type. Is possible.

図12は本実施形態における置換データの他の例である。図12では、所定の画像変換は、所定の倍率(ここでは8倍)だけ画像を拡大する画像拡大としている。例えば、512画素×512ラインの画像を画像倍率1倍とすると、画素数とライン数が半分となる256画素×256ラインは画像倍率1/2倍であり、画素数とライン数が4倍となる2048画素×2048ラインは画像倍率4倍となる。画像特徴ベクトル番号置換テーブル106では、各入力画像特徴ベクトルおよび各出力画像特徴ベクトルに、種類として、画像の倍率が、対応付けて表されている。具体的には、1/4倍から4倍までを等倍の関係でp種類に分割した画像倍率が、種類として記録されている。なお、格納順は、倍率の昇順としているが、倍率の降順としてもかまわない。   FIG. 12 shows another example of replacement data in this embodiment. In FIG. 12, the predetermined image conversion is image enlargement in which the image is enlarged by a predetermined magnification (here, 8 times). For example, assuming that an image of 512 pixels × 512 lines has an image magnification of 1 ×, 256 pixels × 256 lines in which the number of pixels and the number of lines are halved is an image magnification of ½ ×, and the number of pixels and the number of lines is 4 ×. Thus, 2048 pixels × 2048 lines has an image magnification of 4 times. In the image feature vector number replacement table 106, each input image feature vector and each output image feature vector are represented in association with the magnification of the image as a type. Specifically, an image magnification obtained by dividing 1/4 to 4 times into p types in the same magnification relationship is recorded as the type. The storage order is ascending order of magnification, but may be descending order of magnification.

画像倍率1/4に同じ倍率を(p−1)回乗算して画像倍率4を得るには、
なる倍率を用いればいい。たとえば、p=5の場合、(数5)は2となるため、画像倍率1/4に2を4回掛けて4(=1/4×2×2×2×2)を得る。一般化すると、画像倍率mに倍率αを(p−1)回乗算して画像倍率nを得るには、倍率αは
となる。
To obtain the image magnification 4 by multiplying the image magnification ¼ by the same magnification (p−1) times,
The magnification which becomes is good. For example, when p = 5, (Equation 5) is 2, so that 4 (= 1/4 × 2 × 2 × 2 × 2) is obtained by multiplying the image magnification ¼ by 2 four times. In general, to obtain the image magnification n by multiplying the image magnification m by the magnification α (p−1) times, the magnification α is
It becomes.

画像変換の内容が8倍拡大であるので、出力画像の種類は、入力画像の種類として与えられる画像倍率に8を乗算した画像倍率になる。ここでは、512画素×512ラインの画像を画像倍率1倍としたため、画像倍率1/4倍に相当する128画素×128ラインの画像は、8倍拡大により、画像倍率2倍に相当する1024画素×1024ラインの画像に変換される。   Since the content of the image conversion is 8 times enlargement, the type of the output image is an image magnification obtained by multiplying the image magnification given as the type of the input image by 8. Here, since an image of 512 pixels × 512 lines is set to an image magnification of 1 ×, an image of 128 pixels × 128 lines corresponding to an image magnification of 1/4 × is 1024 pixels corresponding to an image magnification of 2 × by 8 × magnification. It is converted into an image of × 1024 lines.

図12のような置換データについても、図9と同様に、図10のフローチャートに従って、入力画像特徴ベクトルIINFVの近傍に位置する画像特徴ベクトルを用いた補間演算を用いて、データ更新を行うことができる。   Similarly to FIG. 9, replacement data as in FIG. 12 can also be updated using interpolation calculation using an image feature vector located in the vicinity of the input image feature vector IINFV according to the flowchart of FIG. 10. it can.

なお、図12では、入力画像の種類を与える際に等倍の関係を用いたが、等分の関係を用いてもかまわない。「等倍」の関係とは、隣接する上下のノードの「除算値」がすべての組み合わせで等しいことを意味し、「等分」の関係とは、隣接する上下のノードの「差分値」がすべての組み合わせで等しいことを意味する。   In FIG. 12, the equal-magnification relationship is used when giving the type of the input image, but an equality relationship may be used. The “same size” relationship means that the “division value” of the adjacent upper and lower nodes is the same in all combinations, and the “equal division” relationship means that the “difference value” of the adjacent upper and lower nodes is the same. Means equal in all combinations.

(第3の実施形態)
図13は本発明の第3の実施形態に係る画像変換方法を示すタイムチャートである。ここでは、画像変換の内容が画像拡大であり、かつビデオカメラで撮影倍率を変更しながら撮影する場合を想定する。
(Third embodiment)
FIG. 13 is a time chart showing an image conversion method according to the third embodiment of the present invention. Here, it is assumed that the content of the image conversion is image enlargement and the image is captured while changing the shooting magnification with a video camera.

ビデオカメラは、図1および図7に示す構成を備え、図3および図6に示すフローチャートに従って動作する。すなわち、ビデオカメラは、図1の構成によって学習方式の画像拡大を実行し、適切な置換データが準備されていないような入力画像特徴ベクトルが生じ、画像拡大のための置換データが不足したときは、図3のフローに従って、画像特徴ベクトルを補間演算によって求める。また、図7の構成によって、図6のフローに従って、不足する画像特徴ベクトルの変換対を取得し、置換データに追加する。   The video camera has the configuration shown in FIGS. 1 and 7, and operates according to the flowcharts shown in FIGS. That is, when the video camera executes the image enlargement of the learning method with the configuration of FIG. 1 and an input image feature vector for which appropriate replacement data is not prepared is generated, and the replacement data for image expansion is insufficient In accordance with the flow of FIG. 3, an image feature vector is obtained by interpolation. In addition, with the configuration of FIG. 7, in accordance with the flow of FIG. 6, a conversion pair of insufficient image feature vectors is acquired and added to the replacement data.

このため、撮影者が撮影倍率を上げてズームインした場合でも、学習方式の画像拡大処理によって拡大画像を生成することができる。このとき、光学ズームは動かず、広画角で撮影を続けることができるので、ズームインによる狭画角は発生せず、注目点が画角から外れて撮りこぼす可能性が少なくなる、という効果が得られる。   For this reason, even when the photographer increases the shooting magnification and zooms in, an enlarged image can be generated by the image enlargement process of the learning method. At this time, since the optical zoom does not move and shooting can be continued at a wide angle of view, the narrow angle of view due to zoom-in does not occur, and there is less possibility that the attention point will deviate from the angle of view and spill out. can get.

図13(a)は撮影者が決めた撮影倍率とビデオカメラの光学ズームの撮影倍率の経時変化を表すグラフである。縦軸は撮影倍率、横軸は時間である。破線が撮影者が決めた撮影倍率であり、実線が光学ズームの撮影倍率である。ビデオカメラの制御系は、光学ズームの撮影倍率が撮影者の指示した撮影倍率に一致したことを、撮影倍率同士を対比することによって、容易に認識することができる。撮影倍率が高くなるとズームインの状態になり、撮影倍率が低くなるとズームアウトの状態になる。   FIG. 13A is a graph showing the change over time of the shooting magnification determined by the photographer and the shooting magnification of the optical zoom of the video camera. The vertical axis represents shooting magnification, and the horizontal axis represents time. The broken line is the photographing magnification determined by the photographer, and the solid line is the photographing magnification of the optical zoom. The control system of the video camera can easily recognize that the photographing magnification of the optical zoom matches the photographing magnification designated by the photographer by comparing the photographing magnifications. When the shooting magnification increases, the zoom-in state is entered, and when the shooting magnification decreases, the zoom-out state is entered.

図13(b)は図13(a)に対応したベクトル量子化誤差の経時変化を表すグラフであり、縦軸はベクトル量子化誤差である。図示されている閾値は、図3のステップS4において用いられる所定の閾値に相当する。また、図13(c)は図13(a)に対応したビデオカメラの動作を示すグラフである。動作として、画像特徴ベクトル補間(図3のS10〜S13)、画像特徴ベクトル置換(図3のS20〜S22)、光学ズームによる映像記録、画像取得(図6のS31〜S33)、およびデータ追加(図6のS34)を、表している。   FIG. 13B is a graph showing the change over time of the vector quantization error corresponding to FIG. 13A, and the vertical axis is the vector quantization error. The illustrated threshold value corresponds to the predetermined threshold value used in step S4 of FIG. FIG. 13C is a graph showing the operation of the video camera corresponding to FIG. As operations, image feature vector interpolation (S10 to S13 in FIG. 3), image feature vector replacement (S20 to S22 in FIG. 3), video recording by optical zoom, image acquisition (S31 to S33 in FIG. 6), and data addition ( FIG. 6 shows S34).

時刻t1において、撮影者は撮影倍率を上げ、ズームインを指示している。ところが、画像変換処理によって画像拡大を実行しているため、光学ズームの倍率は変化していない。また、ベクトル量子化誤差は閾値よりも小さいので、図1のセレクタ105は第1の候補出力画像特徴ベクトルCaIOUTFVを出力画像特徴ベクトルIOUTFVとして選択する。すなわち、「画像特徴ベクトル置換」が実行される。   At time t1, the photographer increases the shooting magnification and instructs to zoom in. However, since the image enlargement is executed by the image conversion process, the magnification of the optical zoom is not changed. Further, since the vector quantization error is smaller than the threshold, the selector 105 in FIG. 1 selects the first candidate output image feature vector CaIOUTFV as the output image feature vector IOUTFV. That is, “image feature vector replacement” is executed.

ところが時刻t2において、閾値を超える誤差1が生じたので、光学ズームによる高解像度画像の取得を行うために、光学ズームの撮影倍率を撮影者が決めた撮影倍率に変更する。時刻t2から光学ズームが撮影者の決めた撮影倍率にたどり着く時刻t3までの間は、図1のセレクタ105は、第2の候補出力画像特徴ベクトルCbIOUTFVを出力画像特徴ベクトルIOUTFVとして選択する。すなわち、「画像特徴ベクトル補間」が実行される。時刻t3以降は、撮影者が決めた撮影倍率の画像が光学ズームによって取得できているので、画像特徴ベクトル補間は行わないで、光学ズームによる撮影画像を出力画像とする。   However, since an error 1 exceeding the threshold occurs at time t2, in order to acquire a high resolution image by optical zoom, the imaging magnification of the optical zoom is changed to the imaging magnification determined by the photographer. From time t2 to time t3 when the optical zoom reaches the photographing magnification determined by the photographer, the selector 105 in FIG. 1 selects the second candidate output image feature vector CbIOUTFV as the output image feature vector IOUTFV. That is, “image feature vector interpolation” is executed. After time t3, since an image with a shooting magnification determined by the photographer has been acquired by optical zoom, image feature vector interpolation is not performed, and a captured image by optical zoom is used as an output image.

一方、置換データの追加更新を行うために、時刻t2から、「画像取得」(高解像度画像の取得とその低解像度化)が実行され、適切な学習データの追加が開始される。時刻t4において、適切な学習データが見つかったので(図6のステップS33でNO)、「データ追加」が実行され、誤差1に対する変換対が置換データに追加される。これにより、時刻t1の入力画像に対する画像拡大は学習方式によって実行可能になり、光学ズームの倍率は元の1倍に戻り、ズームアウトされる。撮影者は引き続き、ズームインの状態を保ちつづけているため、画像拡大は画像変換処理によって実行され、広画角撮影された映像が記録される。以上の例は、「データ追加」が完了するまでベクトル量子化誤差が閾値を超えなかった場合である。   On the other hand, in order to perform additional update of replacement data, “image acquisition” (acquisition of high resolution image and reduction in resolution thereof) is executed from time t2, and addition of appropriate learning data is started. Since appropriate learning data is found at time t4 (NO in step S33 in FIG. 6), “data addition” is executed, and the conversion pair for error 1 is added to the replacement data. As a result, image enlargement with respect to the input image at time t1 can be executed by the learning method, and the magnification of the optical zoom returns to the original 1 and is zoomed out. Since the photographer continues to maintain the zoom-in state, the image enlargement is executed by the image conversion process, and the video imaged at the wide angle of view is recorded. The above example is a case where the vector quantization error does not exceed the threshold until “data addition” is completed.

次に、ベクトル量子化誤差が連続して閾値を超えて、誤差2、誤差3、誤差4が続けて生じた場合を想定する。時刻t5において誤差2が生じたため、光学ズームは撮影者が決めた撮影倍率に移行し、時刻t7で移行を完了している。このため、時刻t5で開始された「画像特徴ベクトル補間」は時刻t7で中断し、以降、置換データの更新が完了する時刻t12までは、光学ズームの撮影倍率は撮影者が決めた撮影倍率に設定され、光学ズームによる高解像度画像が記録される。   Next, it is assumed that the vector quantization error continuously exceeds the threshold value, and error 2, error 3, and error 4 are continuously generated. Since an error 2 occurs at time t5, the optical zoom shifts to the shooting magnification determined by the photographer, and the shift is completed at time t7. For this reason, the “image feature vector interpolation” started at time t5 is interrupted at time t7, and thereafter, until the time t12 when the replacement data is updated, the imaging magnification of the optical zoom is set to the imaging magnification determined by the photographer. Set and record high resolution image by optical zoom.

時刻t7から、誤差3に対する「データ追加」が実行されたが、まだ誤差2の学習データが見つからないため、「画像取得」はONの状態が続いている。誤差2の学習データが見つからないまま、時刻t9に誤差4が生じ、2つの誤差に対して学習データを追加更新する必要性が生じた。時刻t10から誤差2に対する「データ追加」が実行され、さらに時刻t12から誤差4に対する「データ追加」が実行されて、画像変換によって画像拡大ができる状態が整った。そこで、「データ追加」が終了した時刻t13から、光学ズームはズームアウトを開始し、再び撮影倍率1倍まで戻る。   From time t7, “data addition” for error 3 has been executed, but since learning data for error 2 has not yet been found, “image acquisition” remains on. An error 4 occurred at time t9 while no learning data with error 2 was found, and it was necessary to additionally update the learning data for the two errors. “Data addition” for error 2 is executed from time t10, and “data addition” for error 4 is executed from time t12, so that the image can be enlarged by image conversion. Therefore, from time t13 when the “data addition” is completed, the optical zoom starts zooming out and returns to the photographing magnification of 1 again.

さらに、時刻t14において誤差5が生じたが、撮影者が決めた倍率は1倍であるため、光学ズームを動かす必要はない。そこで、「画像特徴ベクトル補間」を実行する必要はなく、「画像特徴ベクトル置換」が実行されている。一方、学習データは補う必要があるので、「画像取得」が開始される。誤差5に対する学習データの追加更新が未達のまま、撮影者は時刻t15において撮影倍率を上げたため、光学ズームはこれに追従する。時刻t16で追加更新する学習データが見つかったので、「画像取得」はOFFになり、誤差5に対する「データ追加」が実行される。学習データの追加更新を終えた時刻t17以降は、画像変換によって画像拡大が実行可能となる。このため、撮影者が決めた撮影倍率は増加を続けても、光学ズームはズームアウトし、撮影倍率1倍に戻る。   Further, although an error 5 occurs at time t14, since the magnification determined by the photographer is 1, it is not necessary to move the optical zoom. Therefore, it is not necessary to execute “image feature vector interpolation”, and “image feature vector replacement” is executed. On the other hand, since learning data needs to be supplemented, “image acquisition” is started. Since the photographer increased the photographing magnification at time t15 while the additional update of the learning data for the error 5 has not been achieved, the optical zoom follows this. Since learning data to be additionally updated is found at time t16, “image acquisition” is turned OFF, and “data addition” for error 5 is executed. Image enlargement can be performed by image conversion after time t17 when the addition of the learning data is completed. For this reason, even if the photographing magnification determined by the photographer continues to increase, the optical zoom zooms out and returns to the photographing magnification of 1.

以下、本発明を実現する構成例を例示する。   Hereinafter, configuration examples for realizing the present invention will be exemplified.

(第1の構成例)
図14は第1の構成例を示す図であり、パーソナルコンピュータを用いて本発明に係る画像変換を行う構成の一例である。ここでは、画像変換の一例として画像拡大を想定している。カメラ501の解像度はディスプレイ502の解像度よりも低く、ディスプレイ502の表示能力を最大限に生かすために、メインメモリ503にロードされた画像変換プログラムによって拡大画像を作成する。カメラ501で取り込まれた低解像度画像は画像メモリ504に記録される。外部記憶装置505には予め、図1等に示したような入力画像特徴ベクトルデータベース102、出力画像特徴ベクトルデータベース107および画像特徴ベクトル番号置換テーブル106が準備されており、メインメモリ503の画像変換プログラムから参照可能になっている。
(First configuration example)
FIG. 14 is a diagram showing a first configuration example, which is an example of a configuration for performing image conversion according to the present invention using a personal computer. Here, image enlargement is assumed as an example of image conversion. The resolution of the camera 501 is lower than the resolution of the display 502, and an enlarged image is created by an image conversion program loaded in the main memory 503 in order to make full use of the display capability of the display 502. The low resolution image captured by the camera 501 is recorded in the image memory 504. The external storage device 505 is prepared in advance with an input image feature vector database 102, an output image feature vector database 107, and an image feature vector number replacement table 106 as shown in FIG. It can be referred from.

画像変換プログラムの動作や、入力画像特徴ベクトルデータベース102、出力画像特徴ベクトルデータベース107および画像特徴ベクトル番号置換テーブル106の内容や作成方法等は、第1および第2の実施形態で説明したとおりである。   The operations of the image conversion program, the contents of the input image feature vector database 102, the output image feature vector database 107, and the image feature vector number replacement table 106, the creation method, and the like are as described in the first and second embodiments. .

メインメモリ503の画像変換プログラムは、メモリバス508を介して画像メモリ504の低解像度画像を読み込み、これをディスプレイ502の解像度に合わせて高解像度画像に変換し、再びメモリバス508経由でビデオメモリ509に転送する。ビデオメモリ509に転送された高解像度画像は、ディスプレイ502に表示される。   The image conversion program in the main memory 503 reads a low resolution image in the image memory 504 via the memory bus 508, converts it into a high resolution image in accordance with the resolution of the display 502, and again converts the video memory 509 via the memory bus 508. Forward to. The high resolution image transferred to the video memory 509 is displayed on the display 502.

また、画像変換として視点変換を行う場合は、カメラ501によって撮影した被写体を、視点方向を変更してディスプレイ502に表示するために、メインメモリ503にロードされた画像変換プログラムによって視点変換を行う。画像変換プログラムは、画像メモリ504からメモリバス508を介して原画像を読み込み、これを視点変換の指示内容に合わせて変換し、再びメモリバス508経由でビデオメモリ509に転送する。ビデオメモリ509に転送された視点変換画像は、ディスプレイ502に表示される。   When performing viewpoint conversion as image conversion, the viewpoint conversion is performed by an image conversion program loaded in the main memory 503 in order to change the viewpoint direction and display the subject captured by the camera 501 on the display 502. The image conversion program reads an original image from the image memory 504 via the memory bus 508, converts the original image according to the content of the viewpoint conversion instruction, and transfers it again to the video memory 509 via the memory bus 508. The viewpoint conversion image transferred to the video memory 509 is displayed on the display 502.

なお、本発明は図14の構成に拘束されるものではなく、様々な構成をとることができる。例えば、入力画像特徴ベクトルデータベース102、出力画像特徴ベクトルデータベース107および画像特徴ベクトル番号置換テーブル106を、別のパーソナルコンピュータに接続された外部記憶装置からネットワーク510を介して取得してもかまわない。またカメラ501で取得した画像は、ネットワーク510を介して取得してもかまわない。   Note that the present invention is not limited to the configuration of FIG. 14 and can have various configurations. For example, the input image feature vector database 102, the output image feature vector database 107, and the image feature vector number substitution table 106 may be acquired from an external storage device connected to another personal computer via the network 510. The image acquired by the camera 501 may be acquired via the network 510.

(第2の構成例)
図15は第2の構成例を示す図であり、サーバークライアントシステムを用いて本発明に係る画像変換を行う構成の一例である。ここでは、画像変換の一例として画像拡大を想定する。カメラ601の解像度はディスプレイ602の解像度よりも低く、ディスプレイ602の表示能力を最大限に生かすために、サーバークライアントシステムにおいて画像変換を実行する。サーバー603では、画像特徴解析部608が図1の画像特徴解析部101に対応しており、また画像特徴ベクトル変換部604が、図1の入力画像特徴ベクトルデータベース102、ベクトル量子化部103、ベクトル量子化誤差算出部104、セレクタ105、画像特徴ベクトル番号置換テーブル106および出力画像特徴ベクトルデータベース107と、図7に示した差分部201、閾値判定部202およびデータ変更部203とを備えており、入力画像IINを画像拡大して出力画像特徴ベクトルIOUTFVとして出力する。
(Second configuration example)
FIG. 15 is a diagram showing a second configuration example, which is an example of a configuration for performing image conversion according to the present invention using a server client system. Here, image enlargement is assumed as an example of image conversion. The resolution of the camera 601 is lower than the resolution of the display 602, and image conversion is executed in the server client system in order to make the best use of the display capability of the display 602. In the server 603, the image feature analysis unit 608 corresponds to the image feature analysis unit 101 in FIG. 1, and the image feature vector conversion unit 604 includes the input image feature vector database 102, the vector quantization unit 103, the vector in FIG. Quantization error calculation unit 104, selector 105, image feature vector number replacement table 106 and output image feature vector database 107, difference unit 201, threshold value determination unit 202, and data change unit 203 shown in FIG. The input image IIN is enlarged and output as an output image feature vector IOUTFV.

出力画像特徴ベクトルIOUTFVはネットワーク605を経由してクライアント606に送信される。クライアント606は受信した出力画像特徴ベクトルIOUTFVを、画像生成部607によって画像に変換し、得られた拡大画像をディスプレイ602に表示する。   The output image feature vector IOUTFV is transmitted to the client 606 via the network 605. The client 606 converts the received output image feature vector IOUTFV into an image by the image generation unit 607, and displays the obtained enlarged image on the display 602.

また、画像変換として視点変換を行う場合は、カメラ601によって撮影した被写体を、視点方向を変更してディスプレイ602に表示するために、画像変換を実行する。サーバー603では、画像特徴ベクトル変換部604が、入力画像IINの視点方向を変換して出力画像特徴ベクトルIOUTFVとして出力する。出力画像特徴ベクトルIOUTFVはネットワーク605を経由してクライアント606に送信する。クライアント606は受信した出力画像特徴ベクトルIOUTFVを、画像生成部607によって画像に変換し、得られた視点変更画像をディスプレイ602に表示する。   Further, when performing viewpoint conversion as image conversion, image conversion is executed in order to display a subject photographed by the camera 601 on the display 602 while changing the viewpoint direction. In the server 603, the image feature vector conversion unit 604 converts the viewpoint direction of the input image IIN and outputs it as an output image feature vector IOUTFV. The output image feature vector IOUTFV is transmitted to the client 606 via the network 605. The client 606 converts the received output image feature vector IOUTFV into an image by the image generation unit 607 and displays the obtained viewpoint change image on the display 602.

なお、本発明は図15の構成に拘束されるものではなく、様々な構成を取ることができる。例えば、カメラ601はクライアント606の一部であっても構わない。   In addition, this invention is not restrained by the structure of FIG. 15, and can take various structures. For example, the camera 601 may be a part of the client 606.

本発明では、画像拡大、照明変換、視点変換など、様々な画像変換を自由に実施できるため、例えば、スポーツや観光、記念撮影など目の前のシーンを映像として記録する映像エンタテイメント分野において利用することができる。また、文化芸術の分野では、被写体や撮影場所に制限されない自由度の高いデジタルアーカイブシステムを提供するために利用することができる。   In the present invention, since various image conversions such as image enlargement, illumination conversion, and viewpoint conversion can be performed freely, for example, it is used in the video entertainment field for recording a scene in front of the eyes such as sports, sightseeing, and commemorative photography. be able to. In the field of culture and art, it can be used to provide a highly flexible digital archive system that is not limited by the subject or shooting location.

本発明の第1の実施形態に係る画像変換装置を示すブロック図である。1 is a block diagram illustrating an image conversion apparatus according to a first embodiment of the present invention. ウェーブレット変換を用いた画像特徴解析を表す図である。It is a figure showing the image feature analysis using a wavelet transform. 本発明の第1の実施形態に係る画像変換方法を示すフローチャートである。It is a flowchart which shows the image conversion method which concerns on the 1st Embodiment of this invention. 画像変換のための置換データの準備について示す図である。It is a figure shown about the preparation of the replacement data for image conversion. 特徴量空間における画像特徴ベクトルを示す概念図である。It is a conceptual diagram which shows the image feature vector in the feature-value space. 本発明の第1の実施形態における置換データの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the replacement data in the 1st Embodiment of this invention. 置換データの更新に関する構成を示すブロック図である。It is a block diagram which shows the structure regarding the update of replacement data. 高解像度画像を取得する方法の例を示す図である。It is a figure which shows the example of the method of acquiring a high resolution image. 本発明の第2の実施形態が前提とする置換データの一例である。It is an example of the replacement data which the 2nd Embodiment of this invention presupposes. 本発明の第2の実施形態における置換データの更新処理を示すフローチャートである。It is a flowchart which shows the update process of the replacement data in the 2nd Embodiment of this invention. 特徴量空間において、画像特徴ベクトル同士の距離を概念的に示す図である。It is a figure which shows notionally the distance of image feature vectors in the feature-value space. 本発明の第2の実施形態が前提とする置換データの他の例である。It is another example of the replacement data which the 2nd Embodiment of this invention presupposes. 本発明の第3の実施形態に係る画像変換方法を示すタイムチャートである。It is a time chart which shows the image conversion method which concerns on the 3rd Embodiment of this invention. 本発明を実現する第1の構成例であり、パーソナルコンピュータを用いた構成を示す図である。It is a 1st example of composition which realizes the present invention, and is a figure showing composition using a personal computer. 本発明を実現する第2の構成例であり、サーバークライアントシステムを用いた構成を示す図である。It is a 2nd structural example which implement | achieves this invention, and is a figure which shows the structure using a server client system.

101 画像特徴解析部
102 入力画像特徴ベクトルデータベース
103 ベクトル量子化部
104 ベクトル量子化誤差算出部
105 セレクタ
106 画像特徴ベクトル番号置換テーブル
107 出力画像特徴ベクトルデータベース
108 画像特徴ベクトル補間演算部
109 出力画像生成部
201 差分部
202 閾値判定部
203 データ変更部
IIN 入力画像(第1の画像)
IINFV 入力画像特徴ベクトル(第1の画像特徴ベクトル)
IINFVN 入力画像特徴ベクトル番号
IINVQFV 入力画像量子化特徴ベクトル(第3の画像特徴ベクトル)
CaIOUTFVN 候補出力画像特徴ベクトル番号
CbIOUTFVNs 候補出力画像特徴ベクトル番号群
CbIOUTFVs 候補出力画像特徴ベクトル群
CaIOUTFV 第1の候補出力画像特徴ベクトル
CbIOUTFV 第2の候補b出力画像特徴ベクトル
VQE ベクトル量子化誤差
IOUTFV 出力画像特徴ベクトル(第2の画像特徴ベクトル)
IOUT 出力画像(第2の画像)
101 Image Feature Analysis Unit 102 Input Image Feature Vector Database 103 Vector Quantization Unit 104 Vector Quantization Error Calculation Unit 105 Selector 106 Image Feature Vector Number Replacement Table 107 Output Image Feature Vector Database 108 Image Feature Vector Interpolation Operation Unit 109 Output Image Generation Unit 201 Difference unit 202 Threshold determination unit 203 Data change unit IIN Input image (first image)
IINFV input image feature vector (first image feature vector)
IINFVN input image feature vector number IINVQFV input image quantization feature vector (third image feature vector)
CaIOUTFVN Candidate output image feature vector number CbIOUTFVNs Candidate output image feature vector number group CbIOUTFVs Candidate output image feature vector group CaIOUTFV First candidate output image feature vector CbIOUTFV Second candidate b output image feature vector VQE Vector quantization error IOUTFV Output image feature Vector (second image feature vector)
IOUT output image (second image)

Claims (4)

第1の画像に対して所定の画像変換を行い、第2の画像を生成する方法であって、
前記第1の画像について画像特徴解析を行い、第1の画像特徴ベクトルを得る画像特徴解析ステップと、
前記所定の画像変換に応じて予め学習して得た、入力画像特徴ベクトル群と出力画像特徴ベクトル群との対応関係を表す置換データを参照し、前記第1の画像特徴ベクトルを基にして、前記所定の画像変換後における第2の画像特徴ベクトルを得る画像特徴ベクトル変換ステップと、
前記第2の画像特徴ベクトルから、前記第2の画像を生成する画像生成ステップとを備え、
前記画像特徴ベクトル変換ステップは、
前記置換データに含まれた入力画像特徴ベクトル群の中に、前記第1の画像特徴ベクトルと類似する画像特徴ベクトルが含まれているか否かを判断する第1のステップと、
前記第1のステップにおいて、含まれていないと判断したとき、前記所定の変換に応じた入力画像特徴ベクトルと出力画像特徴ベクトルとの新たな対を生成し、前記置換データに追加する第2のステップとを備えたものであり、
前記置換データにおいて、各入力画像特徴ベクトルおよび各出力画像特徴ベクトルに、それぞれ、種類が、対応付けて表されており、
前記第2のステップは、
前記置換データに含まれた入力画像特徴ベクトル群にそれぞれ対応付けられた種類を用いて、補間演算によって、前記第1の画像に係る第1の種類を求めるステップと、
前記第1の種類から、前記所定の画像変換の内容に従って、第2の種類を求めるステップと、
前記第2の種類を基にして、前記第1の画像に対する前記所定の画像変換後の画像の候補となる、追加画像を取得するステップとを備え、
前記第1の画像特徴ベクトルと前記追加画像の画像特徴ベクトルとを、対にして、前記置換データに追加するものである
ことを特徴とする画像変換方法。
A method of performing a predetermined image conversion on a first image and generating a second image,
An image feature analysis step for performing an image feature analysis on the first image to obtain a first image feature vector;
With reference to replacement data representing a correspondence relationship between the input image feature vector group and the output image feature vector group obtained by learning in advance according to the predetermined image conversion, based on the first image feature vector, An image feature vector conversion step for obtaining a second image feature vector after the predetermined image conversion;
An image generation step of generating the second image from the second image feature vector,
The image feature vector conversion step includes:
A first step of determining whether or not an input image feature vector group included in the replacement data includes an image feature vector similar to the first image feature vector;
In the first step, when it is determined that it is not included, a second pair of an input image feature vector and an output image feature vector corresponding to the predetermined conversion is generated and added to the replacement data. With steps,
In the replacement data, each input image feature vector and each output image feature vector are each associated with a type,
The second step includes
Obtaining a first type of the first image by interpolation using types associated with the input image feature vector group included in the replacement data; and
Obtaining a second type from the first type according to the content of the predetermined image conversion;
Obtaining an additional image based on the second type, which is a candidate for the image after the predetermined image conversion for the first image,
An image conversion method, wherein the first image feature vector and the image feature vector of the additional image are added to the replacement data as a pair.
請求項1において、
前記所定の画像変換は、視点方向または照明方向を所定の角度変える視点変換または照明変換であり、
前記種類は、視点方向または照明方向を示す角度である
ことを特徴とする画像変換方法。
In claim 1 ,
The predetermined image conversion is a viewpoint conversion or illumination conversion that changes a viewpoint direction or an illumination direction by a predetermined angle,
The image conversion method characterized in that the type is an angle indicating a viewpoint direction or an illumination direction.
第1の画像に対して所定の画像変換を行い、第2の画像を生成する装置であって、
前記第1の画像について画像特徴解析を行い、第1の画像特徴ベクトルを得る画像特徴解析部と、
前記所定の画像変換に応じて予め学習して得た、入力画像特徴ベクトル群と出力画像特徴ベクトル群との対応関係を表す置換データを有し、この置換データを参照し、前記第1の画像特徴ベクトルを基にして、前記所定の画像変換後における第2の画像特徴ベクトルを得る画像特徴ベクトル変換部と、
前記第2の画像特徴ベクトルから、前記第2の画像を生成する画像生成部とを備え、
前記画像特徴ベクトル変換部は、
前記置換データに含まれた入力画像特徴ベクトル群の中に、前記第1の画像特徴ベクトルと類似する画像特徴ベクトルが含まれているか否かを判断する第1の手段と、
前記第1の手段によって、含まれていないと判断されたとき、前記所定の変換に応じた入力画像特徴ベクトルと出力画像特徴ベクトルとの新たな対を生成し、前記置換データに追加する第2の手段とを備えたものであり、
前記置換データにおいて、各入力画像特徴ベクトルおよび各出力画像特徴ベクトルに、それぞれ、種類が、対応付けて表されており、
前記第2の手段は、
前記置換データに含まれた入力画像特徴ベクトル群にそれぞれ対応付けられた種類を用いて、補間演算によって、前記第1の画像に係る第1の種類を求めるステップと、
前記第1の種類から、前記所定の画像変換の内容に従って、第2の種類を求めるステップと、
前記第2の種類を基にして、前記第1の画像に対する前記所定の画像変換後の画像の候補となる、追加画像を取得するステップとを実行し、
前記第1の画像特徴ベクトルと前記追加画像の画像特徴ベクトルとを、対にして、前記置換データに追加するものである
ことを特徴とする画像変換装置。
An apparatus that performs predetermined image conversion on a first image and generates a second image,
An image feature analysis unit that performs image feature analysis on the first image and obtains a first image feature vector;
It has replacement data representing a correspondence relationship between an input image feature vector group and an output image feature vector group obtained by learning in advance according to the predetermined image conversion. The first image is referred to by referring to the replacement data An image feature vector conversion unit for obtaining a second image feature vector after the predetermined image conversion based on a feature vector;
An image generation unit that generates the second image from the second image feature vector,
The image feature vector conversion unit includes:
First means for determining whether or not an input image feature vector group included in the replacement data includes an image feature vector similar to the first image feature vector;
A second pair for generating a new pair of an input image feature vector and an output image feature vector according to the predetermined transformation and adding the new pair to the replacement data when it is determined by the first means not to be included. der those with the means is,
In the replacement data, each input image feature vector and each output image feature vector are each associated with a type,
The second means includes
Obtaining a first type of the first image by interpolation using types associated with the input image feature vector group included in the replacement data; and
Obtaining a second type from the first type according to the content of the predetermined image conversion;
Obtaining an additional image that is a candidate for the image after the predetermined image conversion for the first image based on the second type;
The image conversion apparatus characterized in that the first image feature vector and the image feature vector of the additional image are paired and added to the replacement data .
請求項3において、In claim 3,
前記所定の画像変換は、視点方向または照明方向を所定の角度変える視点変換または照明変換であり、The predetermined image conversion is a viewpoint conversion or illumination conversion that changes a viewpoint direction or an illumination direction by a predetermined angle,
前記種類は、視点方向または照明方向を示す角度であるThe type is an angle indicating a viewpoint direction or an illumination direction.
ことを特徴とする画像変換装置。An image conversion apparatus characterized by that.
JP2005019518A 2005-01-27 2005-01-27 Image conversion method and apparatus Expired - Fee Related JP4686200B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005019518A JP4686200B2 (en) 2005-01-27 2005-01-27 Image conversion method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005019518A JP4686200B2 (en) 2005-01-27 2005-01-27 Image conversion method and apparatus

Publications (2)

Publication Number Publication Date
JP2006209396A JP2006209396A (en) 2006-08-10
JP4686200B2 true JP4686200B2 (en) 2011-05-18

Family

ID=36966197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005019518A Expired - Fee Related JP4686200B2 (en) 2005-01-27 2005-01-27 Image conversion method and apparatus

Country Status (1)

Country Link
JP (1) JP4686200B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5410355B2 (en) * 2010-04-13 2014-02-05 富士フイルム株式会社 Matrix generation apparatus, method, program, and information processing apparatus
JP6292863B2 (en) * 2013-12-20 2018-03-14 株式会社日立製作所 Image processing apparatus and image processing method
JP6339964B2 (en) * 2015-04-06 2018-06-06 日本電信電話株式会社 Image generating apparatus and computer program
WO2019224947A1 (en) * 2018-05-23 2019-11-28 株式会社ソニー・インタラクティブエンタテインメント Training device, image generation device, training method, image generation method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010095A (en) * 2000-06-23 2002-01-11 Matsushita Electric Ind Co Ltd Color image processing method and color image processor
JP2003323612A (en) * 2002-05-08 2003-11-14 Sony Corp Data converting device and method, learning device and method, and program and recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3279099B2 (en) * 1994-10-25 2002-04-30 三菱電機株式会社 Mark recognition device and mark recognition method
JP3867346B2 (en) * 1997-06-17 2007-01-10 ソニー株式会社 Image signal processing apparatus and method, and prediction parameter learning apparatus and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002010095A (en) * 2000-06-23 2002-01-11 Matsushita Electric Ind Co Ltd Color image processing method and color image processor
JP2003323612A (en) * 2002-05-08 2003-11-14 Sony Corp Data converting device and method, learning device and method, and program and recording medium

Also Published As

Publication number Publication date
JP2006209396A (en) 2006-08-10

Similar Documents

Publication Publication Date Title
JP5797016B2 (en) Image processing apparatus, image processing method, and program
US7809155B2 (en) Computing a higher resolution image from multiple lower resolution images using model-base, robust Bayesian estimation
JP5450600B2 (en) Improving image resolution
JP6257285B2 (en) Compound eye imaging device
KR101134668B1 (en) Image generation method, device, its program and recording medium with program recorded therein
JP4371457B2 (en) Image processing apparatus, method, and computer-readable storage medium
Dai et al. Sparse representation-based multiple frame video super-resolution
CN113994366A (en) Multi-stage multi-reference bootstrapping for video super-resolution
JP2011514605A (en) Method and apparatus for super-resolution of images
JP2008067316A (en) Image distribution system, server, and client terminal
CN111669564B (en) Image reconstruction method, system, device and computer readable storage medium
JP4686200B2 (en) Image conversion method and apparatus
Hardeep et al. A survey on techniques and challenges in image super resolution reconstruction
US20150145958A1 (en) Multi-lens image capturing apparatus
JPWO2006033257A1 (en) Image conversion method, image conversion apparatus, server client system, portable device, and program
JP2008294950A (en) Image processing method and device, and electronic device with the same
JP5566199B2 (en) Image processing apparatus, control method therefor, and program
JP4908350B2 (en) Image processing method and imaging apparatus using the image processing method
JP3921496B1 (en) Image conversion method and image conversion apparatus
JP4095204B2 (en) Image processing apparatus, method, and computer-readable storage medium
JP2000152250A (en) Image processing unit, method and computer readable storage medium
JP2008293388A (en) Image processing method, image processor, and electronic equipment comprising image processor
JP2013069012A (en) Multi-lens imaging apparatus
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
JP3616111B2 (en) Method and apparatus for obtaining a high resolution still image using multiple images of different focal lengths or different viewing zones

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4686200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees