WO2006033257A1 - 画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器およびプログラム - Google Patents

画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器およびプログラム Download PDF

Info

Publication number
WO2006033257A1
WO2006033257A1 PCT/JP2005/016764 JP2005016764W WO2006033257A1 WO 2006033257 A1 WO2006033257 A1 WO 2006033257A1 JP 2005016764 W JP2005016764 W JP 2005016764W WO 2006033257 A1 WO2006033257 A1 WO 2006033257A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
parameter
image feature
parameter value
illumination
Prior art date
Application number
PCT/JP2005/016764
Other languages
English (en)
French (fr)
Inventor
Hideto Motomura
Katsuhiro Kanamori
Hiroyoshi Komobuchi
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to JP2006536346A priority Critical patent/JPWO2006033257A1/ja
Publication of WO2006033257A1 publication Critical patent/WO2006033257A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting

Definitions

  • Image conversion method image conversion apparatus, server client system, portable device, and program
  • an up-converter (a conversion device that increases the number of pixels and lines) and a down-converter (a conversion device that reduces the number of pixels and lines) are required to cope with frequently occurring image size conversion.
  • an upconverter a conversion device that increases the number of pixels and lines
  • a down-converter a conversion device that reduces the number of pixels and lines
  • images published on the network require conversion to the corresponding image size every time an output device is determined.
  • home TV since digital terrestrial services have been started, conventional standard TV and HD (High Definition) TV are mixed, so image size conversion is frequently performed.
  • Non-patent Document 1 In order to enlarge an image, it is necessary to newly create powerful image data that does not exist at the time of acquisition, but various methods have already been proposed. For example, methods using interpolation such as bilinear method and no-cubic method are common (Non-patent Document 1). However, when interpolation is used, only intermediate values of sampling data can be generated. The sharpness of edges and the like tends to deteriorate, resulting in a blurred image. Therefore, a technique is disclosed in which an interpolated image is used as an initial enlarged image, and then an edge portion is extracted to emphasize only the edge (Patent Document 1, Non-Patent Document 2). However, along with the emphasis of the edge part, which makes it difficult to separate the edge part from the noise, the noise tends to be emphasized and the image quality tends to deteriorate.
  • a learning method as a method for enlarging an image while suppressing image quality deterioration. That is, a high-resolution image corresponding to the enlarged image is taken in advance by a high-definition camera or the like, and a low-resolution image is created from the high-resolution image. Low-resolution images are usually generated by sub-sampling through a low-pass filter. Many pairs of such low-resolution images and high-resolution images are prepared, and the relationship is learned as an image enlargement method. Therefore, in the learning method, the above-described enhancement processing does not exist, and therefore, it is possible to realize an image enlargement with relatively little image quality deterioration.
  • Non-patent Document 3 a technique of performing learning using a statistical method is disclosed assuming that the relationship between luminance values with adjacent pixels is determined by a Markov process.
  • Non-patent Document 4 a technique has been disclosed in which a feature vector is obtained for each pixel in a conversion pair from low resolution to high resolution, and an enlarged image is generated from the degree of coincidence with the feature vector of the input pixel and the consistency with the surroundings.
  • Patent Document 1 U.S. Pat.No. 5,717,789 ( Figure 5)
  • Non-Patent Document 1 Shinya Araya, “Clear 3D Computer Graphics”, Kyoritsu Shuppan, 2 September 25, 003, pp. 144-145
  • Non-Patent Document 2 Makoto Nakashizuka, “High-resolution image in multi-scale luminance gradient plane”, IEICE Transactions D— ⁇ Vol. J81 -D-II No. 10 pp. 2249— 2258, 1998 October
  • Non-Special Reference 3 Freeman et al., “Learnmg Low—Level Vision J, International Journal of Computer Vision 40 (1), pp. 25-47, 2000
  • Non-Patent Document 4 Hertzmann et al., “Image Analogies”, SIGGRAPH 2001 Proceedings, pp. 327-340, 2001
  • Non-Patent Document 5 Malik et al., "Representing and Recognizing the Visual Appearance of Materials using Three-dimensional TextonsJ, International al Journal of Computer Vision 43 (1), pp. 29-44, 2001
  • image feature analysis is performed on the first image, and the relationship between the image feature and the illumination equation parameter is referred to from the image feature of the first image, and the corresponding illumination equation parameter is determined. Is obtained as the original parameter value. Also, the operation details of the illumination equation parameters are determined according to the instructed image conversion. Then, the original parameter value is manipulated according to this parameter manipulation content to obtain a new parameter value. Based on this new parameter value, a second image after image conversion is generated.
  • the value of the illumination equation parameter corresponding to the image feature of the first image is acquired as the original parameter value, and the original parameter value is operated according to the operation content corresponding to the instructed image conversion. As a result, a new parameter value is obtained.
  • the second image is then generated from this new meter value. That is, image conversion is Since it is realized by the number conversion, it is possible to perform image conversion with a higher degree of freedom than in the past without being restricted by the image data at the time of learning. For example, in the case of image enlargement, it is only necessary to increase the density of the surface normal vector representing the shape information of the object among the parameters of the illumination equation. In this case, an arbitrary enlargement magnification can be set.
  • the illumination vector representing the illumination direction may be changed.
  • conversion of the viewing direction can be easily realized by manipulating the illumination equation parameters.
  • learning images are required for each type of image conversion.
  • the present invention performs image conversion by manipulating the parameters of the illumination equation, the number of learning images can be reduced.
  • the value of the illumination equation parameter is set, the set parameter value force also generates a learning image, and the learning image It is preferable to store the image features obtained from the image feature analysis in the database in association with the original parameter values.
  • the learning image can be generated by a computer using the illumination equation, so that shooting using the real object is not required for generating the learning image. Therefore, the processing becomes simple and various learning images can be easily prepared.
  • image conversion is realized by parameter conversion of the illumination equation, image conversion with a high degree of freedom is possible.
  • the number of learning images can be reduced.
  • various learning images can be easily prepared in the preprocessing.
  • FIG. 1 is a block diagram showing an image conversion apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a diagram for explaining the geometric conditions and optical conditions of the illumination equation.
  • FIG. 4 is a diagram showing image feature analysis using wavelet transform.
  • FIG. 5 is a diagram showing an example of parameter operations for performing image conversion.
  • Figure 6 shows a method for learning the relationship between image features and lighting equation parameters.
  • FIG. 7 is a diagram for explaining the geometric conditions and optical conditions of the illumination equation.
  • FIG. 8 is a diagram showing another method for acquiring parameters in accordance with image features.
  • FIG. 9 is a first configuration example for realizing the present invention, and shows a configuration using a personal computer.
  • FIG. 10 is a second configuration example for realizing the present invention, and shows a configuration using a server client system.
  • FIG. 11 is a diagram showing a third configuration example for realizing the present invention, which shows a configuration using a camera-equipped mobile phone and a television.
  • the first step of performing image feature analysis on the first image, the image feature and the illumination A second parameter is obtained by referring to the relationship with the equation parameter and obtaining the value of the illumination equation parameter corresponding to the original image parameter value from the image feature of the first image obtained in the first step.
  • a fourth step of obtaining a new parameter value and a fifth step of generating the second image based on the new parameter value are provided.
  • the image conversion method according to the first aspect wherein the image feature analysis in the first step is performed using a spatial frequency analysis.
  • the illumination equation represents a luminance in a viewpoint direction by a sum of a diffuse reflection component, a specular reflection component, and an ambient light component.
  • the illumination equation parameters include a surface normal vector, an illumination vector, a ratio of a diffuse reflection component to a specular reflection component, a reflectance of the diffuse reflection component, and a specular reflection component.
  • the third step includes a surface normal vector, an illumination vector, a diffuse reflection component, and a specular surface as operation contents of the illumination equation parameter
  • an image conversion method which defines at least one densification among a ratio to a reflection component, a reflectance of a diffuse reflection component, and a reflectance of a specular reflection component.
  • the relationship between the image feature and the illumination equation parameter is represented by a plurality of image feature vectors and a plurality of parameter values respectively associated with the image feature vectors
  • the second step includes selecting a predetermined number of image feature vectors similar to the first image feature vector representing the image features of the first image from the plurality of image feature vectors; and A step of obtaining a distance between each of the image feature vectors and the first image feature vector, and a parameter value corresponding to each of the predetermined number of image feature vectors obtained with respect to the image feature vector. And a step of calculating the original parameter value.
  • the first aspect of the image conversion method is provided.
  • an image feature analysis is performed on the input image, an image feature analysis unit that outputs a first image feature vector representing the image feature of the input image, and a plurality of image feature analysis units. And a plurality of parameter values corresponding to each of the image feature vectors of the illumination equation, and the original parameter value corresponding to the first image feature vector is received by receiving the first image feature vector.
  • a parameter output unit to output, a parameter operation setting unit for determining the operation content of the illumination equation parameter according to the instructed image conversion, and the original parameter value output from the parameter output unit by the parameter operation setting unit. Operate according to the defined operation details and obtain a new parameter value based on the new parameter value output from the parameter operation unit and the parameter operation unit.
  • the parameter output unit includes an image feature vector database that stores the plurality of image feature vectors and an illumination equation parameter database that stores the plurality of parameter values.
  • an image feature analysis unit that performs image feature analysis on an image photographed by the camera and outputs a first image feature vector representing the image feature;
  • An image feature vector database that stores a plurality of image feature vectors together with numbers, identifies an image feature vector similar to the first image feature vector, and outputs the number, and the image feature vector database Provide a portable device that transmits the number output from.
  • a first image analysis is performed on the first image.
  • the value of the illumination equation parameter corresponding to the image feature of the first image obtained in the first step is obtained as the original parameter value.
  • a fourth step of obtaining a new parameter value and a fifth step of generating the second image based on the new parameter value are executed on the computer.
  • FIG. 1 is a block diagram showing an image conversion apparatus according to the first embodiment of the present invention.
  • an image feature analysis unit 101 performs an image feature analysis on an input image ⁇ and generates an input image feature vector IINFV.
  • Multiple image feature vector database 102 The illumination equation parameter database 103 stores a plurality of meter values associated with each image feature vector stored in the image feature vector database 102 for a predetermined illumination equation. is doing. That is, the relationship between image features and lighting equation parameters is prepared. Then, the image feature vector database 102 and the illumination equation parameter database 103 output the value of the illumination equation parameter corresponding to the input image feature vector IINFV as the original parameter value IINLEP.
  • the image feature vector database 102 and the illumination equation parameter database 103 constitute a parameter output unit 10.
  • the image conversion instruction unit 105 outputs, for example, the contents of image conversion instructed by an external force as an image conversion instruction signal ICIS.
  • the parameter operation setting unit 106 determines the operation content of the illumination equation parameter according to the image conversion instructed by the image conversion instruction signal ICI S, and outputs this as the parameter operation instruction signal LEPS.
  • the parameter operation unit 104 operates the original parameter value ⁇ LEP according to the operation content instructed by the parameter operation instruction signal LEPS, and generates a new parameter value IOUTLEP.
  • the image generation unit 107 calculates an illumination equation using the new parameter value IOUTLEP and generates an output image IOUT.
  • the input image ⁇ ⁇ ⁇ as the first image is converted into an output image IOUT as the second image by the parameter conversion of the illumination equation.
  • Equation 1 ⁇ + ( ⁇ L) do ⁇ k + k sPs )
  • Iv is the luminance in the viewpoint direction (viewpoint vector V)
  • la is the luminance of the ambient light
  • a is the reflectance of the ambient light
  • Ii is the luminance of the illumination
  • vector N is the surface normal vector
  • vector L is Dco is the solid angle of illumination
  • pd is the reflectance of the diffuse reflection component
  • kd and ks are the ratio of the diffuse reflection component and the specular reflection component
  • kd + ks l relationship.
  • Ambient light is light that enters the current point of interest P on the object surface SF through multiple reflections, etc., from the periphery, and has a brightness Iv in the viewpoint direction (vector V). It hits the component.
  • the illumination equation parameter database 103 in FIG. 1 the surface normal vector N, illumination vector L, diffuse reflection component ratio kd, diffuse reflection component reflectance pd, specular reflection component reflectance ps, environment Seven types of light intensity Ia and ambient light reflectance pa are set. Note that the definitions of the illumination equations and the types of parameters according to the present invention are not limited to those shown here, and any illumination equations and parameters can be applied.
  • FIG. 3 is a flowchart showing an operation of the image conversion apparatus of FIG. 1, ie, an image conversion method according to the present embodiment. Note that the image conversion method according to the present embodiment can be realized by causing a computer to execute a program for realizing the method.
  • step S1 the image feature analysis unit 101 performs image feature analysis on the input image ⁇ ⁇ ⁇ as the first image.
  • the image feature analysis here is performed using spatial frequency analysis such as wavelet transform as shown in Fig. 4, for example.
  • the image features are represented by multiple resolution expressions.
  • the wavelet transform outputs HL, LH, HH, and LL are obtained for each of the n scalings, and these are combined for each layer, thereby obtaining the (3n + l) -dimensional vector as the first one. It is obtained as an input image feature vector IINFV as an image feature vector. Since the image feature vector IINFV is required for each pixel, the LL image is made the same size in each scale.
  • step S2 the image feature vector database 102 and the illumination equation parameter database 103 obtained by learning in advance are referred to.
  • the input image feature vector IINFV obtained in step S1 is used to determine the corresponding illumination equation parameter.
  • the value is obtained as the original parameter value IINLEP.
  • the image feature vector database 102 selects the image feature vector that is closest to the input image feature vector IINFV from the stored q image feature vectors, and sets the number of the selected image feature vector. Output as input image feature vector number IINFVN.
  • the illumination equation parameter database 103 receives the input image feature vector number IINFVN, reads the corresponding parameter value, and outputs it as the original parameter value IINLEP.
  • step S3 the parameter operation setting unit 106 determines the operation content of the illumination equation parameter in accordance with the instructed image conversion.
  • the parameter operation unit 104 force operates the original parameter value IINLEP obtained in step S2 in accordance with the operation content determined in step S3, and obtains a new parameter value IOUTLEP.
  • Fig. 5 is a diagram showing an example of parameter operation, in which the original parameter value IINLEP and the new parameter value IOUTLEP are written and arranged for each pixel for one line.
  • the seven parameters described above are defined for each pixel, and three of the ambient light luminance Ia, the ambient light reflectance pa, and the illumination vector L are common to each pixel. Since the diffuse reflection component ratio kd, the diffuse reflection component reflectance p d and the specular reflection component reflectance p s depend on the material of the object, a suffix indicating the type of material is attached.
  • the first subscript indicates the type of material, and the second subscript indicates the difference in pixels within the same material.
  • the parameter operation setting unit 106 converts “image enlargement with double magnification” and ⁇ ⁇ image conversion to “double density of surface normal vector N” t ⁇ ⁇ parameter operation,
  • the instruction signal LEPS is given to the parameter operation unit 104.
  • the norameter operation unit 104 doubles the surface normal vector N twice.
  • the number of pixels in the original parameter value IINLEP u force The number of pixels in the new parameter value IOUTLEP is 2u.
  • New parameter value IOUTLEP surface normal In vector N the third subscript is used to represent the difference in pixels after densification.
  • the boundary of the material for example, between pixel 2 and pixel 3 in the original parameter value IINLEP
  • the image enlargement is explained by increasing the density of the surface normal vector N.
  • this is an example, and the present invention does not limit the illumination equation parameters to be operated and the operation method thereof.
  • Arbitrary parameter operations such as increasing the density of the diffuse reflection component ratio kd or increasing the density of the surface normal vector N and the diffuse reflection component ratio kd are possible.
  • step S5 the image generation unit 107 generates an output image IOUT as a second image based on the new parameter value IOUTLEP obtained in step S4.
  • the image feature vector is associated with the illumination equation parameters by using the image created from the illumination equation for learning the image feature vector.
  • the learning image IL can be generated by a computer using an illumination equation, so that it is not necessary to shoot with the real object for generating the learning image. Therefore, the processing is simplified and various learning images can be easily prepared.
  • an appropriate illumination equation parameter can be acquired. Therefore, when generating the learning image IL, it is desirable to set the illumination equation parameters assuming the conditions when the input image ⁇ was taken. For example, when the shooting location of the input image ⁇ ⁇ can be limited, and as a result, the illumination position can be limited, the illumination scale L uses the data when the input image ⁇ was taken.
  • image enlargement has been described as an example of image conversion.
  • the present invention is not limited to this, and parameter operations can be similarly performed for other image conversions. For example, if you want to change the illumination direction, you can change the illumination vector L, and if you want to change the ratio of the diffuse reflection component to the specular reflection component, change the diffuse reflection component ratio kd.
  • G mm ⁇ 1, — ⁇ - ⁇ —, ——— L , — ⁇ ⁇ —, 1
  • vector H is an intermediate vector between viewpoint vector V and illumination vector L
  • represents an angle between intermediate vector ⁇ and surface normal vector ⁇
  • m is a coefficient representing the roughness of the surface of the object.
  • 8 is small, that is, the surface normal vector N shows strong reflection
  • 8 is large, that is, the surface.
  • the reflection distribution also spreads away from the normal vector N.
  • G is the geometric attenuation factor, and represents the effect of shading due to the unevenness of the object surface.
  • n is a refractive index.
  • the illumination equation can be arbitrarily defined and is not limited to (Equation 1) or (Equation 2).
  • the illumination equation parameter corresponding to the image feature vector closest to the image feature vector IINFV is acquired as the original parameter value IINLEP.
  • the method for acquiring the original parameter value IINLEP is as follows. It is not limited to. For example, as shown in FIG. That is, first, a predetermined number (three in FIG. 8) of image feature vectors similar to the input image feature vector IINFV are selected. For each selected image feature vector, the distance from the input image feature vector IINFV is obtained, and a weighting coefficient IINFVWF corresponding to this distance is determined.
  • FIG. 9 is a diagram showing a first configuration example, which is an example of a configuration for performing image conversion according to the present invention using a personal computer.
  • a first configuration example which is an example of a configuration for performing image conversion according to the present invention using a personal computer.
  • an enlarged image is created by an image conversion program loaded into the main memory 23.
  • the low resolution image captured by the camera 21 is recorded in the image memory 24.
  • An image feature vector database 102 and an illumination equation parameter database 103 are prepared in advance in the external recording device 25, and can be referred to by an image conversion program module in the main memory 23.
  • the operation of the image conversion program, the contents of the image feature vector database 102 and the illumination equation parameter database 103, the creation method, and the like are as described in the first embodiment.
  • the image conversion program in the main memory 23 reads the low-resolution image in the image memory 24 via the memory bus 26, converts it into a high-resolution image in accordance with the resolution of the display 22, and then the video memory via the memory bus 26 again. Forward to 27.
  • the high resolution image transferred to the video memory 27 can be observed on the display 22.
  • the present invention can take various configurations other than the configuration shown in FIG.
  • the low resolution image may be acquired via the network 28.
  • FIG. 10 is a diagram showing a second configuration example, which is an example of a configuration for performing image conversion according to the present invention using a server client system.
  • the resolution of the camera 31 is lower than that of the display 32.
  • image conversion is executed in the server client system.
  • the image feature analysis unit 101, the image feature vector database 102, and the illumination equation equation parameter database 103 also calculate the input image repulsive force as the original parameter value IINLEP.
  • the parameter output unit 10 is configured by the source 103.
  • an image conversion instruction (image enlargement in this example) is passed from the image conversion instruction unit 105 of the client 34 to the parameter operation setting unit 106 of the server 33 as an image conversion instruction signal ICIS.
  • the parameter operation setting unit 106 replaces the content of the image conversion by the image conversion instruction signal ICIS with the operation content of the illumination equation parameter, and outputs it to the parameter operation unit 104 as the parameter operation instruction signal LEPS.
  • the parameter operation unit 104 operates the original parameter value IINLEP to generate a new parameter value IOUTLEP.
  • the server 33 can provide the client 34 with the new parameter value IOUTLEP according to the image conversion instruction from the client 34 via the network 35.
  • the image generation unit 107 generates an enlarged image and supplies it to the display 32.
  • the present invention is not limited to the configuration shown in FIG. 10, and the position of each means on the system (the force belonging to the force client 34 belonging to the server 33, or otherwise). Whether it belongs or not) is arbitrary.
  • FIG. 11 is a diagram showing a third configuration example, which is an example of a configuration for performing image processing according to the present invention using a camera-equipped mobile phone and a television.
  • a camera-equipped mobile phone 41 as a portable device can send image data to the television 44 via the network 42 or the memory card 43.
  • the camera 45 of the camera-equipped mobile phone 41 has a resolution lower than that of the television 44.
  • the image is converted by the image conversion device according to the present invention installed in the internal circuit of the television 44. Perform magnification.
  • the camera-equipped mobile phone 41 has the image feature vector database 102
  • the television 44 has the illumination equation parameter database. It can be so. As a result, usage fees can be kept low, and damage from eavesdropping can be minimized.
  • the camera-equipped mobile phone 41 performs image feature analysis on the camera 45 and the image ⁇ taken by the camera 45, and outputs the first image feature vector IINFV.
  • the image feature vector database that identifies the image feature vector similar to the first image feature vector IINFV and outputs its number IINFVN. 102 is shown.
  • the present invention can take various configurations other than the configuration shown in FIG.
  • the camera-equipped mobile phone 41 may be a digital still camera or a video movie camera.
  • the present invention can be executed on a wide variety of video devices such as personal computers, server client systems, camera-equipped mobile phones, digital still cameras, video movie cameras, and televisions that are widely used. No special equipment, operation or management is required. It should be noted that the device connection form and the internal configuration of the device, such as mounting on dedicated hardware or a combination of software and hardware, are not constrained.
  • various image conversions such as enlargement / reduction, illumination conversion, viewpoint conversion, and change of the ratio of the diffuse Z specular reflection component can be freely performed.
  • image conversions such as enlargement / reduction, illumination conversion, viewpoint conversion, and change of the ratio of the diffuse Z specular reflection component
  • sports, sightseeing, commemorative photography, etc. It can be used in the field of video entertainment that records these scenes as video.
  • it can be used to provide a highly flexible digital archiving system that is not limited by subject or shooting location.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 画像特徴解析部(101)は入力画像(IIN)について画像特徴解析を行い、画像特徴ベクトル(IINFV)を出力する。パラメータ出力部(10)は複数の画像特徴ベクトルと、これらにそれぞれ対応する照明方程式の複数のパラメータ値とを格納しており、画像特徴ベクトル(IINFV)に対応する原パラメータ値(IINLEP)を出力する。パラメータ操作設定部(106)は指示された画像変換に応じてパラメータ操作内容を定め、パラメータ操作部(104)は原パラメータ値(IINLEP)をパラメータ操作設定部(106)の指示に従って操作し、新パラメータ値(IOUTLEP)を得る。画像生成部(107)は新パラメータ値(IOUTLEP)を基にして、出力画像(IOUT)を生成する。

Description

明 細 書
画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器 およびプログラム
技術分野
[0001] 本発明は、画像処理技術に関するものであり、特に、画像拡大や照明変換、視点 変換などの画像変換を実現する技術に関する。
背景技術
[0002] 画像機器とネットワークのデジタルィ匕により、種類の異なる画像機器同士が容易に 接続可能になっており、画像交換の自由度が高まっている。例えば、デジタルスチル カメラで撮影した画像を、プリンタに出力したり、ネットワーク上で公開したり、家庭の テレビで鑑賞したり、というように、利用者がシステムの違いに制約を受けることなく自 由に画像を扱える環境が整備されてきた。
[0003] 一方、このような環境を実現するために、システム側は様々な画像フォーマットに対 応する必要に迫られており、高度な画像フォーマット変換が求められている。例えば 、頻繁に発生する画像サイズ変換に対応するためには、アップコンバータ (画素数、 ライン数を増やす変換装置)やダウンコンバータ (画素数、ライン数を減らす変換装置 )が必要になる。例えば A4用紙(297mm X 210mm)に 600dpiの解像度で印刷す る場合、 7128画素 X 5040ラインのデータが必要になる力 多くのデジタルスチルカ メラの解像度はこれを下回るため、アップコンバータが必要になる。また、ネットワーク 上に公開された画像は、出力デバイスが決まるたびに、対応する画像サイズへの変 換を必要とする。家庭用テレビに関しては、デジタル地上波のサービスが開始された ため、従来の標準テレビと HD (High Definition)テレビとが混在し、このため、画 像サイズ変換が頻繁に行われる。
[0004] 画像を拡大するためには、取得時には存在しな力 た画像データを新たに作り出 す必要があるが、これにはすでに様々な方法が提案されている。例えば、バイリニア 法、ノ ィキュービック法などの内挿を用いる方法が、一般的である (非特許文献 1)。と ころが、内挿を用いた場合、サンプリングデータの中間的な値しか生成できないため 、エッジなどの先鋭度が劣化し、ぼけた画像になる傾向がある。そこで、初期拡大画 像として内挿画像を用い、その後、エッジ部を抽出して、エッジのみを強調する技術 が開示されている (特許文献 1、非特許文献 2)。しかし、エッジ部とノイズの切り分け が難しぐエッジ部の強調とともに、ノイズも強調されて画質劣化を招く傾向がある。
[0005] そこで、画質劣化を抑えつつ画像拡大を行う方法として、学習方式がある。すなわ ち、拡大画像に相当する高解像度画像を高精細カメラ等によって予め撮影し、この 高解像度画像から低解像度画像を作成する。低解像度画像の生成は、通常、ロー パスフィルタを通してサブサンプリングする方法によって行う。このような低解像度画 像と高解像度画像の組を多数準備し、その関係を画像拡大方法として学習する。し たがって、学習方式では、上述したような強調処理は存在せず、このため、比較的画 質劣化の少な ヽ画像拡大を実現できる。
[0006] 学習方式の例としては、例えば、隣接画素との輝度値の関係がマルコフ過程で決 まるとして、統計的手法で学習を行う技術が開示されている (非特許文献 3)。また、 低解像度から高解像度への変換対で画素ごとに特徴ベクトルを求め、入力画素の特 徴ベクトルとの一致度と周辺との一貫性から、拡大画像を生成する技術が開示されて いる (非特許文献 4)。
[0007] また学習方式は、画像拡大だけでなぐ例えば照明方向の変換などにも活用され ている(非特許文献 5)。非特許文献 5では、テクスチャ (物体表面の凹凸や模様など のこと)の異なる複数の物体に異なる複数の方向から照明をあてて、学習データを作 成し、テクスチャ感を保ちながら照明方向を変換する技術が開示されている。
特許文献 1 :米国特許第 5, 717, 789号 (図 5)
非特許文献 1 :荒屋真ニ著, 「明解 3次元コンピュータグラフィックス」,共立出版, 2 003年 9月 25日, pp. 144- 145
非特許文献 2 :中静真ら、「多重スケール輝度こう配平面における画像高解像度化」、 電子情報通信学会論文誌 D—Π Vol. J81 -D-II No. 10 pp. 2249— 2258 , 1998年 10月
非特干文献 3 : Freemanら、「Learnmg Low— Level VisionJ、 International J ournal of Computer Vision 40 (1) , pp. 25—47, 2000年 非特許文献 4:Hertzmannら、「Image Analogies] , SIGGRAPH 2001 予稿 集, pp. 327- 340, 2001年
非特許文献 5 : Malikら、「Representing and Recognizing the Visual Appe arance of Materials using Three― dimensional TextonsJ、 Interna tion al Journal of Computer Vision 43 (1) , pp. 29—44, 2001年
発明の開示
発明が解決しょうとする課題
[0008] ところが、従来の技術では、次のような問題があった。
[0009] 上述したような学習方式では、拡大画像は学習に用いた画像群の中から選ばれる ため、拡大方法は、学習データに依存してしまうという問題がある。また、画像拡大だ けでなぐ照明方向の変換などその他の画像変換でも、同様の問題が生じる。
[0010] また、低解像度画像と高解像度画像を多数準備する必要があるため、学習を行う 前処理に工数力かかりすぎるという問題もある。さらに、学習時の画像データは実際 に撮影した画像力 作成する必要があるので、画像データに自ずと偏りが生じる可能 性があり、このことは自由度の高い画像変換を行うためには好ましくない。
[0011] 前記の問題に鑑み、本発明は、学習方式を用いた画像変換において、従来よりも 画像変換の自由度を高めることを課題とする。
課題を解決するための手段
[0012] 本発明では、第 1の画像について画像特徴解析を行い、この第 1の画像の画像特 徴から、画像特徴と照明方程式パラメータとの関係を参照して、これに対応する照明 方程式パラメータの値を、原パラメータ値として取得する。また、指示された画像変換 に応じて、照明方程式パラメータの操作内容を定める。そして、このパラメータ操作内 容に従って原パラメータ値を操作し、新パラメータ値を得る。そして、この新パラメータ 値を基にして、画像変換後の第 2の画像を生成する。
[0013] この発明によると、第 1の画像の画像特徴に対応する照明方程式パラメータの値が 原パラメータ値として取得され、この原パラメータ値を、指示された画像変換に応じた 操作内容に従って操作することによって、新パラメータ値が得られる。そして、この新 ノ メータ値から、第 2の画像が生成される。すなわち、画像変換が、照明方程式の ノ メータ変換によって実現されるので、学習時の画像データによって制約を受ける ことがなぐ従来よりも自由度の高い画像変換が可能となる。例えば、画像拡大の場 合は、照明方程式のパラメータのうち、物体の形状情報を表わす表面法線ベクトルを 高密化すればよい。この場合、任意の拡大倍率を設定することができる。また、照明 方向の変換の場合は、照明方向を表わす照明ベクトルを変更すればよい。その他、 視点方向の変換なども、照明方程式パラメータを操作することによって、容易に実現 することができる。また、従来技術では、画像変換の種類だけ学習画像が必要であつ たが、これに対して本発明は照明方程式のパラメータ操作によって画像変換を行うた め、学習画像数を抑えることができる。
[0014] また、本発明では、画像特徴と照明方程式パラメータとの関係を学習する前処理に おいて、照明方程式パラメータの値を設定し、設定したパラメータ値力も学習画像を 生成し、学習画像について画像特徴解析を行って得た画像特徴を、元のパラメータ 値と対応付けて、データベースに保存するのが好ま 、。
[0015] これにより、前処理において、学習画像は照明方程式を用いて計算機によって生 成が可能であるので、学習画像生成のために実物を用いた撮影を必要としない。し たがって、処理が簡易になるとともに、多様な学習画像を容易に準備することができ る。
発明の効果
[0016] 本発明によると、画像変換が照明方程式のパラメータ変換によって実現されるので 、自由度の高い画像変換が可能になる。また、学習画像数を抑えることもできる。さら に、前処理において、多様な学習画像を容易に準備することができる。
図面の簡単な説明
[0017] [図 1]図 1は本発明の第 1の実施形態に係る画像変換装置を示すブロック図である。
[図 2]図 2は照明方程式の幾何条件と光学条件を説明するための図である。
[図 3]図 3は本発明の第 1の実施形態に係る画像変換方法を示すフローチャートであ る。
[図 4]図 4はウェーブレット変換を用いた画像特徴解析を表す図である。
[図 5]図 5は画像変換を行うためのパラメータ操作の一例を示す図である。 圆 6]図 6は画像特徴と照明方程式パラメータとの関係を学習する方法を示す図であ る。
圆 7]図 7は照明方程式の幾何条件と光学条件を説明するための図である。
[図 8]図 8は画像特徴に応じたパラメータ取得の他の方法を示す図である。
圆 9]図 9は本発明を実現する第 1の構成例であり、パーソナルコンピュータを用いた 構成を示す図である。
圆 10]図 10は本発明を実現する第 2の構成例であり、サーバークライアントシステム を用いた構成を示す図である。
[図 11]図 11は本発明を実現する第 3の構成例であり、カメラ付携帯電話とテレビを用 いた構成を示す図である。
符号の説明
10 パラメータ出力部
33 サーバー
34 クライアント
41 カメラ付携帯電話 (携帯機器)
45 カメラ
101 画像特徴解析部
102 画像特徴ベクトルデータベース
103 照明方程式パラメータデータベース
104 パラメータ操作部
105 画像変換指示部
106 パラメータ操作設定部
107 画像生成部
ΠΝ 入力画像 (第 1の画像)
IINFV 入力画像特徴ベクトル (第 1の画像特徴ベクトル)
IINFVN 入力画像特徴ベクトル番号
IINLEP 原パラメータ値
ICIS 画像変換指示信号 LEPS パラメータ操作指示信号
IOUTLEP 新パラメータ値
IOUT 出力画像 (第 2の画像)
LEP1 第 1のパラメータ値
IL 学習画像
発明を実施するための最良の形態
[0019] 本発明の第 1態様では、第 1の画像を第 2の画像に変換する方法として、前記第 1 の画像にっ 、て画像特徴解析を行う第 1のステップと、画像特徴と照明方程式パラメ ータとの関係を参照し、前記第 1のステップにお 、て得た前記第 1の画像の画像特徴 から、これに対応する照明方程式パラメータの値を原パラメータ値として取得する第 2 のステップと、指示された画像変換に応じて照明方程式パラメータの操作内容を定め る第 3のステップと、前記原パラメータ値を前記第 3のステップにお 、て定めた操作内 容に従って操作し、新パラメータ値を得る第 4のステップと、前記新パラメータ値を基 にして前記第 2の画像を生成する第 5のステップとを備えたものを提供する。
[0020] 本発明の第 2態様では、前記第 1のステップにおける画像特徴解析は、空間周波 数解析を用いて行うものである第 1態様の画像変換方法を提供する。
[0021] 本発明の第 3態様では、画像特徴と照明方程式パラメータとの関係を学習する前 処理を備え、前記前処理は、照明方程式パラメータの値として第 1のパラメータ値を 設定するステップと、前記第 1のパラメータ値から学習画像を生成するステップと、前 記学習画像について、前記第 1のステップと実質的に同等の画像特徴解析を行うス テツプとを備え、得られた画像特徴を前記第 1のパラメータ値と対応付けてデータべ ースに保存する第 1態様の画像変換方法を提供する。
[0022] 本発明の第 4態様では、前記第 1のパラメータ値は、前記第 1の画像が撮影された 際の照明方程式パラメータを想定して設定される第 3態様の画像変換方法を提供す る。
[0023] 本発明の第 5態様では、前記照明方程式は、視点方向の輝度を、拡散反射成分、 鏡面反射成分および環境光成分の和によって表わすものである第 1態様の画像変 換方法を提供する。 [0024] 本発明の第 6態様では、前記照明方程式パラメータは、表面法線ベクトル、照明べ タトル、拡散反射成分と鏡面反射成分との比率、拡散反射成分の反射率、および鏡 面反射成分の反射率のうち、少なくとも 1つを含む第 1態様の画像変換方法を提供 する。
[0025] 本発明の第 7態様では、前記第 3のステップは、指示された画像変換が画像拡大で あるとき、照明方程式パラメータの操作内容として表面法線ベクトル、照明ベクトル、 拡散反射成分と鏡面反射成分との比率、拡散反射成分の反射率、および鏡面反射 成分の反射率のうち、少なくとも 1つの高密化を定めるものである第 1態様の画像変 換方法を提供する。
[0026] 本発明の第 8態様では、画像特徴と照明方程式パラメータとの関係は、複数の画像 特徴ベクトルと各画像特徴ベクトルとそれぞれ対応付けられた複数のパラメータ値と によって表されており、前記第 2のステップは、前記複数の画像特徴ベクトルの中から 前記第 1の画像の画像特徴を表す第 1の画像特徴ベクトルと類似する所定数の画像 特徴ベクトルを選択するステップと、前記所定数の画像特徴ベクトルについて、前記 第 1の画像特徴ベクトルとの距離をそれぞれ求めるステップと、前記所定数の画像特 徴ベクトルにそれぞれ対応するパラメータ値を当該画像特徴ベクトルについて求めた 前記距離に応じて重み付け加算し、前記原パラメータ値を算出するステップとを備え たものである第 1態様の画像変換方法を提供する。
[0027] 本発明の第 9態様では、入力画像につ!ヽて画像特徴解析を行!ヽ、前記入力画像 の画像特徴を表す第 1の画像特徴ベクトルを出力する画像特徴解析部と、複数の画 像特徴ベクトルと、照明方程式の,前記各画像特徴ベクトルとそれぞれ対応する複数 のパラメータ値とを格納しており、前記第 1の画像特徴ベクトルを受けて、これに対応 する原パラメータ値を出力するパラメータ出力部と、指示された画像変換に応じて照 明方程式パラメータの操作内容を定めるパラメータ操作設定部と、前記パラメータ出 力部から出力された前記原パラメータ値を前記パラメータ操作設定部によって定めら れた操作内容に従って操作し、新パラメータ値を得るパラメータ操作部と、前記パラメ ータ操作部カゝら出力された新パラメータ値を基にして出力画像を生成する画像生成 部とを備えた画像変換装置を提供する。 [0028] 本発明の第 10態様では、前記パラメータ出力部は、前記複数の画像特徴ベクトル を格納する画像特徴ベクトルデータベースと、前記複数のパラメータ値を格納する照 明方程式パラメータデータベースとを備えたものである第 9態様の画像変換装置を提 供する。
[0029] 本発明の第 11態様では、画像変換を行うサーバークライアントシステムとして、第 9 態様の画像特徴解析部、パラメータ出力部、ノ メータ操作設定部およびパラメータ 操作部を有するサーバと、第 9態様の画像生成部を有するクライアントとを備え、前記 クライアントは、前記サーバに画像変換の内容を指示するものを提供する。
[0030] 本発明の第 12態様では、カメラと、前記カメラによって撮影された画像について画 像特徴解析を行 ヽ、その画像特徴を表す第 1の画像特徴ベクトルを出力する画像特 徴解析部と、複数の画像特徴ベクトルを番号とともに格納しており、前記第 1の画像 特徴ベクトルと類似する画像特徴ベクトルを特定し、その番号を出力する画像特徴べ タトルデータベースとを備え、前記画像特徴ベクトルデータベースから出力された番 号を送信する携帯機器を提供する。
[0031] 本発明の第 13態様では、コンピュータに、第 1の画像を第 2の画像に変換する方法 をコンピュータに実行させるプログラムとして、前記第 1の画像について画像特徴解 析を行う第 1のステップと、画像特徴と照明方程式パラメータとの関係を参照し、前記 第 1のステップにおいて得た前記第 1の画像の画像特徴から、これに対応する照明 方程式パラメータの値を、原パラメータ値として取得する第 2のステップと、指示され た画像変換に応じて、照明方程式パラメータの操作内容を定める第 3のステップと、 前記原パラメータ値を、前記第 3のステップにおいて定めた操作内容に従って操作し 、新パラメータ値を得る第 4のステップと、前記新パラメータ値を基にして、前記第 2の 画像を生成する第 5のステップとをコンピュータに実行させるものを提供する。
[0032] 以下、本発明の実施の形態について、図面を参照して説明する。
[0033] (第 1の実施形態)
図 1は本発明の第 1の実施形態に係る画像変換装置を示すブロック図である。図 1 において、画像特徴解析部 101は入力画像 ΠΝについて画像特徴解析を行い、入 力画像特徴べクトル IINFVを生成する。画像特徴べクトルデータベース 102は複数 の画像特徴ベクトルを格納しており、照明方程式パラメータデータベース 103は所定 の照明方程式の、画像特徴ベクトルデータベース 102に格納された各画像特徴べク トルとそれぞれ対応付けられた複数のノ メータ値を格納している。すなわち、画像 特徴と照明方程式パラメータとの関係が、準備されている。そして、画像特徴ベクトル データベース 102および照明方程式パラメータデータベース 103は、入力画像特徴 ベクトル IINFVに対応する照明方程式パラメータの値を、原パラメータ値 IINLEPと して出力する。画像特徴ベクトルデータベース 102および照明方程式パラメータデー タベース 103によって、パラメータ出力部 10が構成されている。
[0034] 画像変換指示部 105は例えば外部力も指示された画像変換の内容を、画像変換 指示信号 ICISとして出力する。パラメータ操作設定部 106は画像変換指示信号 ICI Sによって指示された画像変換に応じて、照明方程式パラメータの操作内容を定め、 これをパラメータ操作指示信号 LEPSとして出力する。パラメータ操作部 104はパラメ ータ操作指示信号 LEPSによって指示された操作内容に従って、原パラメータ値 ΠΝ LEPを操作し、新パラメータ値 IOUTLEPを生成する。画像生成部 107は新パラメ ータ値 IOUTLEPを用いて照明方程式を演算し、出力画像 IOUTを生成する。
[0035] すなわち、第 1の画像としての入力画像 ΠΝが、照明方程式のパラメータ変換によつ て、第 2の画像としての出力画像 IOUTに画像変換される。
[0036] ここでは、図 2のような幾何条件と光学条件を想定して、次のような照明方程式を用 いる。
[数 1] = Α + ( · L) do^k + ksPs )
[0037] ここで、 Ivは視点方向(視点ベクトル V)の輝度、 laは環境光の輝度、 aは環境光 の反射率、 Iiは照明の輝度、ベクトル Nは表面法線ベクトル、ベクトル Lは照明方向を 表わす照明ベクトル、 d coは照明の立体角、 p dは拡散反射成分の反射率、 は鏡 面反射成分の反射率、 kdと ksは拡散反射成分と鏡面反射成分の割合を表わし、 kd + ks= lの関係を持つ。環境光とは、物体表面 SF上の現在の注目点 Pに多重反射 等で周辺から回り込んで入射する光であり、視点方向(ベクトル V)の輝度 Ivのバイァ ス成分に当たる。注目点 Pに放射照度
[数 1A]
I ·ΐ (ίω で照明から光が入射し、拡散反射成分が kd p d、鏡面反射成分が ks p sの割合で、 それぞれ入射光を反射する。
[0038] 図 1の照明方程式パラメータデータベース 103では、ノ ラメータとして、表面法線べ タトル N、照明ベクトル L、拡散反射成分比率 kd、拡散反射成分反射率 p d、鏡面反 射成分反射率 p s、環境光輝度 Ia、および環境光反射率 p aの 7種類が設定されて いる。なお、本発明に係る照明方程式の定義およびパラメータの種類は、ここで示し たものに限られるものではなぐ任意の照明方程式やパラメータが適用可能である。
[0039] 図 3は図 1の画像変換装置の動作、すなわち本実施形態に係る画像変換方法を示 すフローチャートである。なお、本実施形態に係る画像変換方法は、当該方法を実 現するためのプログラムをコンピュータに実行させることによって、実現することができ る。
[0040] まず、前処理 SOOにおいて、画像特徴と照明方程式パラメータとの関係を学習する 。この前処理 SOOの詳細については後述する。ここでは、予め学習により、図 1に示 すような画像特徴ベクトルデータベース 102および照明方程式パラメータデータべ一 ス 103が得られているものとする。
[0041] ステップ S1において、第 1の画像としての入力画像 ΠΝについて、画像特徴解析部 101が画像特徴解析を行う。ここでの画像特徴解析は、例えば図 4に示すようなゥェ 一ブレット変換などの空間周波数解析を用いて行う。このとき、画像特徴は多重解像 度表現によって表される。図 4の例では、 n回のスケーリングそれぞれにおいてゥエー ブレット変換の出力 HL、 LH、 HH、 LLを求め、これらを階層ごとに束ねることによつ て、(3n+ l)次元ベクトルを、第 1の画像特徴ベクトルとしての入力画像特徴ベクトル IINFVとして求めている。なお、画像特徴ベクトル IINFVは画素ごとに必要になるた め、各スケールにおいて LL画像が同一サイズになるようにしている。もちろん、本発 明における画像特徴の解析および表現方法はこれに限られるものではなぐ任意の 方法を適用することができる。 [0042] 次にステップ S2において、予め学習により求めた画像特徴ベクトルデータベース 1 02および照明方程式パラメータデータベース 103を参照し、ステップ S1で得た入力 画像特徴ベクトル IINFVから、これに対応する照明方程式パラメータの値を原パラメ ータ値 IINLEPとして取得する。ここでは、まず画像特徴ベクトルデータベース 102が 、格納している q個の画像特徴ベクトルの中から、入力画像特徴ベクトル IINFVに最 も近 、画像特徴ベクトルを選定し、選定した画像特徴ベクトルの番号を入力画像特 徴ベクトル番号 IINFVNとして出力する。そして照明方程式パラメータデータベース 103力 入力画像特徴ベクトル番号 IINFVNを受けて、これに対応するパラメータ値 を読み出し、原パラメータ値 IINLEPとして出力する。
[0043] 次にステップ S3において、パラメータ操作設定部 106が、指示された画像変換に 応じて、照明方程式パラメータの操作内容を定める。そしてステップ S4において、パ ラメータ操作部 104力 ステップ S2で得られた原パラメータ値 IINLEPを、ステップ S 3で定めた操作内容に従って操作し、新パラメータ値 IOUTLEPを得る。
[0044] 図 5はパラメータ操作の一例を示す図であり、原パラメータ値 IINLEPと新パラメ一 タ値 IOUTLEPを 1ライン分、画素ごとに書き並べている。各画素には上述した 7個の パラメータが定められており、環境光輝度 Ia、環境光反射率 p aおよび照明ベクトル L の 3つは各画素で共通である。拡散反射成分比率 kd、拡散反射成分反射率 p dおよ び鏡面反射成分反射率 p sは物体の材質に依存するため、材質の種類を示す添字 を付している。また、原パラメータ値 IINLEPの表面法線ベクトル Nについても、第 1 の添字は材質の種類を示し、第 2の添字は同一材質内での画素の違いを示している
[0045] いま、画像変換指示信号 ICISによって、「拡大率 2倍の画像拡大」という画像変換 が指示されたものとする。このときパラメータ操作設定部 106は、「拡大率 2倍の画像 拡大」と ヽぅ画像変換を「表面法線ベクトル Nの 2倍高密ィ匕」 t ヽぅパラメータ操作に変 換し、ノ メータ操作指示信号 LEPSとしてパラメータ操作部 104に与える。
[0046] ノラメータ操作部 104はパラメータ操作指示信号 LEPSに従って、表面法線べタト ル Nを 2倍に高密化する。すなわち、原パラメータ値 IINLEPの画素数 u力 新パラメ ータ値 IOUTLEPでは画素数が 2uになる。新パラメータ値 IOUTLEPの表面法線 ベクトル Nでは、高密化後の画素の違いを表わすため、第 3の添字をカ卩えている。こ のとき、材質の境界 (例えば原パラメータ値 IINLEPにおける画素 2と画素 3の間)は エッジ部となる可能性が高 、ので、高密化後もこの境界条件を保持するのが望まし い。具体的には、新パラメータ値 IOUTLEPの画素 4と画素 5を、それぞれ原パラメ一 タ値 IINLEPの画素 2と画素 3に一致させる。すなわち、境界条件の保持のために、 N =N かつ N =N
1,2 1,2,2 2,1 2,1,1
とする。なお、図 5では、画像拡大を表面法線ベクトル Nの高密化で説明したが、これ は一例であり、本発明は操作すべき照明方程式パラメータやその操作方法を限定す るものではなぐ例えば、拡散反射成分比率 kdを高密化したり、表面法線ベクトル N と拡散反射成分比率 kdを併せて高密化するなど、任意のパラメータ操作が可能であ る。
[0047] そして、ステップ S5にお 、て、画像生成部 107が、ステップ S4で得られた新パラメ ータ値 IOUTLEPを基にして、第 2の画像としての出力画像 IOUTを生成する。
[0048] ここで、前処理 SOOの詳細について、図 6を参照して説明する。ここでは、照明方程 式から作成した画像を画像特徴ベクトルの学習に用いることによって、画像特徴べク トルと照明方程式パラメータとの関連付けを行う。
[0049] 具体的には、まず、照明方程式パラメータの値として、第 1のパラメータ値 LEP1 (番 号 1)を設定する。そしてこの第 1のパラメータ値 LEP1を用いて、(数 1)の演算を実 行し、学習画像 ILを生成する。そして生成された学習画像 ILについて、上述のステツ プ S1と実質的に同等の画像特徴解析を行い、画像特徴ベクトル ILFVを得る。この 画像特徴ベクトル ILFVを、画像特徴ベクトルデータベース 102の番号 1に格納する 。これにより、画像特徴ベクトル ILFVと第 1のパラメータ値 LEP1とが対応付けられて データベース 102, 103に保存される。このような処理を繰り返し実行することによつ て、図 1に示すような、画像特徴ベクトルデータベース 102および照明方程式パラメ ータデータベース 103が生成される。なお、図 6では、画像生成部 107が画像生成を 行い、画像特徴解析部 101が画像特徴解析を行っているが、前処理 SOOにおいて 他の手段によって画像生成や画像特徴解析を行うようにしてもょ 、。
[0050] 以上のように本実施形態によると、入力画像 ΠΝの画像特徴ベクトル IINFVから、 入力画像 ΠΝにふさわしい照明方程式のパラメータ IINLEPが選定される。そして、こ のパラメータ IINLEPを操作することによって、様々な出力画像 IOUTを生成すること ができる。したがって、学習時の画像データに制限されず、自由度の高い画像変換 が可能になる。
[0051] また、照明方程式のパラメータ IINLEPを操作して画像変換を行うため、 、たずらに 多くの学習画像を準備する必要がなぐしたがって、学習画像数を抑えることができる 。また、前処理において、学習画像 ILは照明方程式を用いて計算機によって生成す ることが可能であるので、学習画像生成のために実物を用いた撮影を必要としない。 したがって、処理が簡易になるとともに、多様な学習画像を容易に準備することがで きる。なお、学習画像 ILの画像特徴 ILFVが入力画像 ΠΝの画像特徴 IINFVに近い ほど、適切な照明方程式パラメータが取得できる。そこで、学習画像 ILを生成する際 に、入力画像 ΠΝが撮影された際の条件を想定して照明方程式パラメータを設定す ることが望ましい。例えば、入力画像 ΠΝの撮影場所が限定でき、その結果、照明位 置が限定できる場合は、照明べ外ル Lは入力画像 ΠΝが撮影された際のデータを利 用する。
[0052] なお、本実施形態では、画像変換として画像拡大を例にとって説明したが、本発明 はこれに限定されるものではなぐ他の画像変換についても同様にパラメータ操作が 可能である。例えば、照明方向を変更したいときは、照明ベクトル Lを変更すればよ いし、また拡散反射成分と鏡面反射成分の割合を変更したいときは、拡散反射成分 比率 kdを変更すればょ ヽ。
[0053] また、鏡面反射成分反射率 p sは双方向反射率で定義されているため、視線方向 に応じて変化する。そこで、例えば (数 2)で与えられる Cook— Torranceモデルを導 入すれば、照明方程式パラメータに視線ベクトル V、粗さ係数 m、フレネル係数 F を加えることができる。これにより、視点方向の変更、表面粗さの変更などの画像変換 が可能になる。
[数 2] π [N - V) {N - L)
1 -[ /™P
,, . [, 2{~Ν -Ή) ίΝ - ν) 2(N - H) (N - L]
G = mm< 1, — ^ -~— 、—— L, — ^ ~— 、 1
(V - H )
Figure imgf000016_0001
g2 = n2 + c2 - I
L H)
[0054] ここで、図 7に示すように、ベクトル Hは視点ベクトル Vと照明ベクトル Lの中間べタト ルであり、 βは中間ベクトル Ηと表面法線ベクトル Νとの角度を表す。 mは物体表面 の粗さを表わす係数であり、 mが小さいときは角度 |8が小さい部分すなわち表面法 線ベクトル N付近に強い反射を示し、 mが大きいときは角度 |8が大きい部分すなわち 表面法線ベクトル Nから離れた部分にも反射分布が広がる。 Gは幾何減衰率であり、 物体表面の凹凸による遮光の影響を表わす。 nは屈折率である。
[0055] このように、本発明では、照明方程式は任意に定義可能であり、(数 1)や (数 2)に 限定されるものではない。
[0056] また、本実施形態では、画像特徴ベクトル IINFVに最も近 ヽ画像特徴ベクトルに対 応する照明方程式パラメータを原パラメータ値 IINLEPとして取得するものとしたが、 原パラメータ値 IINLEPの取得方法はこれに限られるものではない。例えば図 8に示 すように、取得してもよい。すなわち、まず、入力画像特徴ベクトル IINFVと類似する 所定数(図 8では 3個)の画像特徴ベクトルを選択する。そして、選択した各画像特徴 ベクトルについて、入力画像特徴ベクトル IINFVとの距離をそれぞれ求め、この距離 に応じた重み付け係数 IINFVWFを定める。そして、選択した 3個の画像特徴べタト ルにそれぞれ対応するパラメータ値を、重み付け係数 IINFVWFを用いて重み付け 加算し、その結果を原パラメータ値 IINLEPとして出力する。なお、重み付け加算の 代わりに、選択した所定数の画像特徴ベクトルにそれぞれ対応するパラメータ値につ いて、単に平均をとつても力まわない。
[0057] なお、画像特徴と照明方程式パラメータとの関係は、予め学習されている必然性は なぐ任意の手段によって準備してかまわない。 [0058] 以下、本発明を実現する構成例を例示する。
[0059] (第 1の構成例)
図 9は第 1の構成例を示す図であり、パーソナルコンピュータを用いて本発明に係 る画像変換を行う構成の一例である。カメラ 21の解像度はディスプレイ 22の解像度 よりも低ぐディスプレイ 22の表示能力を最大限に生かすために、メインメモリ 23に口 ードされた画像変換プログラムによって拡大画像を作成する。カメラ 21で取り込まれ た低解像度画像は画像メモリ 24に記録される。外部記録装置 25には予め画像特徴 ベクトルデータベース 102と照明方程式パラメータデータベース 103とが準備されて おり、メインメモリ 23の画像変換プログラムカゝら参照可能になっている。画像変換プロ グラムの動作や画像特徴ベクトルデータベース 102と照明方程式パラメータデータべ ース 103の内容や作成方法等は、第 1の実施形態で説明したとおりである。メインメ モリ 23の画像変換プログラムは、メモリバス 26を介して画像メモリ 24の低解像度画像 を読み込み、これをディスプレイ 22の解像度に合わせて高解像度画像に変換し、再 びメモリバス 26経由でビデオメモリ 27に転送する。ビデオメモリ 27に転送された高解 像度画像はディスプレイ 22において観察できる。
[0060] なお、本発明は図 9の構成に拘束されるものではなぐ様々な構成をとることができ る。例えば、画像特徴ベクトルデータベース 102や照明方程式パラメータデータべ一 ス 103を別のパーソナルコンピュータに接続された外部記憶装置力もネットワーク 28 を介して取得しても力まわない。また低解像度画像は、ネットワーク 28を介して取得し てもかまわない。
[0061] (第 2の構成例)
図 10は第 2の構成例を示す図であり、サーバークライアントシステムを用いて本発 明に係る画像変換を行う構成の一例である。カメラ 31の解像度はディスプレイ 32の 解像度よりも低ぐディスプレイ 32の表示能力を最大限に生かすために、サーバーク ライアントシステムにおいて画像変換を実行する。サーバー 33では、第 1の実施形態 と同様に、画像特徴解析部 101、画像特徴ベクトルデータベース 102および照明方 程式パラメータデータベース 103が、入力画像 ΠΝ力も原パラメータ値 IINLEPを算 出する。画像特徴ベクトルデータベース 102および照明方程式パラメータデータべ ース 103によって、ノ ラメータ出力部 10が構成されている。一方、クライアント 34の画 像変換指示部 105から、画像変換の指示 (本例では画像拡大)が画像変換指示信 号 ICISとしてサーバー 33のパラメータ操作設定部 106に渡される。ノ ラメータ操作 設定部 106は画像変換指示信号 ICISによる画像変換の内容を照明方程式パラメ一 タの操作内容に置き換え、パラメータ操作指示信号 LEPSとしてパラメータ操作部 10 4に出力する。パラメータ操作部 104は原パラメータ値 IINLEPを操作し、新パラメ一 タ値 IOUTLEPを生成する。
[0062] このような動作によって、サーバー 33はクライアント 34からの画像変換指示に従つ た新パラメータ値 IOUTLEPを、ネットワーク 35を介してクライアント 34に提供できる 。新パラメータ値 IOUTLEPを受け取ったクライアント 34では、画像生成部 107が拡 大画像を生成し、ディスプレイ 32に供給する。
[0063] なお、本発明は図 10の構成に拘束されるものではなぐ画像機器の組み合わせや 、各手段のシステム上の位置 (サーバー 33に属する力クライアント 34に属する力、ま たはそれ以外に属するかなど)は、任意である。
[0064] (第 3の構成例)
図 11は第 3の構成例を示す図であり、カメラ付携帯電話とテレビを用 、て本発明に 係る画像処理を行う構成の一例である。携帯機器としてのカメラ付携帯電話 41はネ ットワーク 42またはメモリカード 43を介してテレビ 44に画像データを送ることができる 。カメラ付携帯電話 41のカメラ 45の解像度はテレビ 44の解像度よりも低ぐテレビ 44 の表示能力を最大限に生かすために、テレビ 44の内部回路に実装された本発明に 係る画像変換装置によって画像拡大を実行する。
[0065] 利用料金の面を考えると、カメラ付携帯電話 41からテレビ 44へ送るデータ量は、小 さいほど利用者力も歓迎される。そこで、ネットワーク 42で送信するデータは、入力画 像特徴ベクトル番号 IINFVNとするのが望ましい。また、ネットワーク 42における盗聴 の被害を最小限に抑えるためにも、番号自体には特に意味を持たな 、入力画像特 徴ベクトル番号 IINFVNを送ることが望ましい。すなわち、カメラ付き携帯電話 41が 画像特徴ベクトルデータベース 102を持ち、テレビ 44が照明方程式パラメータデー タベースを持つように構成し、その両方がそろってはじめて所望の画像変換が実現 できるようにする。これにより、利用料金を低く抑えることができるとともに、盗聴の被害 を最小限に抑えることができる。図 11では、カメラ付携帯電話 41が、カメラ 45と、カメ ラ 45によって撮影された画像 ΠΝにつ 、て画像特徴解析を行 、、第 1の画像特徴べ タトル IINFVを出力する画像特徴解析部 101と、格納して!/ヽる複数の画像特徴べタト ルの中力ゝら第 1の画像特徴ベクトル IINFVと類似する画像特徴ベクトルを特定し、そ の番号 IINFVNを出力する画像特徴ベクトルデータベース 102とを備えている構成 を示している。
[0066] なお、本発明は図 11の構成に拘束されるものではなぐ様々な構成を取ることがで きる。例えば、カメラ付携帯電話 41はデジタルスチルカメラやビデオムービーカメラで もあってもかまわない。
[0067] 以上のように本発明は、広く普及しているパーソナルコンピュータや、サーバークラ イアントシステム、または、カメラ付携帯電話やデジタルスチルカメラ、ビデオムービー カメラ、テレビなどビデオ機器全般で実行可能であり、特別な機器、運用、管理など は必要ない。なお、専用ハードウェアへの実装やソフトウェアとハードウェアの組み合 わせなど、機器接続形態や機器内部の構成を拘束するものではな 、。
産業上の利用可能性
[0068] 本発明では、拡大縮小、照明変換、視点変換、拡散 Z鏡面反射成分の比率変更 など、様々な画像変換を自由に実施できるので、例えば、スポーツや観光、記念撮 影など目の前のシーンを映像として記録する映像エンタテイメント分野において利用 することができる。また、文化芸術の分野では、被写体や撮影場所に制限されない自 由度の高いデジタルアーカイブシステムを提供するために利用することができる。

Claims

請求の範囲
[1] 第 1の画像を第 2の画像に変換する方法であって、
前記第 1の画像について、画像特徴解析を行う第 1のステップと、
画像特徴と照明方程式パラメータとの関係を参照し、前記第 1のステップにおいて 得た前記第 1の画像の画像特徴から、これに対応する照明方程式パラメータの値を、 原パラメータ値として取得する第 2のステップと、
指示された画像変換に応じて、照明方程式パラメータの操作内容を定める第 3のス テツプと、
前記原パラメータ値を、前記第 3のステップにおいて定めた操作内容に従って操作 し、新パラメータ値を得る第 4のステップと、
前記新パラメータ値を基にして、前記第 2の画像を生成する第 5のステップとを備え た
ことを特徴とする画像変換方法。
[2] 請求項 1において、
前記第 1のステップにおける画像特徴解析は、空間周波数解析を用いて行うもので ある
ことを特徴とする画像変換方法。
[3] 請求項 1において、
画像特徴と照明方程式パラメータとの関係を学習する前処理を備え、
前記前処理は、
照明方程式パラメータの値として第 1のパラメータ値を設定するステップと、 前記第 1のパラメータ値から、学習画像を生成するステップと、
前記学習画像について、前記第 1のステップと実質的に同等の画像特徴解析を行 うステップとを備え、
得られた画像特徴を前記第 1のパラメータ値と対応付けて、データベースに保存す る
ことを特徴とする画像変換方法。
[4] 請求項 3において、 前記第 1のパラメータ値は、前記第 1の画像が撮影された際の照明方程式パラメ一 タを想定して設定される
ことを特徴とする画像変換方法。
[5] 請求項 1において、
前記照明方程式は、視点方向の輝度を、拡散反射成分、鏡面反射成分および環 境光成分の和によって表わすものである
ことを特徴とする画像変換方法。
[6] 請求項 1において、
前記照明方程式パラメータは、表面法線ベクトル、照明ベクトル、拡散反射成分と 鏡面反射成分との比率、拡散反射成分の反射率、および鏡面反射成分の反射率の うち、少なくとも 1つを含む
ことを特徴とする画像変換方法。
[7] 請求項 1において、
前記第 3のステップは、指示された画像変換が画像拡大であるとき、照明方程式パ ラメータの操作内容として、表面法線ベクトル、照明ベクトル、拡散反射成分と鏡面反 射成分との比率、拡散反射成分の反射率、および鏡面反射成分の反射率のうち、少 なくとも 1つの高密化を、定めるものである
ことを特徴とする画像変換方法。
[8] 請求項 1において、
画像特徴と照明方程式パラメータとの関係は、複数の画像特徴ベクトルと、各画像 特徴ベクトルとそれぞれ対応付けられた複数のパラメータ値とによって、表されており 前記第 2のステップは、
前記複数の画像特徴ベクトルの中から、前記第 1の画像の画像特徴を表す第 1の 画像特徴ベクトルと類似する所定数の画像特徴ベクトルを、選択するステップと、 前記所定数の画像特徴ベクトルにつ ヽて、前記第 1の画像特徴ベクトルとの距離を 、それぞれ求めるステップと、
前記所定数の画像特徴ベクトルにそれぞれ対応するパラメータ値を、当該画像特 徴ベクトルにつ 、て求めた前記距離に応じて重み付け加算し、前記原パラメータ値 を算出するステップとを備えたものである
ことを特徴とする画像変換方法。
[9] 入力画像につ!、て、画像特徴解析を行 ヽ、前記入力画像の画像特徴を表す第 1 の画像特徴ベクトルを出力する画像特徴解析部と、
複数の画像特徴ベクトルと、照明方程式の,前記各画像特徴ベクトルとそれぞれ対 応する複数のパラメータ値とを格納しており、前記第 1の画像特徴ベクトルを受けて、 これに対応する原パラメータ値を出力するパラメータ出力部と、
指示された画像変換に応じて、照明方程式パラメータの操作内容を定めるパラメ一 タ操作設定部と、
前記パラメータ出力部力 出力された前記原パラメータ値を、前記パラメータ操作 設定部によって定められた操作内容に従って操作し、新パラメータ値を得るパラメ一 タ操作部と、
前記パラメータ操作部カゝら出力された新パラメータ値を基にして、出力画像を生成 する画像生成部とを備えた
ことを特徴とする画像変換装置。
[10] 請求項 9において、
前記パラメータ出力部は、
前記複数の画像特徴ベクトルを格納する画像特徴ベクトルデータベースと、 前記複数のパラメータ値を格納する照明方程式パラメータデータベースとを備えた ものである
ことを特徴とする画像変換装置。
[11] 画像変換を行うサーバークライアントシステムであって、
請求項 9の画像特徴解析部、パラメータ出力部、パラメータ操作設定部、およびパ ラメータ操作部を有するサーバと、
請求項 9の画像生成部を有するクライアントとを備え、
前記クライアントは、前記サーバに、画像変換の内容を指示する
ことを特徴とするサーバークライアントシステム。
[12] カメラと、
前記カメラによって撮影された画像について画像特徴解析を行い、その画像特徴 を表す第 1の画像特徴ベクトルを出力する画像特徴解析部と、
複数の画像特徴ベクトルを番号とともに格納しており、前記第 1の画像特徴ベクトル と類似する画像特徴ベクトルを特定し、その番号を出力する画像特徴ベクトルデータ ベースとを備え、
前記画像特徴ベクトルデータベースから出力された番号を、送信する
ことを特徴とする携帯機器。
[13] コンピュータに、第 1の画像を第 2の画像に変換する方法をコンピュータに実行させ るプログラムであって、
前記第 1の画像について、画像特徴解析を行う第 1のステップと、
画像特徴と照明方程式パラメータとの関係を参照し、前記第 1のステップにおいて 得た前記第 1の画像の画像特徴から、これに対応する照明方程式パラメータの値を、 原パラメータ値として取得する第 2のステップと、
指示された画像変換に応じて、照明方程式パラメータの操作内容を定める第 3のス テツプと、
前記原パラメータ値を、前記第 3のステップにおいて定めた操作内容に従って操作 し、新パラメータ値を得る第 4のステップと、
前記新パラメータ値を基にして、前記第 2の画像を生成する第 5のステップとを コンピュータに実行させるプログラム。
PCT/JP2005/016764 2004-09-24 2005-09-12 画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器およびプログラム WO2006033257A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006536346A JPWO2006033257A1 (ja) 2004-09-24 2005-09-12 画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器およびプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-276998 2004-09-24
JP2004276998 2004-09-24

Publications (1)

Publication Number Publication Date
WO2006033257A1 true WO2006033257A1 (ja) 2006-03-30

Family

ID=36090020

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/016764 WO2006033257A1 (ja) 2004-09-24 2005-09-12 画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器およびプログラム

Country Status (2)

Country Link
JP (1) JPWO2006033257A1 (ja)
WO (1) WO2006033257A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007139067A1 (ja) * 2006-05-29 2007-12-06 Panasonic Corporation 画像高解像度化装置、画像高解像度化方法、画像高解像度化プログラムおよび画像高解像度化システム
WO2008026518A1 (fr) * 2006-08-31 2008-03-06 Panasonic Corporation Dispositif, procédé et programme de traitement d'image
US8350932B2 (en) 2008-07-30 2013-01-08 Panasonic Corporation Image generation device and image generation method for generating a high-quality image by using information from a low-quality image
JP2013206436A (ja) * 2012-03-29 2013-10-07 Rakuten Inc 画像検索装置、画像検索方法、プログラムおよびコンピュータ読取り可能な記憶媒体
US9588991B2 (en) 2011-09-16 2017-03-07 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium
US9747305B2 (en) 2012-03-29 2017-08-29 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152907A (ja) * 1993-11-29 1995-06-16 Nec Corp 画像拡大方法及び装置
JPH103548A (ja) * 1996-06-18 1998-01-06 Matsushita Electric Ind Co Ltd 顔画像認識装置
JPH11328422A (ja) * 1998-03-13 1999-11-30 Matsushita Electric Ind Co Ltd 画像識別装置
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
JP2002290607A (ja) * 2001-03-27 2002-10-04 Sanyo Electric Co Ltd 通信端末装置、通信方法及びネットワークシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152907A (ja) * 1993-11-29 1995-06-16 Nec Corp 画像拡大方法及び装置
JPH103548A (ja) * 1996-06-18 1998-01-06 Matsushita Electric Ind Co Ltd 顔画像認識装置
JPH11328422A (ja) * 1998-03-13 1999-11-30 Matsushita Electric Ind Co Ltd 画像識別装置
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
JP2002290607A (ja) * 2001-03-27 2002-10-04 Sanyo Electric Co Ltd 通信端末装置、通信方法及びネットワークシステム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007139067A1 (ja) * 2006-05-29 2007-12-06 Panasonic Corporation 画像高解像度化装置、画像高解像度化方法、画像高解像度化プログラムおよび画像高解像度化システム
US7688363B2 (en) 2006-05-29 2010-03-30 Panasonic Corporation Super-resolution device, super-resolution method, super-resolution program, and super-resolution system
CN101356546B (zh) * 2006-05-29 2011-10-12 松下电器产业株式会社 图像高分辨率化装置、方法及系统
WO2008026518A1 (fr) * 2006-08-31 2008-03-06 Panasonic Corporation Dispositif, procédé et programme de traitement d'image
US8131116B2 (en) 2006-08-31 2012-03-06 Panasonic Corporation Image processing device, image processing method and image processing program
US8350932B2 (en) 2008-07-30 2013-01-08 Panasonic Corporation Image generation device and image generation method for generating a high-quality image by using information from a low-quality image
US9087388B2 (en) 2008-07-30 2015-07-21 Panasonic Corporation Image generation device and image generation method
US9588991B2 (en) 2011-09-16 2017-03-07 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium
JP2013206436A (ja) * 2012-03-29 2013-10-07 Rakuten Inc 画像検索装置、画像検索方法、プログラムおよびコンピュータ読取り可能な記憶媒体
US9747305B2 (en) 2012-03-29 2017-08-29 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium
US9940366B2 (en) 2012-03-29 2018-04-10 Rakuten, Inc. Image search device, image search method, program, and computer-readable storage medium

Also Published As

Publication number Publication date
JPWO2006033257A1 (ja) 2008-05-15

Similar Documents

Publication Publication Date Title
US7340098B2 (en) Method and apparatus for image conversion
US7809155B2 (en) Computing a higher resolution image from multiple lower resolution images using model-base, robust Bayesian estimation
Xiong et al. Robust web image/video super-resolution
CN102741879B (zh) 由单眼图像产生深度图的方法及其系统
US20160021355A1 (en) Preprocessor for Full Parallax Light Field Compression
US7542047B2 (en) Multi-dimensional texture drawing apparatus, compressing apparatus, drawing system, drawing method, and drawing program
CN109447919B (zh) 结合多视角与语义纹理特征的光场超分辨率重建方法
JP3967367B2 (ja) 画像変換方法、装置およびプログラム、テクスチャマッピング方法、装置およびプログラム、並びに、サーバークライアントシステム
WO2006077710A1 (ja) 画像変換方法、テクスチャマッピング方法、画像変換装置、サーバークライアントシステム、および画像変換プログラム
CN102693538A (zh) 生成高动态范围图像的全局对准
JP2019067078A (ja) 画像処理方法、及び画像処理プログラム
CN104011581A (zh) 图像处理装置、图像处理系统、图像处理方法和图像处理程序
WO2006033257A1 (ja) 画像変換方法、画像変換装置、サーバークライアントシステム、携帯機器およびプログラム
JP3921496B1 (ja) 画像変換方法および画像変換装置
JP2022002376A (ja) 画像処理装置、画像処理方法およびプログラム
CN101060642B (zh) 使用3d图形产生同屏显示的方法和设备
Lukac Single-sensor imaging in consumer digital cameras: a survey of recent advances and future directions
JP4686200B2 (ja) 画像変換方法および装置
CN113628121B (zh) 数据处理、训练多媒体数据的方法和装置
CN108184053A (zh) 嵌入式图像处理方法及装置
Hu et al. A multi-user oriented live free-viewpoint video streaming system based on view interpolation
CN116758390B (zh) 一种图像数据处理方法、装置、计算机设备以及介质
EP1636987A1 (en) Spatial signal conversion
CN115619642A (zh) 模型训练方法、装置、电子设备及介质
Zhang et al. Synthetic aperture imaging using multi-view super-resolution

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006536346

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase