JP2009205553A - Image creating device and method therefor - Google Patents

Image creating device and method therefor Download PDF

Info

Publication number
JP2009205553A
JP2009205553A JP2008048753A JP2008048753A JP2009205553A JP 2009205553 A JP2009205553 A JP 2009205553A JP 2008048753 A JP2008048753 A JP 2008048753A JP 2008048753 A JP2008048753 A JP 2008048753A JP 2009205553 A JP2009205553 A JP 2009205553A
Authority
JP
Japan
Prior art keywords
image
images
area
search
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008048753A
Other languages
Japanese (ja)
Other versions
JP5071900B2 (en
Inventor
Toshiyasu Kunii
利泰 國井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa Institute of Technology (KIT)
Original Assignee
Kanazawa Institute of Technology (KIT)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa Institute of Technology (KIT) filed Critical Kanazawa Institute of Technology (KIT)
Priority to JP2008048753A priority Critical patent/JP5071900B2/en
Publication of JP2009205553A publication Critical patent/JP2009205553A/en
Application granted granted Critical
Publication of JP5071900B2 publication Critical patent/JP5071900B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image movement calculation method and a device therefor which allow to obtain more natural dynamic images by creating more exact intermediate images from the limited number of images. <P>SOLUTION: An image creating device divides a given image by any one of resolutions, raises the resolution while extracting corresponding areas by learning by a neural network, and extracts corresponding points. Therefore processing shall be carried out at first in the resolution of M×N, and two images are divided into a rectangle area where M×N does not overlap (S401). Although the area is divided here into a rectangle for convenience, dividing is not restricted to this but can be made in any shapes of area. A feature value which indicates a feature of the area is computed for each divided area. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像生成装置およびその方法に関し、より詳細には複数画像間の移動に関する処理を実行する画像生成装置およびその方法に関する。   The present invention relates to an image generation apparatus and method, and more particularly to an image generation apparatus and method for executing processing related to movement between a plurality of images.

従来から、モーフィングなど最初の画像と最後の画像とを与えて、それらに含まれる像の間の形態を有する1以上の像を生成して、像の形態が次第に変化する動画を生成する技術が提案されている(例えば、特許文献1を参照)。このようなモーフィングは、例えば画像上に設定した制御点を動かすことにより画像が歪む効果を得て、2種類の図形を一方から他方へ滑らかに変形させることによって達成されるが、制御点を自動的に設定するのは一般に容易ではない。すなわち、観察者が両画面を見て変化のパターンを予想し、対応点を設定するといった人手の介在なしでは新たな画像の生成は容易ではない。   2. Description of the Related Art Conventionally, there has been a technology for generating a moving image in which the form of an image gradually changes by giving an initial image and a final image, such as morphing, and generating one or more images having a form between the images included in the first image It has been proposed (see, for example, Patent Document 1). Such morphing is achieved by, for example, obtaining an effect of distorting the image by moving a control point set on the image and smoothly deforming two types of figures from one to the other. Generally, it is not easy to set. That is, it is not easy to generate a new image without human intervention, such as an observer watching both screens to predict a change pattern and setting corresponding points.

一定の分野あるいは一定のレベルでは、中間画像を自動生成するものがあり、例えばディスプレイ装置上に表示された文字を変形させるため、対象となる図形のアウトラインの集合を抽出してアウトライツリーの管理を行う技術が提案されている(例えば、特許文献2を参照)。このようにモーフィング等複数の限られた画像から中間画像を生成して動画像とする画像移動算出処理方法またはシステムが種々提案されている。   In certain fields or certain levels, there are some that automatically generate intermediate images. For example, in order to transform the characters displayed on the display device, the outline tree of the target figure is extracted and the outline tree is managed. A technique to be performed has been proposed (see, for example, Patent Document 2). As described above, various image movement calculation processing methods or systems for generating a moving image by generating an intermediate image from a plurality of limited images such as morphing have been proposed.

特開2005−135046号公報JP 2005-135046 A 特開2001−175881号公報JP 2001-175881 A

しかしながら、従来の画像生成方法では、中間画像を生成する際に人手が必要であったり、一定の限られた種類の画像しか扱えなかったりといった問題がある。また、中間画像を自動的に生成することができても、元の画像と比較して的確ではなく不自然な画像が生成されることとなったり、変移量の少ない画像にしか適用できなかったりするという問題がある。   However, the conventional image generation method has a problem that it requires manpower when generating an intermediate image, and can handle only a limited number of types of images. Even if the intermediate image can be automatically generated, an unnatural image is generated that is not accurate compared to the original image, or it can be applied only to an image with a small amount of displacement. There is a problem of doing.

本発明は、このような問題に鑑みて為されたものであり、複数の限られた画像からより的確な中間画像を生成してより自然な動画像を得ることができる画像生成装置およびその方法を提供することを目的とする。   The present invention has been made in view of such a problem, and an image generation apparatus and method for generating a more accurate intermediate image from a plurality of limited images and obtaining a more natural moving image. The purpose is to provide.

このような目的を達成するために、本出願の請求項1に記載の発明は、ニューラルネットワークにより2つの画像間の対応点を抽出して画像を生成する方法であって、2つの画像を各々相互に重ならない複数の領域に分割して、分割された領域のそれぞれにおける特徴量ベクトルを算出する特徴量算出ステップと、第1の画像の任意の1つの領域について、位置ベクトル間の距離と算出された特徴量ベクトル間の距離とを引数とする探索関数の値が最小となる第2の画像の領域を探索する領域探索と、任意の1つの領域について探索された領域と、探索前の領域との空間差異により2つの画像間の対応関係マッピング情報を生成するマッピング情報生成とを複数回繰り返すことにより2つの画像間の対応点を抽出する抽出ステップと、抽出された2つの画像間の任意の画像における各々の対応点の移動量を算出することにより中間画像を取得するステップとを備えたことを特徴とする。   In order to achieve such an object, the invention described in claim 1 of the present application is a method for generating an image by extracting corresponding points between two images by a neural network, each of the two images being A feature amount calculating step of calculating a feature amount vector in each of the divided regions by dividing into a plurality of regions that do not overlap with each other, and calculating a distance between position vectors for any one region of the first image A region search for searching for a region of the second image in which the value of the search function having the distance between the feature quantity vectors as an argument is minimum, a region searched for any one region, and a region before the search An extraction step of extracting corresponding points between the two images by repeating mapping information generation for generating correspondence mapping information between the two images due to a spatial difference between the two images; Characterized by comprising the steps of obtaining an intermediate image by calculating the amount of movement of each of the corresponding points in any of the image between the two images.

請求項2に記載の発明は、請求項1に記載の方法において、特徴量ベクトルは、領域内の輝度を含むことを特徴とする。   According to a second aspect of the present invention, in the method of the first aspect, the feature quantity vector includes a luminance in the region.

請求項3に記載の発明は、請求項1または2に記載の方法において、領域は、M×N個の矩形領域であることを特徴とする。   According to a third aspect of the present invention, in the method of the first or second aspect, the region is M × N rectangular regions.

請求項4に記載の発明は、請求項3に記載の方法において、抽出ステップは、M×N個の矩形領域に各々対応して作成されたM×N個のノードからなる自己組織化写像を用いて2つの画像間の対応点を抽出することを特徴とする。   According to a fourth aspect of the present invention, in the method according to the third aspect, the extracting step includes a self-organizing map made up of M × N nodes each corresponding to M × N rectangular regions. And extracting corresponding points between two images.

請求項5に記載の発明は、請求項1ないし4のいずれかに記載の方法において、探索関数は、位置ベクトル間の距離と、算出された特徴量ベクトル間の距離に特徴量の位置に対する重みを乗算した値とを加算する関数であることを特徴とする。   According to a fifth aspect of the present invention, in the method according to any one of the first to fourth aspects, the search function includes a distance between the position vectors and a weight for the position of the feature amount based on the calculated distance between the feature amount vectors. It is a function which adds the value which multiplied by.

請求項6に記載の発明は、請求項1ないし5のいずれかに記載の方法において、抽出ステップは、第1の画像の任意の1つの領域をランダムに選択することを特徴とする。   According to a sixth aspect of the present invention, in the method according to any one of the first to fifth aspects, the extracting step randomly selects any one region of the first image.

請求項7に記載の発明は、請求項1ないし6のいずれかに記載の方法において、マッピング情報生成は、探索した第2の画像の領域およびその近傍について、第1の画像の対応する領域との距離に学習率定数を乗じた値だけ対応する方向に移動させて、第1の画像の領域と対応する第2の画像の領域との関係をマッピング情報として生成することにより実行することを特徴とする。   According to a seventh aspect of the present invention, in the method according to any one of the first to sixth aspects, the mapping information generation is performed for a region of the searched second image and its vicinity with a corresponding region of the first image. This is executed by generating the relationship between the first image area and the corresponding second image area as mapping information by moving in the corresponding direction by a value obtained by multiplying the distance by the learning rate constant. And

請求項8に記載の発明は、請求項7に記載の方法において、抽出ステップは、領域探索およびマッピング情報生成を、マッピング生成で移動した移動量が所定の閾値以下になるまで繰り返すことを特徴とする。   The invention according to claim 8 is characterized in that, in the method according to claim 7, the extraction step repeats the area search and the mapping information generation until the amount of movement moved in the mapping generation becomes a predetermined threshold value or less. To do.

請求項9に記載の発明は、ニューラルネットワークにより2つの画像間の対応点を抽出して画像を生成する画像生成装置であって、2つの画像を各々相互に重ならない複数の領域に分割して、分割された領域のそれぞれにおける特徴量ベクトルを算出する特徴量算出手段と、第1の画像の任意の1つの領域について、位置ベクトル間の距離と算出された特徴量ベクトル間の距離とを引数とする探索関数の値が最小となる第2の画像の領域を探索する領域探索と、任意の1つの領域について探索された領域と、探索前の領域との空間差異により2つの画像間の対応関係マッピング情報を生成するマッピング情報生成とを複数回繰り返すことにより2つの画像間の対応点を抽出する抽出手段と、抽出された2つの画像間の任意の画像における各々の対応点の移動量を算出することにより中間画像を取得する手段とを備えたことを特徴とする。   The invention according to claim 9 is an image generation apparatus that generates an image by extracting corresponding points between two images by a neural network, and divides the two images into a plurality of regions that do not overlap each other. , A feature quantity calculating means for calculating a feature quantity vector in each of the divided areas, and a distance between position vectors and a calculated distance between feature quantity vectors for any one area of the first image as arguments The correspondence between the two images due to the spatial difference between the area search for the area of the second image that minimizes the value of the search function and the area searched for any one area and the area before the search Extraction means for extracting corresponding points between two images by repeating mapping information generation for generating relationship mapping information a plurality of times, and each of arbitrary images between the two extracted images Characterized by comprising a means for obtaining an intermediate image by calculating the amount of movement of the corresponding points.

請求項10に記載の発明は、コンピュータに、ニューラルネットワークにより2つの画像間の対応点を抽出して画像を生成する方法を実行させるプログラムであって、この方法は、2つの画像を各々相互に重ならない複数の領域に分割して、分割された領域のそれぞれにおける特徴量ベクトルを算出する特徴量算出ステップと、第1の画像の任意の1つの領域について、位置ベクトル間の距離と算出された特徴量ベクトル間の距離とを引数とする探索関数の値が最小となる第2の画像の領域を探索する領域探索と、任意の1つの領域について探索された領域と、探索前の領域との空間差異により2つの画像間の対応関係マッピング情報を生成するマッピング情報生成とを複数回繰り返すことにより2つの画像間の対応点を抽出する抽出ステップと、抽出された2つの画像間の任意の画像における各々の対応点の移動量を算出することにより中間画像を取得するステップとを備えたことを特徴とする。   The invention according to claim 10 is a program for causing a computer to execute a method of generating an image by extracting corresponding points between two images by a neural network, and the method includes: A feature amount calculating step of calculating a feature amount vector in each of the divided regions by dividing into a plurality of non-overlapping regions, and a distance between position vectors for any one region of the first image was calculated An area search for searching for an area of the second image in which the value of a search function having a distance between feature quantity vectors as an argument is minimum, an area searched for any one area, and an area before the search An extraction step for extracting corresponding points between two images by repeating mapping information generation for generating correspondence mapping information between two images due to a spatial difference. When, characterized by comprising the steps of obtaining an intermediate image by calculating the amount of movement of each of the corresponding points in any image between two images extracted.

以上説明したように、本発明によれば、2つの画像を各々相互に重ならない複数の領域に分割して、分割された領域のそれぞれにおける特徴量ベクトルを算出する特徴量算出ステップと、第1の画像の任意の1つの領域について、位置ベクトル間の距離と算出された特徴量ベクトル間の距離とを引数とする探索関数の値が最小となる第2の画像の領域を探索する領域探索と、任意の1つの領域について探索された領域と、探索前の領域との空間差異により2つの画像間の対応関係マッピング情報を生成するマッピング情報生成とを複数回繰り返すことにより2つの画像間の対応点を抽出する抽出ステップと、抽出された2つの画像間の任意の画像における各々の対応点の移動量を算出することにより中間画像を取得するステップとを備えているので、複数の限られた画像からより的確な中間画像を生成してより自然な画像を得ることが可能となる。   As described above, according to the present invention, the feature amount calculating step of dividing the two images into a plurality of regions that do not overlap each other and calculating a feature amount vector in each of the divided regions, An area search for searching for an area of the second image in which the value of the search function having the argument between the distance between the position vectors and the calculated distance between the feature quantity vectors is an arbitrary one area of the image of Correspondence between two images by repeating mapping information generation for generating correspondence mapping information between two images due to a spatial difference between a region searched for an arbitrary region and a region before the search. An extraction step of extracting points; and a step of acquiring an intermediate image by calculating a movement amount of each corresponding point in an arbitrary image between the two extracted images Since, it is possible to obtain a more natural image to generate a more accurate intermediate image from a plurality of limited images.

(第1実施形態)
本実施形態では、本願発明の原理を用いてニューラルネットワークを用いて複数画像間のそれぞれの対応点を抽出し、対応点同士を線形補完して任意の場所の中間画像を生成するため、以下まず本願発明の原理について説明する。ここで、本願発明の対応点取得処理が極めて有効であるため、中間画像生成に当たって、線形補間により十分に適切でより実際の動きに近い動画像が得られるが、これに限られることなく本技術分野で知られるいずれの補間処理を採用することもできる。例えば、適当な重み付けなどをして処理を行うことができる。
(First embodiment)
In the present embodiment, the corresponding points between a plurality of images are extracted using a neural network using the principle of the present invention, and the corresponding points are linearly complemented to generate an intermediate image at an arbitrary location. The principle of the present invention will be described. Here, since the corresponding point acquisition processing of the present invention is extremely effective, a moving image that is sufficiently appropriate and closer to the actual motion can be obtained by linear interpolation in generating the intermediate image. However, the present technology is not limited to this. Any interpolation process known in the field can be employed. For example, processing can be performed with appropriate weighting.

より具体的に、図1を参照して2枚の異なる画像AおよびB(図1では画像110および120)をもとに、中間画像を生成する場合を想定すると、本願発明の原理によると、先ず画像110と画像120との間でそれぞれ対応する点を抽出する。ここで、元になる画像110および120はどのような画像でも良く、相互に関連性のあるものでも良いし、全く関連性のないものでもよい。つまり、典型的な例では、ある被写体があって実際にある動作をする前と、動作をした後の画像でも良いし、全然関連性のない例えば人間と動物の顔でも良い。本願発明は、画像の具体的性質にかかわらずより適切な対応点を抽出することができる。本願発明の原理を用いれば直感的に理解されるとおり、画像110上の任意の点に対応する画像120上の対応点を定めることができ、本願発明の原理を適用することによりこの対応点の抽出は自動的にコンピュータ等で処理することにより実行される。   More specifically, assuming the case where an intermediate image is generated based on two different images A and B (images 110 and 120 in FIG. 1) with reference to FIG. 1, according to the principle of the present invention, First, corresponding points between the image 110 and the image 120 are extracted. Here, the original images 110 and 120 may be any images, may be related to each other, or may not be related at all. In other words, in a typical example, there may be images before and after an actual motion of a certain subject, or a human-animal face that is completely unrelated. The present invention can extract more appropriate corresponding points regardless of the specific properties of the image. As can be understood intuitively by using the principle of the present invention, a corresponding point on the image 120 corresponding to an arbitrary point on the image 110 can be determined, and by applying the principle of the present invention, the corresponding point can be determined. The extraction is executed by automatically processing with a computer or the like.

このように画像110と画像120とのそれぞれの対応点が抽出されると、例えばそれらの対応点同士を結ぶ線上の中間点をプロットしていくとちょうど真ん中の中間画像130が得られる。このとき中間画像130上で画像110および120の各対応する点に対応する点は両点を結ぶ線分の中間点となる。中間点を取ると真ん中の画像となるが、対応点間を結ぶ線分の任意の比率となる点をプロットしていくことにより画像110と120との間の任意の位置における中間画像を得ることができる。   When the corresponding points of the image 110 and the image 120 are extracted in this way, for example, when the intermediate point on the line connecting the corresponding points is plotted, the intermediate image 130 in the middle is obtained. At this time, a point corresponding to each corresponding point of the images 110 and 120 on the intermediate image 130 is an intermediate point of a line segment connecting the two points. If the intermediate point is taken, the middle image is obtained, but an intermediate image at an arbitrary position between the images 110 and 120 is obtained by plotting the points having an arbitrary ratio of the line segments connecting the corresponding points. Can do.

(本実施形態のシステム構成)
本実施形態のシステムは、上述のソフトウェアプログラム開発手法を用いたプログラム開発を支援する画像移動算出処理装置である。図2は、本実施形態のシステムの概要を示す図である。本システムでは、画像移動処理装置の制御部201に記憶手段であるデータベース204が接続されており、元の画像データが格納されていて、中間画像が算出されると必要であれば格納される。データベース204には本実施形態の処理を実行するプログラムを格納しておくこともできる。本実施形態では、データベース204は、制御部201の外部に接続されているように示されているが、これに限られることなくコンピュータ201内部のメモリを用いたり、図に示さないネットワークを介して他のデータベースに接続して利用したりすることもできる。
(System configuration of this embodiment)
The system of the present embodiment is an image movement calculation processing device that supports program development using the above-described software program development technique. FIG. 2 is a diagram showing an overview of the system of this embodiment. In this system, a database 204 as storage means is connected to the control unit 201 of the image movement processing apparatus, and the original image data is stored. If an intermediate image is calculated, it is stored if necessary. The database 204 can also store a program for executing the processing of this embodiment. In this embodiment, the database 204 is shown as being connected to the outside of the control unit 201. However, the present invention is not limited to this. It can also be used by connecting to other databases.

なお、制御部201は、画像処理など種々の処理を行うために必要な通常の機能、例えばCPU、ROM、RAMのほか必要なインタフェースドライブを有しているものとする。画像は制御部201に接続されたディスプレイ202に表示されるが、コマンドを入力する際にメニューを表示したり、処理結果を表示したりもする。同様に入力機器はキーボード203に限らず、図示しないマウスや入力パッドなど本技術分野で知られる種々の仕様のものを用いることができる。   Note that the control unit 201 has normal functions necessary for performing various processes such as image processing, such as a CPU, a ROM, and a RAM, and a necessary interface drive. The image is displayed on a display 202 connected to the control unit 201. When a command is input, a menu is displayed or a processing result is displayed. Similarly, the input device is not limited to the keyboard 203, and various types of specifications known in the technical field such as a mouse and an input pad (not shown) can be used.

本システムの全体の構成は以上のようなものであるが、このようなハードウェアの条件の下、本実施形態の個別の処理の実行はソフトウェアプログラムがこのようなハードウェアにインストールされて行われる。各ソフトウェアは例えば図3に示すようなモジュール構成で示すことができるが、これは単なる例示であり、各モジュールの機能をさらにいくつかのモジュールで分担したり、いくつかのモジュールの機能を統合したモジュールを想定したりすることができるのはいうまでもない。以下に、各モジュール構成を説明するが、これらのモジュールが相互に連携を取って実行され、後述する本実施形態の処理が達成されるのである。   The overall configuration of the present system is as described above. Under such hardware conditions, the execution of the individual processing of the present embodiment is performed by installing a software program on such hardware. . Each software can be shown in a module configuration as shown in FIG. 3, for example, but this is merely an example, and the functions of each module are further divided into several modules or the functions of several modules are integrated. It goes without saying that modules can be envisaged. Each module configuration will be described below. These modules are executed in cooperation with each other, and the processing of this embodiment described later is achieved.

図3は、本実施形態の制御部201上で実行されるプログラムのモジュール構成を示す図である。特徴点抽出部301は、例えば2つの画像を複数の矩形領域に分割して、それぞれの領域における特徴量ベクトルを算出する。対応点抽出部302は、分割された領域とノードとを対応させてノード間の自己組織化写像を作成することにより、例えば最後の画像の任意の1つの領域について、位置ベクトル間の距離と算出された特徴量ベクトル間の距離とを引数とする探索関数の値が最小となる最後の画像の領域を探索し、探索された領域と、探索前の領域との空間差異を算出する。探索されたノードおよびその近傍のノードは一定の関数により更新される。対応点抽出部302は、以上の探索と更新を所定の回数繰り返しは、一定の収束が得られた段階で対応関係を確定して、データベース204に格納する等により保持する。中間画像算出部303は、全ての領域について2つの画像の対応点が決定した後対応点同士を、本実施形態では線形処理して任意の中間画像の対応点を取得し全ての対応点をプロットして中間画像を算出する。算出された中間画像は、動画像の1こまとしてデータベースに格納することができ、ディスプレイ202や図示しないプリンタに出力、または遠隔の装置に送信することができる。   FIG. 3 is a diagram illustrating a module configuration of a program executed on the control unit 201 of the present embodiment. For example, the feature point extraction unit 301 divides two images into a plurality of rectangular regions, and calculates a feature amount vector in each region. The corresponding point extraction unit 302 creates a self-organizing map between the nodes by associating the divided regions with the nodes, thereby calculating, for example, the distance between the position vectors for any one region of the last image. The area of the last image in which the value of the search function having the argument of the distance between the feature quantity vectors as an argument is minimum is searched, and the spatial difference between the searched area and the area before the search is calculated. The searched node and its neighboring nodes are updated by a certain function. The corresponding point extraction unit 302 repeats the above search and update for a predetermined number of times, determines the correspondence at a stage where a certain convergence is obtained, and stores it in the database 204 or the like. In this embodiment, the intermediate image calculation unit 303 linearly processes the corresponding points after the corresponding points of the two images are determined for all the regions, and obtains the corresponding points of any intermediate image, and plots all the corresponding points. To calculate an intermediate image. The calculated intermediate image can be stored in the database as one frame of the moving image, and can be output to the display 202 or a printer (not shown) or transmitted to a remote device.

(本実施形態の処理)
以上、本願発明の原理と本実施形態で用いられるシステムの構成について説明したが、次に具体的に本願発明の原理を適用した処理について2つの画像、最初の画像Aおよび最後の画像Bを例に説明する。本実施例では、画像AおよびBから中間画像を算出して画像Aから始まって画像Bで終了する動画像が生成されることとなる。
(Process of this embodiment)
The principle of the present invention and the configuration of the system used in the present embodiment have been described above. Next, two images, the first image A and the last image B, will be described as an example of processing that specifically applies the principle of the present invention. Explained. In the present embodiment, an intermediate image is calculated from the images A and B, and a moving image starting from the image A and ending with the image B is generated.

(1)多重解像度の特徴量ベクトルの作成
図4は、本実施形態の画像移動算出処理の流れを示すフローチャートである。本実施形態ではまず、所与の画像をいずれかの解像度で分割し、ニューラルネットワークによる学習により対応領域を抽出しつつ、解像度を高めていって対応点を抽出する。このため、最初はM×Nの解像度で処理を進めることとし、2つの画像をM×N個の重ならない矩形領域に分割する(S401)。ここで、便宜上分割される領域は矩形としたが、これに限られずいずれの形態の領域にも分割することができる。分割された各領域について、その領域の特徴を示す特徴量を算出する。ここで、特徴量は本技術分野で使用することができるいずれの特徴を表す値を用いることができるが、本実施形態では主に輝度または輝度に対応する性質をあらわすいずれかの値の、その領域内での平均値、最大値、最小値、変極点の値、微分値、二次微分値などの数値のいずれか、あるいはいくつかを組み合わせたものを使用する。
(1) Creation of Multi-resolution Feature Quantity Vector FIG. 4 is a flowchart showing the flow of image movement calculation processing of this embodiment. In this embodiment, first, a given image is divided at any resolution, and a corresponding area is extracted by learning using a neural network, and a corresponding point is extracted by increasing the resolution. For this reason, the processing is first advanced at the resolution of M × N, and the two images are divided into M × N non-overlapping rectangular regions (S401). Here, although the area | region divided | segmented for convenience was made into the rectangle, it is not restricted to this, It can divide | segment into the area | region of any form. For each divided region, a feature amount indicating the feature of the region is calculated. Here, as the feature amount, a value representing any feature that can be used in this technical field can be used. However, in the present embodiment, any value that mainly represents luminance or a property corresponding to luminance is used. Use one of numerical values such as average value, maximum value, minimum value, inflection point value, differential value, second-order differential value in the region, or a combination of some.

本実施形態では、輝度および輝度に関連する情報を用いて特徴量としたが、画像によっては色情報も特徴を強く表している場合があり、このような場合は色差および関連情報を用いて効果的に処理を進めることもでき、その場合は特徴量の抽出方法が異なるだけであり、一旦特徴量を取得すれば以下の処理はほとんどそのまま使用することができる。同様に、その他画像の特徴を表すその他の属性が使用できれば以下の処理を行って本実施形態の対応点抽出が可能である。通常、特徴量としてはこれらの数値をいくつか、例えばk個組み合わせるため、k次元ベクトルとなり、特徴量ベクトルが作成されることになる。   In this embodiment, brightness and information related to brightness are used as the feature amount. However, depending on the image, color information may also strongly represent the feature. In such a case, the effect is obtained using the color difference and related information. In this case, the feature amount extraction method is different, and once the feature amount is acquired, the following processing can be used almost as it is. Similarly, if other attributes representing the characteristics of other images can be used, corresponding points can be extracted in the present embodiment by performing the following processing. Usually, since some of these numerical values, for example, k, are combined as the feature quantity, it becomes a k-dimensional vector, and a feature quantity vector is created.

このようにして、特徴量ベクトルという概念を導入することにより、分割された各領域は画像上の領域の位置を示す位置ベクトルPi,jあるいは画像Aの位置Xi,jおよび画像B上の位置Yi,jと特徴量ベクトルFi,j(1≦i≦M、1≦j≦N)とで表されることとなり、ベクトルを含むそれらの情報用いて画像間の対応する点を抽出していくことができる。 In this way, by introducing the concept of feature quantity vector, each divided area is a position vector P i, j indicating the position of the area on the image or a position X i, j of the image A and an image B. It is represented by the position Y i, j and the feature vector F i, j (1 ≦ i ≦ M, 1 ≦ j ≦ N), and the corresponding points between the images are extracted using the information including the vector. Can continue.

(2)自己組織化写像を用いた特徴領域の抽出
次に各領域をニューラルネットワークのノードに置き換えて、特徴量ベクトルFi,jなどを属性として有するノードとすることにより、これらの自己組織化写像を作成して適切なノードを探索し、その結果をもとにノードを更新する処理を、更新による変位が一定範囲内となるまで繰り返すことにより適切な対応領域を抽出する。
(2) Extraction of feature regions using self-organizing maps Next, each region is replaced with a node of a neural network, and the nodes having feature vectors F i, j and the like are used as attributes, thereby self-organizing these regions. An appropriate corresponding region is extracted by repeating the process of creating a map, searching for an appropriate node, and updating the node based on the result until the displacement due to the update falls within a certain range.

(i)写像の初期化
先ず図4のステップS402において、図5に示すようにM×N個に分割した領域に対応するようにM×Nのノードからなる自己組織化写像を作成すると、ノードi,jは特徴量ベクトルFi,jおよび位置ベクトル位置Xi,jおよび位置Yi,jを属性として有することとなる。ここで、まずXi,j=Yi,jを初期状態とする。すなわち、処理を開始する時点では、2つの画像は同一位置を対応点とし、その画像の状態により実際に対応する点に近づけていくのである。すなわち、初期段階では、図5に示すように画像Aに対応する画像B上の点は同じ場所になっているが、本実施形態の処理が行われる結果、画像Aに対応する点は画像B’上に対応付けできるようになる。
(I) Initialization of mapping First, in step S402 in FIG. 4, when a self-organizing mapping composed of M × N nodes is created so as to correspond to the area divided into M × N as shown in FIG. i, j has the feature vector F i, j, the position vector position X i, j and the position Y i, j as attributes. Here, let X i, j = Y i, j be an initial state. That is, at the time of starting the processing, the two images have the same position as the corresponding point, and approach the point that actually corresponds depending on the state of the image. That is, in the initial stage, as shown in FIG. 5, the points on the image B corresponding to the image A are in the same place, but as a result of the processing of this embodiment, the points corresponding to the image A are 'Can be mapped on top.

(ii)学習対象領域の選択
次に、画像Bで分割した矩形領域からランダムに処理の対象とする領域を選択する(S404)。実際には、画像B全体としてランダムに選択することにより、対応するノードが選択されそのノードについて後述する処理が実行される。選択された領域について対応点を抽出した後、さらに他の領域を選択して最終的に画像Bの前領域を網羅することになるが、本実施形態ではこの選択はランダムに行われる必要がある。すなわち、本実施形態では領域の選択に規則性を持たせると、領域によっては学習により本来の対応点と異なる点に収束し局所解になる可能性があるため、これを避けるようにランダムに選択する必要があるのである。使用する乱数は完全にランダムである必要はなく擬似乱数でも良く、一定のランダムさを有していれば良い。
(Ii) Selection of learning target region Next, a region to be processed is randomly selected from the rectangular regions divided by the image B (S404). Actually, by randomly selecting the entire image B, the corresponding node is selected, and the processing described later is executed for that node. After extracting corresponding points for the selected region, another region is selected to finally cover the previous region of the image B. In this embodiment, this selection needs to be made at random. . In other words, in this embodiment, if there is regularity in the selection of the region, depending on the region, there is a possibility of convergence to a point different from the original corresponding point by learning, so that a local solution may be selected. It is necessary to do. The random number to be used need not be completely random but may be a pseudo-random number as long as it has a certain randomness.

この選択に際しては、対応点とは評価されない点や部分、例えば最初の画像に存在しないが最後の画像には存在するような部分、具体的には最初の画像が人物の横を向いた写真であり、最後の写真がその人物が正面を向いた写真である場合に最初隠れていた方の耳などは、その領域を処理しても対応する点は元々ないため、処理不能になるか、誤った点を抽出してしまう可能性がある。このような領域をそのままにして本実施形態の処理を進めると、無駄な処理が多くなり処理能力にも影響を及ぼす。したがって、本実施形態では、ガウス分布を用いてこのような異常な点を取り除いた後処理対象となる領域の選択を行う。   For this selection, a point or part that is not evaluated as a corresponding point, for example, a part that does not exist in the first image but exists in the last image, specifically, a photograph in which the first image faces the person's side. Yes, when the last photo is a photo with the person facing the front, the ear that was initially hidden may not be able to be processed because there is no corresponding point after processing the area, There is a possibility of extracting a new point. If the processing of this embodiment is performed while leaving such an area as it is, unnecessary processing increases and processing capacity is also affected. Therefore, in this embodiment, a region to be post-processed is selected by removing such abnormal points using a Gaussian distribution.

なお、本実施形態では、画像をM×Nの矩形に分割した結果、各矩形領域は相互に重なり合うことなく、コンピュータによる計算処理を円滑に行うことができるが、本願発明の原理は、本実施形態の処理例とは逆に領域ではなく対応点が基準となる。すなわち、本願発明は複数の画像間の対応点を求めるものであるから、もともと画像間の点同士を比較処理すればよく、画像中の任意の点を選択してその特徴量を導出することができれば、適当に点を選択して、選択された点を基準に処理を行うことができる。本実施形態では、輝度や色差を特徴量として用いるため、点そのものではなく点の周囲の一定の領域を対象にして特徴量を算出するほうがコンピュータを使用した処理では容易である場合が多い。この結果、本実施形態では便宜上領域を対象として処理し、領域の中心点同士を対応点として決定するが、点同士を最初から対応させつつ、その点の任意の領域を用いて特徴量を算出し処理を行うこともできる。この場合、本実施形態とは異なり、領域の形状はもとより、各領域は重なり合っても良いし、逆に隙間があってもよい。   In this embodiment, as a result of dividing the image into M × N rectangles, the respective rectangular areas can be smoothly performed without overlapping each other. However, the principle of the present invention is not limited to this embodiment. Contrary to the processing example of the form, the corresponding point is the reference instead of the region. That is, since the present invention finds corresponding points between a plurality of images, it is only necessary to compare the points between the images, and it is possible to select an arbitrary point in the image and derive the feature amount. If possible, it is possible to select a point appropriately and perform processing based on the selected point. In the present embodiment, since luminance and color differences are used as feature amounts, it is often easier in processing using a computer to calculate feature amounts not for the points themselves but for a certain area around the points. As a result, in this embodiment, processing is performed for a region for convenience, and the center points of the region are determined as corresponding points, but the feature amount is calculated using an arbitrary region of the point while matching the points from the beginning. Can also be processed. In this case, unlike the present embodiment, the regions may overlap each other as well as the shape of the regions, or conversely there may be gaps.

(iii)ノードの探索
もっともらしい対応点に近づけるため、選択されたノードについての特徴量の所定の関数の値が最小となるノードを探索する(S405)。すなわち、特徴量に基づいて2つの画像で関連性がありそうな対応点を探索するため一定の類似度を示す関数を設定しその値が一定の値になるように処理していく。具体的には、本実施形態では類似関数Di,j(DPi,j(b)i,j,DFi,j(b))として、例えば以下のような値を用いる(類似関数Di,jは、類似するほど、すなわち類似度が高いほど低い値をとる関数である)。ここで、DPi,jは、現在の対応点と探索すべきノードとの位置ベクトル間の距離、すなわち幾何空間における距離を示しており、例えばL2ノルム||Pb-Yi,j||とすることができる。また、DFi,jは現在の対応点と探索すべきノードとの特徴量ベクトル間の距離、例えば輝度空間あるいは色空間の距離を示しており、例えば
(Iii) Search for Nodes In order to approach a plausible corresponding point, a node having a minimum value of a predetermined function of the feature amount for the selected node is searched (S405). That is, a function indicating a certain degree of similarity is set to search for corresponding points that are likely to be related in the two images based on the feature amount, and processing is performed so that the value becomes a certain value. Specifically, in the present embodiment, for example, the following values are used as the similarity function D i, j (DP i, j (b) i, j , DF i, j (b)) (similar function D i , j is a function that takes a lower value as the degree of similarity increases, that is, the degree of similarity becomes higher). Here, DP i, j indicates the distance between the position vectors of the current corresponding point and the node to be searched, that is, the distance in the geometric space. For example, L2 norm || Pb-Y i, j || can do. DF i, j indicates the distance between feature vectors of the current corresponding point and the node to be searched, for example, the distance in the luminance space or the color space.

Figure 2009205553
Figure 2009205553

とすることができる。 It can be.

(I)Di,j= DPi,j(b)+βDFi,j(b) : βは輝度空間の幾何空間に対する重み
(II)Di,j= DPi,j(b)*(DFi,j(b))β : βは輝度空間の幾何空間に対する重み
類似関数として(I)または(II)のいずれかを任意に選択することができ、いずれも本願発明の実施に有効に供することができるが、(I)は線形になっているので比較的扱い易く効果も高いことが知られている。
(I) D i, j = DP i, j (b) + βDF i, j (b): β is a weight for the geometric space of the luminance space. (II) D i, j = DP i, j (b) * ( DF i, j (b)) β : β is a weight for the geometric space of the luminance space. Either (I) or (II) can be arbitrarily selected as a similarity function, both of which are effective for implementing the present invention. Although (I) is linear, it is known that it is relatively easy to handle and highly effective.

(iv)隣接ノードの更新
類似関数の値が最小となるよう探索されたノードI,J=arg min Di,j (b)およびその隣接ノードを以下の式に基づき更新する(S406)。
Yi,j(t)= Yi,j(t-1)+αδ(Xi,j(t)- Yi,j(t-1)) (2)
(Iv) Update of adjacent node The node I, J = arg min D i, j (b) searched for minimizing the value of the similarity function and its adjacent node are updated based on the following expression (S406).
Y i, j (t) = Y i, j (t-1) + αδ (X i, j (t)-Y i, j (t-1)) (2)

ここで、α(0<α≦1)は、学習率係数であり、例えば0.01といった固定の値や単調減少関数を用いることができるが、これに限られず本技術分野で知られたいずれの適切な値を用いることができる。一般に、比較的動きの少ない画像間の対応点を探索する場合は、0.01といった比較的小さい定数を用いることにより、安定して収束させることができるが、動きの大きな画像間で対応点を探索する場合は、最初から小さいαを用いると極所解となり正確な対応点を見つけられないことがあるため、最初は比較的大きな値を取り後述のδのように単調に減少するような関数を用いることが効果的な場合もある。   Here, α (0 <α ≦ 1) is a learning rate coefficient. For example, a fixed value such as 0.01 or a monotonically decreasing function can be used. However, the present invention is not limited to this, and any appropriate value known in this technical field can be used. Any value can be used. In general, when searching for corresponding points between images with relatively little movement, a relatively small constant such as 0.01 can be used for stable convergence, but searching for corresponding points between images with large movements is possible. In this case, if a small α is used from the beginning, it may be an extreme solution and an exact corresponding point may not be found. Therefore, a function that takes a relatively large value at first and decreases monotonically as described later δ is used. Sometimes it is effective.

δについては、tに対し単調減少し0以上の値をとる関数range(t)を想定すると、|I-i|≦range(t)かつ|J-j|≦range(t)のときδ=1であり、それ以外ではδ=0の値をとるものとする。なお、本実施形態では、図6に示すような対象点(領域)801の8個の近傍の領域について処理を行う8 Neighborsを使用する。すなわち、対象領域801の近傍が上記の式(2)により更新され一定の対応関係に収束する。これは、対象点の周囲の画像の状態を織り込むことによって、より適切な対応点の探索が可能になるからである。   For δ, assuming a function range (t) that monotonously decreases with respect to t and takes a value of 0 or more, δ = 1 when | Ii | ≦ range (t) and | Jj | ≦ range (t), Otherwise, assume a value of δ = 0. In the present embodiment, 8 Neighbors for performing processing on eight neighboring regions of the target point (region) 801 as shown in FIG. 6 is used. That is, the vicinity of the target area 801 is updated by the above equation (2) and converges to a certain correspondence. This is because a more appropriate corresponding point can be searched by incorporating the state of the image around the target point.

本実施形態では、上述のように隣接ノードとして8 Neighborsを使用するが、これに限られること無く種々の本技術分野で知られた方法を用いることができる。例えば、4 Neighborsを使用することもできる。この場合、上述のδは|I-i|≦range(t)または|J-j|≦range(t)のときδ=1であり、それ以外ではδ=0の値をとるものとする。   In the present embodiment, 8 Neighbors are used as adjacent nodes as described above. However, the present invention is not limited to this, and various methods known in this technical field can be used. For example, 4 Neighbors can be used. In this case, δ described above is δ = 1 when | I−i | ≦ range (t) or | J−j | ≦ range (t), and δ = 0 otherwise.

このように更新した後、再度類似関数最小となるノードを探索し、以上の処理を繰り返し実行する(S407)。すなわち、上述の(iii)と(iv)の処理を一定以上の回数繰り返すことにより、上述の(ii)で選択した領域について対応領域を取得することができる。ランダムに選択した1つの領域について、上述のような処理を行って対応点を求め、その後やはりランダムに残りの領域について同様の処理を実行して画像全体の処理を行い、対応点の抽出を終了する(S403)。   After updating in this way, the node that minimizes the similarity function is searched again, and the above processing is repeatedly executed (S407). That is, by repeating the processes (iii) and (iv) above a certain number of times, the corresponding area can be acquired for the area selected in (ii) above. For one region selected at random, the above processing is performed to obtain corresponding points, and thereafter the same processing is performed on the remaining regions at random to perform the entire image processing, and the corresponding points are extracted. (S403).

このようにしてM×Nの解像度の対応点が得られると、図7に示すように段階的に解像度を上げて、M×Nの解像度でより正確な対応点を求める。通常、図7に示すように3段階程度で処理を行うが、これに限られることなく、システムや画像の特性に合わせてより少ない回数やより多い回数で処理することもできる。   When the corresponding points of M × N resolution are obtained in this way, the resolution is increased stepwise as shown in FIG. 7, and more accurate corresponding points are obtained with the resolution of M × N. Normally, the processing is performed in about three stages as shown in FIG. 7, but the processing is not limited to this, and the processing can be performed with a smaller number or a larger number according to the characteristics of the system and the image.

ここで、一定の回数は、システムによっても異なるし、対象とする画像の性質によっても異なるが、本実施形態では例えばM×N個に分割した各領域について(iii)と(iv)の処理を16回から64回行い、M=N=256で3段階の解像度を条件に計算すると、約300〜1200万回繰り返す場合もある。この繰り返し回数は、回数自体として所定の値を実験等の結果により定めることもできるが、例えば(iv)の更新処理による変位が一定以下になることを繰り返し回数の判定基準とすることもできる。   Here, the fixed number of times varies depending on the system and also on the nature of the target image, but in this embodiment, for example, the processing of (iii) and (iv) is performed for each of the regions divided into M × N. If the calculation is performed from 16 times to 64 times, and M = N = 256 and calculation is performed under the condition of three stages of resolution, there are cases where the calculation is repeated about 3 to 12 million times. As the number of repetitions, a predetermined value can be determined as a result of experiments or the like, but for example, it can be used as a criterion for determining the number of repetitions that the displacement due to the update process (iv) is less than a certain value.

(中間画像の生成)
以上の処理により元の複数画像について対応点を定めることができると、この情報に基づいて様々な画像処理が可能となる。本実施形態では、本願発明の種々の応用分野の中で、最も簡易なものとして、特に2枚の画像から画像と画像の間の中間画像の算出を行う。中間画像が得られれば、複数の静止画像として出力することもでき、毎秒一定数のこまを出力して動画を生成することもできる。例えば、上述したように画像Aと画像Bとのそれぞれの対応点が抽出され、それらの対応点同士を結ぶ線上の中間点をプロットすると、中間画像上で画像AおよびBの各対応点に対応する点は両点を結ぶ線分の中間点となる。このような中間点のような中間画像上の点を算出してプロットしていくと中間画像が生成される。中間点を取ると真ん中の画像となるが、対応点間を結ぶ線分の任意の比率となる点をプロットしていくことにより画像AとBとの間の任意の位置における中間画像を得ることができるわけである。
(Generate intermediate image)
If the corresponding points can be determined for the original plurality of images by the above processing, various image processing becomes possible based on this information. In the present embodiment, among the various application fields of the present invention, as the simplest, in particular, an intermediate image between images is calculated from two images. If an intermediate image is obtained, it can be output as a plurality of still images, and a fixed number of frames can be output every second to generate a moving image. For example, as described above, the corresponding points of the images A and B are extracted, and when the intermediate points on the line connecting the corresponding points are plotted, the corresponding points of the images A and B correspond to the intermediate image. The point to be used is the midpoint of the line segment connecting both points. If a point on the intermediate image such as the intermediate point is calculated and plotted, an intermediate image is generated. If the intermediate point is taken, the middle image is obtained, but an intermediate image at an arbitrary position between the images A and B is obtained by plotting points having an arbitrary ratio between the line segments connecting the corresponding points. Is possible.

本実施形態では、このように線形処理により比較的自然な中間画像を得られるが、これに限られること無く線形以外、すなわち一定の比率を用いずに画像Bに近づくにしたがって変化が大きくなるように重み付けしたり、中間画像の前後で変化が大きくなるようにしたりすることもできる。したがって、その所望するシステムの目的に応じて任意の重み付け関数を用い、またはその他本技術分野で知られたいずれかの方法で中間画像を生成することができる。   In the present embodiment, a relatively natural intermediate image can be obtained by linear processing as described above. However, the present invention is not limited to this, and the change becomes larger as the image B is approached except for linearity, that is, without using a fixed ratio. Can be weighted, or the change can be increased before and after the intermediate image. Thus, an intermediate image can be generated using any weighting function depending on the desired system purpose or any other method known in the art.

また、本実施形態では2枚の元の画像からその中間の画像を生成するが、その他にも本願発明の原理を用いて複数の画像間のそれぞれの対応点を抽出することができると様々な画像処理に応用することができる。例えば、3枚の画像を用いて上述の2枚の画像で行ったと同じような中間画像抽出処理により、種々の応用処理を実行させることができる。すなわち、例えば3枚の同一人物の顔の画像を用意し、これらを合成して種々の表情を生成することを考える。一般に、最も感情が表れるかの表情は泣き、笑い、怒った顔の3種であるから、これらを元の画像とする。まず、ステップ1として本実施形態の処理を各画像ペアごとに実行することにより3枚のそれぞれの画像の対応点を抽出する。次にステップ2として、2枚の画像ペアを任意に選択して所定の比率により第1の中間画像を生成し、その後残りの1枚の画像と第1の中間画像とに別の所定の比率を適用して、第2の中間画像を生成する。以上により、3種類の元の感情を適度に混合させた様々な顔の表情が得られる。所定の比率を変化させるだけで驚くほど多様な表情をもつ顔の画像を得ることができる。   Further, in this embodiment, an intermediate image is generated from two original images. However, various other points can be obtained by extracting corresponding points between a plurality of images using the principle of the present invention. It can be applied to image processing. For example, various application processes can be executed by an intermediate image extraction process similar to that performed for the above-described two images using three images. In other words, for example, consider preparing three facial images of the same person and combining them to generate various facial expressions. Generally, there are three types of facial expressions that express the most emotions: crying, laughing, and angry faces, and these are the original images. First, in step 1, the processing of the present embodiment is executed for each image pair to extract corresponding points of the three images. Next, in step 2, two image pairs are arbitrarily selected and a first intermediate image is generated at a predetermined ratio, and then another predetermined ratio is set for the remaining one image and the first intermediate image. To generate a second intermediate image. As described above, various facial expressions in which three kinds of original emotions are appropriately mixed can be obtained. By simply changing the predetermined ratio, it is possible to obtain facial images with surprisingly diverse expressions.

このようにして得られる様々な例の1つが例えば図1に示すような画像である。   One of various examples obtained in this way is an image as shown in FIG.

(第2実施形態)
上述の第1実施形態では、本願発明を予め与えられた複数の画像に適用して中間画像や、動画像を生成するものであったが、本実施形態では、インターネットにより接続されたサーバにクライアント装置がアクセスすることにより、サーバ内に有する複数の画像から中間画像を生成してクライアント装置に提供するものである。
(Second Embodiment)
In the first embodiment described above, the present invention is applied to a plurality of images given in advance to generate an intermediate image or a moving image. In this embodiment, a client is connected to a server connected via the Internet. When the device accesses, an intermediate image is generated from a plurality of images in the server and provided to the client device.

本実施形態では、サーバはクライアント装置に対して、例えば商品広告や商品情報を提供するが、その際商品の画像に本願発明の技術を適用して画像処理を施し、顧客の興味をより引くようにすることができる。すなわち、顧客がクライアント装置から所望の商品を選択して情報の提供を要求すると、サーバは対応する商品のその他の情報とともに予め格納されている商品の画像に本願発明を適用して新たな画像を生成し、クライアント装置に送信する。具体的には、複数枚の商品画像から中間画像を生成するが、例えば自動車の正面からの写真と横方向からの写真を基に斜めから見た画像を生成して出力したり、生活用品の静止画から動画を生成して実際の使用状況を説明させたりすることができる。本願発明を使用すると、適切な対応点の抽出により自然な中間画像が得られるだけでなく、計算を効率化できるので、インターネットを介した対話型のシステムにも高速処理を行って対応可能なのである。   In this embodiment, the server provides, for example, product advertisements and product information to the client device. At that time, the image of the product is applied to the image of the product to perform image processing so as to attract more customers' interest. Can be. That is, when the customer selects a desired product from the client device and requests provision of information, the server applies the present invention to the image of the product stored in advance together with other information of the corresponding product, and creates a new image. Generate and send to client device. Specifically, an intermediate image is generated from a plurality of product images. For example, an image viewed obliquely based on a photograph from the front of a car and a photograph from a lateral direction can be generated and output, or It is possible to generate a moving image from a still image and explain the actual usage situation. By using the present invention, not only a natural intermediate image can be obtained by extracting appropriate corresponding points, but also the calculation can be made more efficient, so it is possible to cope with interactive systems via the Internet by performing high-speed processing. .

以上により、本願発明を用いることにより、インターネットを介した商品情報の提供が可能となる。   As described above, by using the present invention, product information can be provided via the Internet.

本発明にかかる一実施形態の画像と画像との間でそれぞれ対応する点を抽出することを説明する図である。It is a figure explaining extracting the point respectively corresponding between the image of one Embodiment concerning this invention, and an image. 本発明にかかる一実施形態のシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of one Embodiment concerning this invention. 本実施形態の機能モジュールの構成を示す図である。It is a figure which shows the structure of the functional module of this embodiment. 本実施形態の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of this embodiment. 本実施形態の処理の対応点の探索について説明するための図である。It is a figure for demonstrating the search of the corresponding point of the process of this embodiment. 本実施形態の処理の近傍について説明するための図である。It is a figure for demonstrating the vicinity of the process of this embodiment. 本実施形態の処理の解像度について説明するための図である。It is a figure for demonstrating the resolution of the process of this embodiment.

符号の説明Explanation of symbols

201 コンピュータ
202 画面
203 入力部
204 データベース
103 ネットワーク
104 サーバ
301 特徴量抽出部
302 対応点抽出部
303 中間画像抽出部
201 Computer 202 Screen 203 Input unit 204 Database 103 Network 104 Server 301 Feature amount extraction unit 302 Corresponding point extraction unit 303 Intermediate image extraction unit

Claims (10)

ニューラルネットワークにより2つの画像間の対応点を抽出して画像を生成する方法であって、
前記2つの画像を各々相互に重ならない複数の領域に分割して、当該分割された領域のそれぞれにおける特徴量ベクトルを算出する特徴量算出ステップと、
第1の画像の任意の1つの領域について、位置ベクトル間の距離と前記算出された特徴量ベクトル間の距離とを引数とする探索関数の値が最小となる第2の画像の領域を探索する領域探索と、前記任意の1つの領域について探索された領域と、探索前の領域との空間差異により2つの画像間の対応関係マッピング情報を生成するマッピング情報生成とを複数回繰り返すことにより2つの画像間の対応点を抽出する抽出ステップと、
前記抽出された2つの画像間の任意の画像における各々の対応点の移動量を算出することにより中間画像を取得するステップと
を備えたことを特徴とする方法。
A method of generating an image by extracting corresponding points between two images by a neural network,
A feature amount calculating step of dividing the two images into a plurality of regions that do not overlap each other and calculating a feature amount vector in each of the divided regions;
For an arbitrary region of the first image, a region of the second image in which the value of the search function having the argument between the distance between the position vectors and the calculated distance between the feature vectors is minimized is searched. By repeating the area search, the mapping information generation for generating the correspondence mapping information between the two images based on the spatial difference between the area searched for the one arbitrary area and the area before the search, two times are obtained. An extraction step for extracting corresponding points between images;
Obtaining an intermediate image by calculating a moving amount of each corresponding point in an arbitrary image between the two extracted images.
前記特徴量ベクトルは、前記領域内の輝度を含むことを特徴とする請求項1に記載の方法。   The method according to claim 1, wherein the feature amount vector includes luminance in the region. 前記領域は、M×N個の矩形領域であることを特徴とする請求項1または2に記載の方法。   The method according to claim 1, wherein the area is M × N rectangular areas. 前記抽出ステップは、前記M×N個の矩形領域に各々対応して作成されたM×N個のノードからなる自己組織化写像を用いて前記2つの画像間の対応点を抽出することを特徴とする請求項3に記載の方法。   In the extracting step, corresponding points between the two images are extracted using a self-organizing map composed of M × N nodes respectively created corresponding to the M × N rectangular regions. The method according to claim 3. 前記探索関数は、前記位置ベクトル間の距離と、前記算出された特徴量ベクトル間の距離に特徴量の位置に対する重みを乗算した値とを加算する関数であることを特徴とする請求項1ないし4のいずれかに記載の方法。   The search function is a function for adding a distance between the position vectors and a value obtained by multiplying the calculated distance between the feature quantity vectors by a weight for the position of the feature quantity. 5. The method according to any one of 4. 前記抽出ステップは、前記第1の画像の任意の1つの領域をランダムに選択することを特徴とする請求項1ないし5のいずれかに記載の方法。   The method according to claim 1, wherein the extracting step randomly selects an arbitrary region of the first image. 前記マッピング情報生成は、前記探索した第2の画像の領域およびその近傍について、前記第1の画像の対応する領域との距離に学習率定数を乗じた値だけ当該対応する方向に移動させて、第1の画像の領域と対応する第2の画像の領域との関係をマッピング情報として生成することにより実行することを特徴とする請求項1ないし6のいずれかに記載の方法。   In the mapping information generation, the area of the searched second image and its vicinity are moved in the corresponding direction by a value obtained by multiplying the distance from the corresponding area of the first image by a learning rate constant, The method according to claim 1, wherein the method is executed by generating a relationship between a first image area and a corresponding second image area as mapping information. 前記抽出ステップは、前記領域探索およびマッピング情報生成を、前記マッピング生成で移動した移動量が所定の閾値以下になるまで繰り返すことを特徴とする請求項7に記載の方法。   The method according to claim 7, wherein the extraction step repeats the area search and mapping information generation until a movement amount moved by the mapping generation becomes a predetermined threshold value or less. ニューラルネットワークにより2つの画像間の対応点を抽出して画像を生成する画像生成装置であって、
前記2つの画像を各々相互に重ならない複数の領域に分割して、当該分割された領域のそれぞれにおける特徴量ベクトルを算出する特徴量算出手段と、
第1の画像の任意の1つの領域について、位置ベクトル間の距離と前記算出された特徴量ベクトル間の距離とを引数とする探索関数の値が最小となる第2の画像の領域を探索する領域探索と、前記任意の1つの領域について探索された領域と、探索前の領域との空間差異により2つの画像間の対応関係マッピング情報を生成するマッピング情報生成とを複数回繰り返すことにより2つの画像間の対応点を抽出する抽出手段と、
前記抽出された2つの画像間の任意の画像における各々の対応点の移動量を算出することにより中間画像を取得する手段と
を備えたことを特徴とする画像移動を算出する画像生成装置。
An image generation apparatus for generating an image by extracting corresponding points between two images by a neural network,
A feature amount calculating means for dividing the two images into a plurality of regions that do not overlap each other and calculating a feature amount vector in each of the divided regions;
For an arbitrary region of the first image, a region of the second image in which the value of the search function having the argument between the distance between the position vectors and the calculated distance between the feature vectors is minimized is searched. By repeating the area search, the mapping information generation for generating the correspondence mapping information between the two images based on the spatial difference between the area searched for the one arbitrary area and the area before the search, two times are obtained. Extraction means for extracting corresponding points between images;
An image generation apparatus for calculating image movement, comprising: means for acquiring an intermediate image by calculating a movement amount of each corresponding point in an arbitrary image between the two extracted images.
コンピュータに、ニューラルネットワークにより2つの画像間の対応点を抽出して画像を生成する方法を実行させるプログラムであって、前記方法は、
前記2つの画像を各々相互に重ならない複数の領域に分割して、当該分割された領域のそれぞれにおける特徴量ベクトルを算出する特徴量算出ステップと、
第1の画像の任意の1つの領域について、位置ベクトル間の距離と前記算出された特徴量ベクトル間の距離とを引数とする探索関数の値が最小となる第2の画像の領域を探索する領域探索と、前記任意の1つの領域について探索された領域と、探索前の領域との空間差異により2つの画像間の対応関係マッピング情報を生成するマッピング情報生成とを複数回繰り返すことにより2つの画像間の対応点を抽出する抽出ステップと、
前記抽出された2つの画像間の任意の画像における各々の対応点の移動量を算出することにより中間画像を取得するステップと
を備えたことを特徴とするプログラム。
A program for causing a computer to execute a method of generating an image by extracting corresponding points between two images by a neural network, the method comprising:
A feature amount calculating step of dividing the two images into a plurality of regions that do not overlap each other and calculating a feature amount vector in each of the divided regions;
For an arbitrary region of the first image, a region of the second image in which the value of the search function having the argument between the distance between the position vectors and the calculated distance between the feature vectors is minimized is searched. By repeating the area search, the mapping information generation for generating the correspondence mapping information between the two images based on the spatial difference between the area searched for the one arbitrary area and the area before the search, two times are obtained. An extraction step for extracting corresponding points between images;
And a step of acquiring an intermediate image by calculating a movement amount of each corresponding point in an arbitrary image between the two extracted images.
JP2008048753A 2008-02-28 2008-02-28 Image generating apparatus and method Expired - Fee Related JP5071900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008048753A JP5071900B2 (en) 2008-02-28 2008-02-28 Image generating apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008048753A JP5071900B2 (en) 2008-02-28 2008-02-28 Image generating apparatus and method

Publications (2)

Publication Number Publication Date
JP2009205553A true JP2009205553A (en) 2009-09-10
JP5071900B2 JP5071900B2 (en) 2012-11-14

Family

ID=41147717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008048753A Expired - Fee Related JP5071900B2 (en) 2008-02-28 2008-02-28 Image generating apparatus and method

Country Status (1)

Country Link
JP (1) JP5071900B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018537766A (en) * 2015-11-04 2018-12-20 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. Universal network
JP2019096130A (en) * 2017-11-24 2019-06-20 Kddi株式会社 Morphing image generation device, and morphing image generation method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268431A (en) * 2000-01-11 2001-09-28 Fujitsu Ltd Correction image generator, correction image generation method, correction image generation program recording medium and correction image generation program
JP2007148685A (en) * 2005-11-25 2007-06-14 Nippon Telegr & Teleph Corp <Ntt> Image information extraction method, image information retrieval method, and program
JP2007323177A (en) * 2006-05-30 2007-12-13 Fuji Heavy Ind Ltd Image processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268431A (en) * 2000-01-11 2001-09-28 Fujitsu Ltd Correction image generator, correction image generation method, correction image generation program recording medium and correction image generation program
JP2007148685A (en) * 2005-11-25 2007-06-14 Nippon Telegr & Teleph Corp <Ntt> Image information extraction method, image information retrieval method, and program
JP2007323177A (en) * 2006-05-30 2007-12-13 Fuji Heavy Ind Ltd Image processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018537766A (en) * 2015-11-04 2018-12-20 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. Universal network
JP2019096130A (en) * 2017-11-24 2019-06-20 Kddi株式会社 Morphing image generation device, and morphing image generation method

Also Published As

Publication number Publication date
JP5071900B2 (en) 2012-11-14

Similar Documents

Publication Publication Date Title
CN110163640B (en) Method for implanting advertisement in video and computer equipment
US8624901B2 (en) Apparatus and method for generating facial animation
CN109583509B (en) Data generation method and device and electronic equipment
US20230342592A1 (en) Controlling a neural network through intermediate latent spaces
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
CN117256019A (en) Multi-resolution attention network for video motion recognition
JP7437738B2 (en) Machine learning system, training dataset generation system, and machine learning program
JP2019219914A (en) Image generation device, image generator, image discriminator, image generation program, and image generation method
JP2019204476A (en) Image creation device, image creation method, and program
WO2013055914A2 (en) Systems and methods for creating texture exemplars
JP2022546681A (en) Easy interpretation of classification models
JP2020177495A (en) Moving image generator, moving image generation method, program, and storage medium
EP4172862A1 (en) Object recognition neural network for amodal center prediction
Houdard et al. Wasserstein generative models for patch-based texture synthesis
JP5071900B2 (en) Image generating apparatus and method
CN116097319A (en) High resolution controllable facial aging using spatially aware conditional GAN
CN113610989A (en) Method and device for training style migration model and method and device for style migration
AU2019200269B2 (en) An interactive user interface and its corresponding engine for improving image completion quality
US20230290132A1 (en) Object recognition neural network training using multiple data sources
CN114663980A (en) Behavior recognition method, and deep learning model training method and device
JPWO2004093006A1 (en) Knowledge discovery apparatus, knowledge discovery program, and knowledge discovery method
Lee et al. CartoonModes: Cartoon stylization of video objects through modal analysis
JP2019220133A (en) Image generation device, image generator, image discriminator, image generation program, and image generation method
JP5565671B2 (en) Image deformation method, image processing apparatus, and computer program
RU2770132C1 (en) Image generators with conditionally independent pixel synthesis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120813

R150 Certificate of patent or registration of utility model

Ref document number: 5071900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150831

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees