JP2003153159A - Method and device for processing image and computer program - Google Patents

Method and device for processing image and computer program

Info

Publication number
JP2003153159A
JP2003153159A JP2001345290A JP2001345290A JP2003153159A JP 2003153159 A JP2003153159 A JP 2003153159A JP 2001345290 A JP2001345290 A JP 2001345290A JP 2001345290 A JP2001345290 A JP 2001345290A JP 2003153159 A JP2003153159 A JP 2003153159A
Authority
JP
Japan
Prior art keywords
image
key frame
voice
sound
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001345290A
Other languages
Japanese (ja)
Inventor
Giyouzo Akiyoshi
仰三 秋吉
Nobuo Akiyoshi
信雄 秋吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Monolith Co Ltd
Original Assignee
Monolith Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Monolith Co Ltd filed Critical Monolith Co Ltd
Priority to JP2001345290A priority Critical patent/JP2003153159A/en
Publication of JP2003153159A publication Critical patent/JP2003153159A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an encoding and decoding technology for realizing high compressibility and high image quality. SOLUTION: An image inputting part 12 acquires an image showing a facial expression when a person says a word as a key frame in each voice KF. A voice recognizing part 18 recognizes each voice included in voice data S acquired by a voice inputting part 16. An arranging part 20 decides an arrangement of key frames KF so as to make voices to be in the order of each of recognized voices. A processor 22 acquires corresponding point information C between adjacent key frames KF in the decided arrangement. A stream generating part 24 generates an encoded data stream CI in a form including a key frame KF corresponding to the each of recognized voices and the corresponding point information C.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、画像処理技術に
関し、とくにネットワークを介して画像データの送受信
を行う際に、受信側で滑らかな動画の再生を行うための
符号化および復号方法と装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique, and more particularly to an encoding and decoding method and apparatus for smoothly reproducing a moving image on the receiving side when transmitting and receiving image data via a network. .

【0002】[0002]

【従来の技術】携帯電話の爆発的な普及に伴い、携帯電
話端末を利用したメールや静止画像データのやり取りも
盛んに行われるようになってきた。今後は携帯電話端末
を用いた高品質の動画像データの配信が望まれる。
2. Description of the Related Art With the explosive spread of mobile phones, the exchange of e-mails and still image data using mobile phone terminals has become popular. In the future, delivery of high quality moving image data using mobile phone terminals is desired.

【0003】[0003]

【発明が解決しようとする課題】ネットワークを介した
動画像データの配信は、圧縮符号化技術なしに考えるこ
とはできない。特に携帯電話の商品価値は、その軽量
性、長い電池寿命、安いハードウエアコスト、軽快な操
作性などにあり、重たい画像データを長い時間をかけて
ダウンロードすることは嫌われる。また、そうした重い
画像データを処理するためのCPUパワーも消費電力的
に不利である。
The distribution of moving image data via a network cannot be considered without a compression coding technique. In particular, the commercial value of a mobile phone is its light weight, long battery life, low hardware cost, and light operability, and it is reluctant to download heavy image data over a long period of time. Further, the CPU power for processing such heavy image data is also disadvantageous in terms of power consumption.

【0004】そこで、携帯電話端末における圧縮符号化
を実現する方法として、より高い圧縮率と画質の両立を
可能とする技術が望まれる。
Therefore, as a method for realizing the compression coding in the mobile phone terminal, a technique that enables both higher compression rate and image quality is desired.

【0005】この発明はそうした状況に鑑みてなされた
ものであり、その目的は、良好な動画の圧縮技術を提供
することにある。
The present invention has been made in view of such a situation, and an object thereof is to provide a good moving picture compression technique.

【0006】[0006]

【課題を解決するための手段】以下、本発明の画像符号
化技術および画像復号技術は、2枚の静止画像からその
中間画像を生成してこれを動画として生成する場合につ
いて説明するが、本質的には動画像の圧縮技術に関す
る。
The image coding technique and the image decoding technique of the present invention will be described below for the case of generating an intermediate image from two still images and generating this as a moving image. Specifically, it relates to a moving image compression technique.

【0007】[0007]

【課題を解決するための手段】本発明のある態様は、画
像処理方法に関する。この方法は、映像を表示可能な端
末において、音声に変換可能なデータを取得する工程
と、変換後の音声に対応する画像をキーフレームとして
取得する工程と、取得したキーフレームをもとに中間画
像を生成して、動画を生成する工程と、音声に同期させ
て動画を表示する工程とを含む。中間画像を生成する工
程は、多重解像度特異点フィルタを利用してもよいし、
オプチカルフローや動きベクトルなどの手法を用いても
よい。
One aspect of the present invention relates to an image processing method. In this method, a terminal capable of displaying video acquires data that can be converted into audio, acquires an image corresponding to the audio after conversion as a key frame, and intermediates based on the acquired key frame. The method includes the steps of generating an image and generating a moving image, and displaying the moving image in synchronization with the sound. The step of generating the intermediate image may utilize a multi-resolution singularity filter,
A method such as optical flow or motion vector may be used.

【0008】ここで「音声に変換可能なデータ」とは、
一般には音声データが想定されるがそれに限らず、テキ
ストデータであってもよい。キーフレームには所定の音
声が対応づけられており、例えば「あ」という音声に
は、それを発音する際の顔の表情がキーフレームとして
対応してもよい。顔の表情は、一般に人間の顔が使用さ
れるが、これに限る趣旨でなく動物、たとえば犬や猫な
どペットであってもよい。音声と表情の対応付けは任意
であってもよい。特に、動物の場合特定の音声と表情を
対応づけるのは難しいので、任意の表情に特定の音声を
対応づけてもよい。
Here, "data that can be converted into voice" means
Generally, voice data is assumed, but not limited to this, text data may be used. A predetermined voice is associated with the key frame. For example, the voice "a" may correspond to the facial expression when the voice is pronounced as a key frame. A human face is generally used as the facial expression, but the present invention is not limited to this, and may be an animal, for example, a pet such as a dog or cat. The correspondence between the voice and the facial expression may be arbitrary. In particular, in the case of animals, it is difficult to associate a specific voice with a facial expression, so a specific voice may be associated with an arbitrary facial expression.

【0009】また、異なる音声であっても、その発音の
表情が略同一である場合、それら音声は同一のキーフレ
ームに対応づけられてもよい。例えば「あ」の音声と
「か」の音声を発音する表情が似ていれば同一のキーフ
レームに「あ」と「か」を対応づける。
[0009] Further, even if different sounds are generated, the sounds may be associated with the same key frame if the expressions of their pronunciations are substantially the same. For example, if the facial expressions for pronouncing the voice of "a" and the voice of "ka" are similar, "a" and "ka" are associated with the same key frame.

【0010】これにより、音声データであれば例えばテ
レビ電話のように相手の映像を動画として見ながら通話
をすることができる。また、一つのキーフレームに対応
づけられる音声の数はいくつでもよい。一つのキーフレ
ームに多くの音声が対応づけられた場合、用意すべきキ
ーフレームが少なくてすむ。
As a result, it is possible to make a call while viewing the image of the other party as a moving image such as a videophone as long as it is voice data. Also, any number of voices can be associated with one key frame. When many voices are associated with one key frame, fewer key frames need to be prepared.

【0011】テレビ電話は通常の音声のみの通話と比べ
多くの帯域を必要とされるが、特に携帯電話でテレビ電
話を実現する場合、その帯域占有に比例してに課金する
ことは出来ず通信事業者にとって悩みであり、またユー
ザにとっては回線が混んで不便になるといった問題点が
ある。そこで、用意すべきキーフレームを、例えば5、
6枚といった少ない枚数に抑えることで、擬似的ではあ
るが前述の問題点を意識せず携帯電話でもテレビ電話が
実現できる。中間画像の枚数は、受信装置の処理能力に
依存し、その能力が低い場合はあえて中間画像を生成せ
ずに、キーフレームのみを表示してもよい。
Although a videophone requires a larger band than a normal voice-only call, when a videophone is realized by a mobile phone, it is not possible to charge in proportion to the band occupation, and communication is not possible. There is a problem in that it is troublesome for the business operator and that the line is inconvenient for the user. Therefore, the key frame to be prepared is, for example, 5,
By suppressing the number to a small number such as 6, it is possible to realize a videophone with a mobile phone without being aware of the above-mentioned problems, although it is a pseudo. The number of intermediate images depends on the processing capability of the receiving device, and if the capability is low, only the key frame may be displayed without intentionally generating an intermediate image.

【0012】当該方法はキーフレームを保存する工程を
さらに含み、音声に対応する画像をキーフレームとして
取得する工程は、音声に変換可能なデータを取得する工
程に先立って画像を取得し保存しておくことで、キーフ
レームより動画像を生成する状況になった場合、保存さ
れているキーフレームを利用することで通信データ量を
抑制してもよい。特定の相手と通信することが多い場
合、通話のたびにキーフレームを取得することは効率が
悪い。したがって、一般的な通話では相手を特定するこ
とが出来るので、特定した相手に対応づけられたキーフ
レームが既に保存されている場合、その保存されている
キーフレームを選択し中間画像を生成し動画を表示す
る。また、着信に限らず、発信する際も既に登録済みの
相手であれば、そのキーフレームを使用し通話中に動画
を生成してもよい。
The method further includes the step of saving the key frame, wherein the step of acquiring the image corresponding to the sound as the key frame acquires and saves the image prior to the step of acquiring the data convertible to the sound. By setting this, if a situation occurs in which a moving image is generated from a key frame, the amount of communication data may be suppressed by using the saved key frame. When often communicating with a specific party, it is inefficient to acquire a key frame for each call. Therefore, in a general call, the other party can be specified. Therefore, if the key frame associated with the specified party is already saved, the saved key frame is selected and an intermediate image is generated to create a video. Is displayed. Further, not only for incoming calls but also for outgoing calls, if the other party is already registered, the key frame may be used to generate a moving image during a call.

【0013】また、キーフレームは通話相手自身の表情
の画像である必要はなく、別の対象の画像が使用されて
もよい。たとえば、スポーツ選手や俳優の画像を使用し
て、動画を表示してもよい。それは、ネットワーク上の
所定のサイトから取得されてもよい。
The key frame need not be an image of the facial expression of the other party of the call, but an image of another target may be used. For example, a video may be displayed using images of athletes and actors. It may be obtained from a given site on the network.

【0014】本発明の別の態様も、画像処理方法に関す
る。この方法は、映像を表示可能な端末において、情報
の着信があったとき、動画と所定の音声にてその旨を知
らせる方法であって、その音声に対応する画像をキーフ
レームとして取得する工程と、取得したキーフレームを
もとに中間画像を生成して動画を生成する工程と、前記
音声に同期させて生成した動画を表示する工程とを含
む。
Another aspect of the present invention also relates to an image processing method. This method is a method of notifying that by a moving image and a predetermined voice when information is received on a terminal capable of displaying a video, and a step of acquiring an image corresponding to the voice as a key frame. , And a step of generating an intermediate image based on the acquired key frame to generate a moving image, and a step of displaying the generated moving image in synchronization with the sound.

【0015】電子メールや通話の着信の際に、「Aさん
より着信があります」と音声とともに動画を表示させ通
知を行ってもよい。あらかじめ電子メールにキーフレー
ムとなる画像を添付してもらいそれをもとに中間画像を
作成し動画を表示してもよい。
When receiving an e-mail or a call, a moving image may be displayed together with a voice saying "There is an incoming call from Mr. A" to notify the user. An image may be attached to an email in advance as a key frame, and an intermediate image may be created based on the image to display a moving image.

【0016】本発明の別の態様は、画像配信方法に関す
る。この方法は、音声に対応づけられた顔の表情の画像
をネットワーク上の所定のサイトに保持する工程と、ユ
ーザの要請に応じて、そのユーザに対して画像を配信す
る工程を含む。これら画像は静止画、動画を問わず、ま
たこの配信は有償無償を問わない。
Another aspect of the present invention relates to an image distribution method. This method includes the steps of holding an image of facial expressions associated with voice at a predetermined site on the network, and delivering the image to the user in response to the user's request. These images may be still images or moving images, and this distribution may be paid or free.

【0017】本発明のまた別の態様は画像処理方法に関
する。この方法は、特定音を発声するときのユーザの表
情を撮影した画像をその特定音と関連づけて保持してお
き、ユーザが前記特定音の連続に係る単語または文章を
発声したとき、その単語または文章を構成する特定音に
対応する画像を連続的かつ円滑化処理を加えたうえで表
示する。また、円滑化処理はモーフィングであってもよ
い。
Yet another aspect of the present invention relates to an image processing method. In this method, an image obtained by capturing the facial expression of the user when uttering a specific sound is held in association with the specific sound, and when the user utters a word or sentence relating to the continuation of the specific sound, the word or An image corresponding to a specific sound forming a sentence is displayed continuously and after smoothing processing. The smoothing process may be morphing.

【0018】本発明の別の態様も画像処理方法に関す
る。この方法は、ネットワーク上の所定のサイトより、
音声が対応づけられた画像をキーフレームとして取得し
保存する工程と、音声に変換可能なデータを取得する工
程と、データの変換後の音声に対応するキーフレームを
保存されているキーフレームから選択する工程と、それ
らキーフレームをもとに多重解像度特異点フィルタを用
いて中間画像を生成し動画を生成する工程と、その動画
と音声とを同期させ出力する工程とを含む。
Another aspect of the present invention also relates to an image processing method. This method, from a predetermined site on the network,
A step of acquiring and storing an image to which a sound is associated as a key frame, a step of acquiring data that can be converted into a sound, and a key frame corresponding to the sound after the data conversion is selected from the saved key frames. And a step of generating an intermediate image by using a multi-resolution singularity filter based on those key frames to generate a moving image, and a step of synchronizing and outputting the moving image and the sound.

【0019】本発明の別の態様は画像処理装置に関す
る。この装置は、音声に変換可能なデータを取得するデ
ータ入力部と、そのデータを音声に変換する音声変換部
と、変換後の音声に対応したキーフレームを取得する画
像取得部と、音声とキーフレームを対応づける対応部
と、キーフレームをもとに多重解像度特異点フィルタを
利用して中間画像を生成し動画を生成する中間画像生成
部と、音声を出力する音声出力部と、その動画を音声と
同期させ出力する画像出力部とを含む。取得したキーフ
レームを保存するキーフレーム保存部をさらに含んでも
よい。
Another aspect of the present invention relates to an image processing apparatus. This device includes a data input unit that acquires data that can be converted into voice, a voice conversion unit that converts that data into voice, an image acquisition unit that acquires a key frame corresponding to the voice after conversion, voice and a key. A correspondence unit that associates frames, an intermediate image generation unit that generates an intermediate image by using a multi-resolution singularity filter based on a key frame to generate a moving image, an audio output unit that outputs audio, and the moving image And an image output unit for outputting in synchronization with voice. It may further include a key frame storage unit that stores the acquired key frame.

【0020】また、画像取得部は、ネットワーク上の所
定のサイトよりキーフレームを取得し、キーフレーム保
存部に保存してもよく、音声に変換可能なデータととも
に送信されるキーフレームを取得してもよい。画像取得
部は、さらにキーフレームが取得済みか否かを判定し、
未取得のキーフレームのみ取得しキーフレーム保存部に
保存してもよい。画像取得部は、保存されているキーフ
レームから所望のキーフレームを選択する機能も有して
もよいし、この機能を有する画像選択部を別途設けても
よい。
The image acquisition unit may acquire a key frame from a predetermined site on the network and store the key frame in the key frame storage unit. Good. The image acquisition unit further determines whether the key frame has been acquired,
It is also possible to acquire only key frames that have not been acquired yet and store them in the key frame storage unit. The image acquisition unit may have a function of selecting a desired key frame from the stored key frames, or an image selection unit having this function may be separately provided.

【0021】本発明の別の態様はコンピュータプログラ
ムに関する。このプログラムは、映像を表示可能な端末
において、音声に変換可能なデータを取得する工程と、
変換後の音声に対応する画像をキーフレームとして取得
する工程と、取得したキーフレームをもとに中間画像を
生成して動画を生成する工程と、音声に同期させて動画
を表示する工程とをコンピュータに実行させる。
Another aspect of the invention relates to a computer program. This program includes a step of acquiring data that can be converted into audio on a terminal capable of displaying video,
A step of acquiring an image corresponding to the converted sound as a key frame, a step of generating an intermediate image based on the acquired key frame to generate a moving image, and a step of displaying the moving image in synchronization with the sound. Let the computer run.

【0022】本発明の別の態様もコンピュータプログラ
ムに関する。このプログラムは、映像を表示可能な端末
において、情報の着信があったとき、動画と所定の音声
にてその旨を知らせるプログラムであって、その音声に
対応する画像をキーフレームとして取得する工程と、取
得したキーフレームをもとに中間画像を生成して動画を
生成する工程と音声に同期させて動画を表示する工程と
をコンピュータに実行させる。
Another aspect of the present invention also relates to a computer program. This program is a program for notifying the user of the arrival of information by a moving image and a predetermined voice when a terminal capable of displaying a video receives a step of acquiring an image corresponding to the voice as a key frame. , Causing the computer to execute a step of generating an intermediate image based on the acquired key frame to generate a moving image and a step of displaying the moving image in synchronization with the sound.

【0023】以上の各構成部材や処理内容を任意に入れ
替えたり、方法と装置の間で表現を一部または全部入れ
替え、または追加したり、表現をコンピュータプログラ
ム、記録媒体等に変更したものもまた、本発明として有
効である。
It is also possible to arbitrarily replace the above components and processing contents, replace part or all of the expressions between the method and the apparatus, or add the expressions, or change the expressions to a computer program, a recording medium, or the like. The present invention is effective.

【0024】[0024]

【発明の実施の形態】はじめに、実施の形態で利用する
多重解像度特異点フィルタ技術とそれを用いた画像マッ
チング処理を「前提技術」として詳述する。これらの技
術は本出願人がすでに特許第2927350号を得てい
る技術であり、本発明との組合せに最適である。ただ
し、実施の形態で採用可能な画像マッチング技術はこれ
に限られない。図18以降、前提技術を利用した画像処
理技術を具体的に説明する。 [前提技術の背景]最初に[1]で前提技術の要素技術の
詳述し、[2]で処理手順を具体的に説明する。さらに
[3]で実験の結果を報告する。
BEST MODE FOR CARRYING OUT THE INVENTION First, a multiresolutional singularity filter technique used in the embodiments and an image matching process using the technique will be described in detail as a "base technique". These techniques are the ones that the applicant has already obtained in Japanese Patent No. 2927350, and are optimal for combination with the present invention. However, the image matching technique that can be adopted in the embodiment is not limited to this. From FIG. 18 onward, the image processing technology using the base technology will be specifically described. [Background of prerequisite technology] First, the elemental technology of the prerequisite technology will be described in detail in [1], and the processing procedure will be specifically described in [2]. In addition, we will report the results of the experiment in [3].

【0025】[1]要素技術の詳細 [1.1]イントロダクション 特異点フィルタと呼ばれる新たな多重解像度フィルタを
導入し、画像間のマッチングを正確に計算する。オブジ
ェクトに関する予備知識は一切不要である。画像間のマ
ッチングの計算は、解像度の階層を進む間、各解像度に
おいて計算される。その際、粗いレベルから精細なレベ
ルへと順に解像度の階層を辿っていく。計算に必要なパ
ラメータは、人間の視覚システムに似た動的計算によっ
て完全に自動設定される。画像間の対応点を人手で特定
する必要はない。
[1] Details of Elemental Technology [1.1] Introduction A new multi-resolution filter called a singular point filter is introduced to accurately calculate matching between images. No prior knowledge of objects is required. The calculation of matching between images is calculated at each resolution while going through the hierarchy of resolutions. In that case, the hierarchy of resolution is traced in order from a coarse level to a fine level. The parameters required for the calculation are fully automatic set by a dynamic calculation similar to the human visual system. It is not necessary to manually specify the corresponding points between images.

【0026】本前提技術は、例えば完全に自動的なモー
フィング、物体認識、立体写真測量、ボリュームレンダ
リング、少ないフレームからの滑らかな動画の生成など
に応用できる。モーフィングに用いる場合、与えられた
画像を自動的に変形することができる。ボリュームレン
ダリングに用いる場合、断面間の中間的な画像を正確に
再構築することができる。断面間の距離が遠く、断面の
形状が大きく変化する場合でも同様である。
The base technology can be applied to, for example, completely automatic morphing, object recognition, stereoscopic photogrammetry, volume rendering, and generation of smooth moving images from a small number of frames. When used for morphing, a given image can be transformed automatically. When used for volume rendering, it is possible to accurately reconstruct an intermediate image between cross sections. The same applies when the distance between the cross sections is large and the shape of the cross section changes significantly.

【0027】[1.2]特異点フィルタの階層 前提技術に係る多重解像度特異点フィルタは、画像の解
像度を落としながら、しかも画像に含まれる各特異点の
輝度及び位置を保存することができる。ここで画像の幅
をN、高さをMとする。以下簡単のため、N=M=2
(nは自然数)と仮定する。また、区間[0,N]⊂R
をIと記述する。(i,j)における画像の画素をp
(i,j)と記述する(i,j∈I)。
[1.2] Hierarchical Singularity Filter Hierarchy The multi-resolutional singularity filter according to the prerequisite technique can reduce the resolution of an image while preserving the brightness and position of each singularity contained in the image. Here, the width of the image is N and the height is M. For simplicity, N = M = 2 n
(N is a natural number). Also, the interval [0, N] ⊂R
Is described as I. Let p be the pixel of the image at (i, j)
It is described as (i, j) (i, jεI).

【0028】ここで多重解像度の階層を導入する。階層
化された画像群は多重解像度フィルタで生成される。多
重解像度フィルタは、もとの画像に対して二次元的な探
索を行って特異点を検出し、検出された特異点を抽出し
てもとの画像よりも解像度の低い別の画像を生成する。
ここで第mレベルにおける各画像のサイズは2×2
(0≦m≦n)とする。特異点フィルタは次の4種類の
新たな階層画像をnから下がる方向で再帰的に構築す
る。
Here, a multi-resolution hierarchy is introduced. hierarchy
The digitized image group is generated by a multi-resolution filter. Many
The double resolution filter is a two-dimensional search for the original image.
Search for singularities and extract the detected singularities
Generate another image with a lower resolution than the original image.
Here, the size of each image at the m-th level is 2m× 2 m
(0 ≦ m ≦ n). There are four types of singularity filters:
Construct a new hierarchical image recursively downward from n
It

【0029】[0029]

【数1】 ただしここで、[Equation 1] However, here

【数2】 とする。以降これら4つの画像を副画像(サブイメー
ジ)と呼ぶ。minx≦t ≦x+1、max
x≦t≦x+1をそれぞれα及びβと記述すると、副画
像はそれぞれ以下のように記述できる。
[Equation 2] And Hereinafter, these four images will be referred to as sub-images. min x ≦ t ≦ x + 1 , max
When x ≦ t ≦ x + 1 is described as α and β, the sub-images can be described as follows.

【0030】 P(m,0)=α(x)α(y)p(m+1,0) (m,1)=α(x)β(y)p(m+1,1) (m,2)=β(x)α(y)p(m+1,2) P(m,3)=β(x)β(y)p(m+1,3) すなわち、これらはαとβのテンソル積のようなものと
考えられる。副画像はそれぞれ特異点に対応している。
これらの式から明らかなように、特異点フィルタはもと
の画像について2×2画素で構成されるブロックごとに
特異点を検出する。その際、各ブロックのふたつの方
向、つまり縦と横について、最大画素値または最小画素
値をもつ点を探索する。画素値として、前提技術では輝
度を採用するが、画像に関するいろいろな数値を採用す
ることができる。ふたつの方向の両方について最大画素
値となる画素は極大点、ふたつの方向の両方について最
小画素値となる画素は極小点、ふたつの方向の一方につ
いて最大画素値となるとともに、他方について最小画素
値となる画素は鞍点として検出される。
[0030] P(M, 0)= Α (x) α (y) p(M + 1,0) P(M, 1)= Α (x) β (y) p(M + 1,1) P(M, 2)= Β (x) α (y) p(M + 1, 2) P(M, 3)= Β (x) β (y) p(M + 1,3) That is, they are like the tensor product of α and β
Conceivable. Each sub-image corresponds to a singular point.
As is clear from these equations, the singularity filter
For each block of 2 × 2 pixels
Detect singularity. At that time, two people of each block
The maximum pixel value or the minimum pixel in the direction, that is, in the vertical and horizontal directions
Search for points with values. As a pixel value, it is bright in the base technology.
Degree, but various numerical values related to images are used.
You can Maximum pixels in both directions
The value pixel is the maximum for both the maximum point and the two directions.
Pixels with a small pixel value are the minimum point and one of the two directions.
Is the maximum pixel value, and the other is the minimum pixel value.
Pixels having a value are detected as saddle points.

【0031】特異点フィルタは、各ブロックの内部で検
出された特異点の画像(ここでは1画素)でそのブロッ
クの画像(ここでは4画素)を代表させることにより、
画像の解像度を落とす。特異点の理論的な観点からすれ
ば、α(x)α(y)は極小点を保存し、β(x)β
(y)は極大点を保存し、α(x)β(y)及びβ
(x)α(y)は鞍点を保存する。
The singularity filter represents the image of the block (here, 4 pixels) by the image of the singularity (here, 1 pixel) detected inside each block.
Reduce the image resolution. From the theoretical point of view of the singularity, α (x) α (y) preserves the minimum point and β (x) β
(Y) preserves the maximum points, α (x) β (y) and β
(X) α (y) stores the saddle point.

【0032】はじめに、マッチングをとるべき始点(ソ
ース)画像と終点(デスティネーション)画像に対して
別々に特異点フィルタ処理を施し、それぞれ一連の画像
群、すなわち始点階層画像と終点階層画像を生成してお
く。始点階層画像と終点階層画像は、特異点の種類に対
応してそれぞれ4種類ずつ生成される。
First, a singularity filter process is separately applied to a starting point (source) image and an ending point (destination) image to be matched, and a series of image groups, that is, a starting point hierarchical image and an ending point hierarchical image are generated. Keep it. The start point hierarchical image and the end point hierarchical image are generated in four types corresponding to the types of singular points.

【0033】この後、一連の解像度レベルの中で始点階
層画像と終点階層画像のマッチングがとれらていく。ま
ずp(m,0)を用いて極小点のマッチングがとられ
る。次に、その結果に基づき、p(m,1)を用いて鞍
点のマッチングがとられ、p m,2)を用いて他の鞍
点のマッチングがとられる。そして最後にp(m,3)
を用いて極大点のマッチングがとられる。
After that, the matching between the starting point hierarchical image and the ending point hierarchical image is achieved in a series of resolution levels. First, the minimum point is matched using p (m, 0) . Then, based on the result, saddle points are matched using p (m, 1) and other saddle points are matched using p ( m, 2) . And finally p (m, 3)
The maximum points are matched using.

【0034】図1(c)と図1(d)はそれぞれ図1
(a)と図1(b)の副画像p(5, 0)を示してい
る。同様に、図1(e)と図1(f)はp(5,1)
図1(g)と図1(h)はp(5,2)、図1(i)と
図1(j)はp(5,3)をそれぞれ示している。これ
らの図からわかるとおり、副画像によれば画像の特徴部
分のマッチングが容易になる。まずp(5,0)によっ
て目が明確になる。目は顔の中で輝度の極小点だからで
ある。p(5,1)によれば口が明確になる。口は横方
向で輝度が低いためである。p(5,2)によれば首の
両側の縦線が明確になる。最後に、p(5,3)によっ
て耳や頬の最も明るい点が明確になる。これらは輝度の
極大点だからである。
FIG. 1C and FIG. 1D are respectively shown in FIG.
The sub-image p (5, 0) of (a) and FIG. 1 (b ) is shown. Similarly, in FIG. 1 (e) and FIG. 1 (f), p (5,1) ,
1 (g) and 1 (h) show p (5,2) , and FIGS. 1 (i) and 1 (j) show p (5,3) , respectively. As can be seen from these figures, the sub-image facilitates matching of characteristic portions of the image. First, p (5,0) makes the eyes clear. This is because the eyes are the minimum points of brightness in the face. The mouth becomes clear according to p (5,1) . This is because the mouth has low brightness in the lateral direction. According to p (5,2) , the vertical lines on both sides of the neck become clear. Finally, p (5,3) defines the brightest points on the ears and cheeks. This is because these are maximum points of brightness.

【0035】特異点フィルタによれば画像の特徴が抽出
できるため、例えばカメラで撮影された画像の特徴と、
予め記録しておいたいくつかのオブジェクトの特徴を比
較することにより、カメラに映った被写体を識別するこ
とができる。
Since the feature of the image can be extracted by the singularity filter, for example, the feature of the image photographed by the camera,
By comparing the characteristics of several objects recorded in advance, it is possible to identify the subject reflected in the camera.

【0036】[1.3]画像間の写像の計算 始点画像の位置(i,j)の画素をp(n) (i,j)
と書き、同じく終点画像の位置(k,l)の画素をq
(n) (k,l)で記述する。i,j,k,l∈Iとす
る。画像間の写像のエネルギー(後述)を定義する。こ
のエネルギーは、始点画像の画素の輝度と終点画像の対
応する画素の輝度の差、及び写像の滑らかさによって決
まる。最初に最小のエネルギーを持つp(m,0)とq
(m,0)間の写像f(m,0):p(m,0)→q
(m,0)が計算される。f(m,0 に基づき、最小
エネルギーを持つp(m,1)、q(m,1)間の写像
(m ,1)が計算される。この手続は、p(m,3)
とq(m,3)の間の写像f m,3)の計算が終了す
るまで続く。各写像f(m,i)(i=0,1,2,
…)を副写像と呼ぶことにする。f(m,i)の計算の
都合のために、iの順序は次式のように並べ替えること
ができる。並べ替えが必要な理由は後述する。
[1.3] Calculation of mapping between images The pixel at the position (i, j) of the starting point image is p (n) (i, j)
Similarly, the pixel at the position (k, l) of the end point image is changed to q
(N) Described in (k, l) . Let i, j, k, lεI. The energy of mapping between images (described later) is defined. This energy is determined by the difference between the brightness of the pixel of the start point image and the brightness of the corresponding pixel of the end point image, and the smoothness of the mapping. First, p (m, 0) and q with the smallest energy
Mapping between (m, 0) f (m, 0) : p (m, 0) → q
(M, 0) is calculated. Based on f (m, 0 ) , the mapping f (m , 1) between p (m, 1 ) and q (m, 1) having the minimum energy is calculated. This procedure is p (m, 3)
And q (m, 3) map f ( m, 3) until the calculation is completed. Each map f (m, i) (i = 0, 1, 2,
...) is called a submapping. For the convenience of calculating f (m, i) , the order of i can be rearranged as follows. The reason why the rearrangement is necessary will be described later.

【0037】[0037]

【数3】 ここでσ(i)∈{0,1,2,3}である。[Equation 3] Here, σ (i) ε {0, 1, 2, 3}.

【0038】[1.3.1]全単射 始点画像と終点画像の間のマッチングを写像で表現する
場合、その写像は両画像間で全単射条件を満たすべきで
ある。両画像に概念上の優劣はなく、互いの画素が全射
かつ単射で接続されるべきだからである。しかしながら
通常の場合とは異なり、ここで構築すべき写像は全単射
のディジタル版である。前提技術では、画素は格子点に
よって特定される。
[1.3.1] When the matching between the bijection start point image and the end point image is represented by a map, the map should satisfy the bijection condition between both images. This is because there is no conceptual superiority or inferiority between the two images, and pixels of each other should be connected in a bijective and injective manner. However, unlike the usual case, the mapping to be constructed here is a bijection digital version. In the base technology, pixels are specified by grid points.

【0039】始点副画像(始点画像について設けられた
副画像)から終点副画像(終点画像について設けられた
副画像)への写像は、f(m,s):I/2n−m×I
/2 n−m→I/2n−m×I/2n−m(s=0,
1,…)によって表される。ここで、f
(m,s)(i,j)=(k,l)は、始点画像のp
(m,s) (i, j)が終点画像のq(m,s)
(k,l)に写像されることを意味する。簡単のため
に、f(i,j)=(k,l)が成り立つとき画素q
(k,l)をqf(i ,j)と記述する。
Start point sub-image (provided for the start point image
From sub-image to end-point sub-image (provided for end-point image
The mapping to the sub-image is f(M, s): I / 2nm× I
/ 2 nm→ I / 2nm× I / 2nm(S = 0,
1, ...). Where f
(M, s)(I, j) = (k, l) is p of the starting point image
(M, s) (I, j)Is the end image q(M, s)
(K, l)Means to be mapped to. For simplicity
And when f (i, j) = (k, l) holds, the pixel q
(K, l)Qf (i , J)Write.

【0040】前提技術で扱う画素(格子点)のようにデ
ータが離散的な場合、全単射の定義は重要である。ここ
では以下のように定義する(i,i’,j,j’,k,
lは全て整数とする)。まず始めに、始点画像の平面に
おいてRによって表記される各正方形領域、
The definition of bijection is important when data is discrete, such as pixels (grid points) handled in the base technology. Here, it is defined as follows (i, i ', j, j', k,
l is an integer). First, each square region represented by R in the plane of the starting point image,

【数4】 を考える(i=0,…,2−1、j=0,…,2
1)。ここでRの各辺(エッジ)の方向を以下のように
定める。
[Equation 4] (I = 0, ..., 2 m −1, j = 0, ..., 2 m
1). Here, the direction of each side (edge) of R is determined as follows.

【0041】[0041]

【数5】 この正方形は写像fによって終点画像平面における四辺
形に写像されなければならない。f(m,s)(R)に
よって示される四辺形、
[Equation 5] This square must be mapped by the map f to a quadrilateral in the end image plane. a quadrilateral represented by f (m, s) (R),

【数6】 は、以下の全単射条件を満たす必要がある。[Equation 6] Must satisfy the following bijection conditions.

【0042】1.四辺形f(m,s)(R)のエッジは
互いに交差しない。 2.f(m,s)(R)のエッジの方向はRのそれらに
等しい(図2の場合、時計回り)。 3.緩和条件として収縮写像(リトラクション:retrac
tions)を許す。
1. The edges of the quadrilateral f (m, s) (R) do not intersect each other. 2. The directions of the edges of f (m, s) (R) are equal to those of R (clockwise in the case of FIG. 2). 3. Contraction map (retraction: retrac) as relaxation condition
tions).

【0043】何らかの緩和条件を設けないかぎり、全単
射条件を完全に満たす写像は単位写像しかないためであ
る。ここではf(m,s)(R)のひとつのエッジの長
さが0、すなわちf(m,s)(R)は三角形になって
もよい。しかし、面積が0となるような図形、すなわち
1点または1本の線分になってはならない。図2(R)
がもとの四辺形の場合、図2(A)と図2(D)は全単
射条件を満たすが、図2(B)、図2(C)、図2
(E)は満たさない。
This is because the mapping that completely satisfies the bijection condition is only the unit mapping unless some relaxation condition is set. Here f (m, s) the length of one edge of the (R) is 0, i.e. f (m, s) (R) may become a triangle. However, it must not be a figure whose area is 0, that is, one point or one line segment. Figure 2 (R)
2A and FIG. 2D satisfy the bijection condition when the original is a quadrangle, FIG. 2B, FIG. 2C, and FIG.
(E) is not satisfied.

【0044】実際のインプリメンテーションでは、写像
が全射であることを容易に保証すべく、さらに以下の条
件を課してもよい。つまり始点画像の境界上の各画素
は、終点画像において同じ位置を占める画素に写影され
るというものである。すなわち、f(i,j)=(i,
j)(ただしi=0,i=2−1,j=0,j=2
−1の4本の線上)である。この条件を以下「付加条
件」とも呼ぶ。
In an actual implementation, the following conditions may be further imposed in order to easily guarantee that the mapping is surjective. That is, each pixel on the boundary of the start point image is mapped to the pixel occupying the same position in the end point image. That is, f (i, j) = (i,
j) (where i = 0, i = 2 m- 1, j = 0, j = 2 m
-1 on the four lines). Hereinafter, this condition is also referred to as “additional condition”.

【0045】[1.3.2]写像のエネルギー [1.3.2.1]画素の輝度に関するコスト 写像fのエネルギーを定義する。エネルギーが最小にな
る写像を探すことが目的である。エネルギーは主に、始
点画像の画素の輝度とそれに対応する終点画像の画素の
輝度の差で決まる。すなわち、写像f(m,s)の点
(i,j)におけるエネルギーC(m,s) (i,j)
は次式によって定まる。
[1.3.2] Energy of mapping [1.3.2.1] The energy of the cost mapping f with respect to the luminance of the pixel is defined. The goal is to find the map that minimizes the energy. The energy is mainly determined by the difference between the brightness of the pixel of the starting point image and the brightness of the pixel of the corresponding end point image. That is, the energy C (m, s) (i, j) at the point (i, j) of the map f (m, s )
Is determined by the following equation.

【0046】[0046]

【数7】 ここで、V(p(m,s) (i,j))及びV(q
(m,s) f(i,j))はそれぞれ画素p(m,s)
(i,j)及びq(m,s) f(i,j)の輝度であ
る。fのトータルのエネルギーC(m,s)は、マッチ
ングを評価するひとつの評価式であり、つぎに示すC
(m,s) (i,j)の合計で定義できる。
[Equation 7] Here, V (p (m, s) (i, j) ) and V (q
(M, s) f (i, j) ) is the pixel p (m, s)
The luminance of (i, j) and q (m, s) f (i, j) . The total energy C (m, s) of f is one evaluation formula for evaluating matching.
It can be defined by the sum of (m, s) and (i, j) .

【0047】[0047]

【数8】 [1.3.2.2]滑らかな写像のための画素の位置に
関するコスト 滑らかな写像を得るために、写像に関する別のエネルギ
ーDfを導入する。このエネルギーは画素の輝度とは関
係なく、p(m,s) (i,j)およびq(m ,s)
f(i,j)の位置によって決まる(i=0,…,2
−1,j=0,…,2−1)。点(i,j)における
写像f(m,s)のエネルギーD(m,s (i,j)
は次式で定義される。
[Equation 8] [1.3.2.2] Cost of Pixel Position for Smooth Mapping In order to obtain a smooth mapping, another energy Df for the mapping is introduced. This energy is independent of the brightness of the pixel, p (m, s) (i, j) and q (m , s)
Determined by the position of f (i, j) (i = 0, ..., 2 m
-1, j = 0, ..., 2 m -1). Energy D (m, s ) (i, j) of the map f (m, s) at the point (i , j)
Is defined by the following equation.

【0048】[0048]

【数9】 ただし、係数パラメータηは0以上の実数であり、ま
た、
[Equation 9] However, the coefficient parameter η is a real number of 0 or more, and

【数10】 [Equation 10]

【数11】 とする。ここで、[Equation 11] And here,

【数12】 であり、i’<0およびj’<0に対してf(i’,
j’)は0と決める。Eは(i,j)及びf(i,
j)の距離で決まる。Eは画素があまりにも離れた画
素へ写影されることを防ぐ。ただしEは、後に別のエ
ネルギー関数で置き換える。Eは写像の滑らかさを保
証する。Eは、p(i,j)の変位とその隣接点の変
位の間の隔たりを表す。以上の考察をもとに、マッチン
グを評価する別の評価式であるエネルギーDは次式で
定まる。
[Equation 12] And f (i ', for i'<0 and j '<0
j ') is set to 0. E 0 is (i, j) and f (i,
It depends on the distance of j). E 0 prevents pixels from being mapped to pixels that are too far away. However, E 0 is replaced later with another energy function. E 1 guarantees the smoothness of the map. E 1 represents the distance between the displacement of p (i, j) and the displacement of its neighbors. Based on the above consideration, energy D f, which is another evaluation expression for evaluating matching, is determined by the following expression.

【0049】[0049]

【数13】 [1.3.2.3]写像の総エネルギー 写像の総エネルギー、すなわち複数の評価式の統合に係
る総合評価式はλC m,s) +D(m,s) で定
義される。ここで係数パラメータλは0以上の実数であ
る。目的は総合評価式が極値をとる状態を検出するこ
と、すなわち次式で示す最小エネルギーを与える写像を
見いだすことである。
[Equation 13] [1.3.2.3] Total energy of mapping Total energy of mapping, that is, a comprehensive evaluation formula related to the integration of a plurality of evaluation formulas is defined by λC ( m, s) f + D (m, s) f . Here, the coefficient parameter λ is a real number of 0 or more. The purpose is to detect the state where the comprehensive evaluation formula has an extreme value, that is, to find the map that gives the minimum energy shown by the following formula.

【0050】[0050]

【数14】 λ=0及びη=0の場合、写像は単位写像になることに
注意すべきである(すなわち、全てのi=0,…,2
−1及びj=0,…,2−1に対してf
(m ,s)(i,j)=(i,j)となる)。後述のご
とく、本前提技術では最初にλ=0及びη=0の場合を
評価するため、写像を単位写像から徐々に変形していく
ことができる。仮に総合評価式のλの位置を変えてC
(m,s) +λD(m ,s) と定義したとすれば、
λ=0及びη=0の場合に総合評価式がC(m, s)
だけになり、本来何等関連のない画素どうしが単に輝度
が近いというだけで対応づけられ、写像が無意味なもの
になる。そうした無意味な写像をもとに写像を変形して
いってもまったく意味をなさない。このため、単位写像
が評価の開始時点で最良の写像として選択されるよう係
数パラメータの与えかたが配慮されている。
[Equation 14] Note that for λ = 0 and η = 0 the map is a unit map (ie all i = 0, ..., 2 m
F for −1 and j = 0, ..., 2 m −1
(M 2 , s) (i, j) = (i, j)). As will be described later, in the base technology, since the case of λ = 0 and η = 0 is evaluated first, the mapping can be gradually transformed from the unit mapping. Temporarily change the position of λ in the comprehensive evaluation formula to C
If (m, s) f + λD (m , s) f is defined,
When λ = 0 and η = 0, the comprehensive evaluation formula is C (m, s) f
Then, the pixels that are originally unrelated to each other are associated with each other simply because the brightness is close, and the mapping becomes meaningless. Even if the map is transformed based on such a meaningless map, it makes no sense at all. Therefore, consideration is given to how to give the coefficient parameter so that the unit map is selected as the best map at the start of the evaluation.

【0051】オプティカルフローもこの前提技術同様、
画素の輝度の差と滑らかさを考慮する。しかし、オプテ
ィカルフローは画像の変換に用いることはできない。オ
ブジェクトの局所的な動きしか考慮しないためである。
前提技術に係る特異点フィルタを用いることによって大
域的な対応関係を検出することができる。
The optical flow is the same as in this base technology.
Consider differences in pixel brightness and smoothness. However, optical flow cannot be used for image conversion. This is because only the local movement of the object is considered.
A global correspondence can be detected by using the singularity filter according to the base technology.

【0052】[1.3.3]多重解像度の導入による写
像の決定 最小エネルギーを与え、全単射条件を満足する写像f
minを多重解像度の階層を用いて求める。各解像度レ
ベルにおいて始点副画像及び終点副画像間の写像を計算
する。解像度の階層の最上位(最も粗いレベル)からス
タートし、各解像度レベルの写像を、他のレベルの写像
を考慮に入れながら決定する。各レベルにおける写像の
候補の数は、より高い、つまりより粗いレベルの写像を
用いることによって制限される。より具体的には、ある
レベルにおける写像の決定に際し、それよりひとつ粗い
レベルにおいて求められた写像が一種の拘束条件として
課される。
[1.3.3] Determining Map by Introducing Multi-Resolution Map f that gives the minimum energy and satisfies the bijection condition
min is obtained using a multi-resolution hierarchy. Compute the mapping between the starting and ending sub-images at each resolution level. Starting from the top (coarse level) of the hierarchy of resolutions, the mapping for each resolution level is determined, taking into account the mappings of other levels. The number of mapping candidates at each level is limited by using a higher, or coarser level of mapping. More specifically, when determining the mapping at a certain level, the mapping obtained at one coarser level is imposed as a kind of constraint condition.

【0053】まず、First,

【数15】 が成り立つとき、p(m−1,s) (i’,j’)、q
(m−1,s) (i’, j’)をそれぞれp(m,s)
(i,j)、q(m,s) (i,j)のparentと
呼ぶことにする。[x]はxを越えない最大整数であ
る。またp(m,s (i,j)、q(m,s)
(i,j)をそれぞれ
(m−1,s) (i’,j ’)、q(m−1,s)
(i’,j’)のchildと呼ぶ。関数parent
(i,j)は次式で定義される。
[Equation 15] , P (m-1, s) (i ', j') , q
(M-1, s) (i ', j') are respectively p (m, s)
(I, j) and q (m, s) are called parents of (i, j) . [X] is the maximum integer that does not exceed x. Also, p (m, s ) (i, j) , q (m, s)
Let (i, j) be p (m-1, s) (i ', j ') , q (m-1, s), respectively.
It is called a child of (i ', j') . Function parent
(I, j) is defined by the following equation.

【0054】[0054]

【数16】 (m,s) (i,j)とq(m,s) (k,l)の間
の写像f(m,s)は、エネルギー計算を行って最小に
なったものを見つけることで決定される。f m,s)
(i,j)=(k,l)の値はf(m−1,s)(m=
1,2,…,n)を用いることによって、以下のように
決定される。まず、q(m,s) (k, l)は次の四辺
形の内部になければならないという条件を課し、全単射
条件を満たす写像のうち現実性の高いものを絞り込む。
[Equation 16] The mapping f (m, s) between p (m, s) (i, j) and q (m, s) (k, l ) is determined by performing the energy calculation and finding the minimum one. To be done. f ( m, s)
The value of (i, j) = (k, l) is f (m-1, s) (m =
By using 1, 2, ..., N), it is determined as follows. First, the condition that q (m, s) (k, l) must be inside the following quadrangle is used to narrow down maps with high reality among maps that satisfy the bijective condition.

【0055】[0055]

【数17】 ただしここで、[Equation 17] However, here

【数18】 である。こうして定めた四辺形を、以下p(m,s)
(i,j)の相続(inherited)四辺形と呼ぶことにす
る。相続四辺形の内部において、エネルギーを最小にす
る画素を求める。
[Equation 18] Is. The quadrilateral determined in this way is p (m, s)
We call it an inherited quadrilateral of (i, j) . In the inherited quadrilateral, find the pixel that minimizes the energy.

【0056】図3は以上の手順を示している。同図にお
いて、始点画像のA,B,C,Dの画素は、第m−1レ
ベルにおいてそれぞれ終点画像のA’,B’,C’,
D’へ写影される。画素p(m,s) (i,j)は、相
続四辺形A’B’C’D’の内部に存在する画素q
(m,s) f(m)(i,j)へ写影されなければなら
ない。以上の配慮により、第m−1レベルの写像から第
mレベルの写像への橋渡しがなされる。
FIG. 3 shows the above procedure. In the figure, the pixels A, B, C, and D of the start point image are A ′, B ′, C ′, and C ′ of the end point image at the m−1th level, respectively.
It is projected to D '. The pixel p (m, s) (i, j) is a pixel q existing inside the inherited quadrangle A′B′C′D ′.
( M , s) must be mapped to f (m) (i, j) . From the above consideration, the mapping from the m-1th level mapping to the mth level mapping is performed.

【0057】先に定義したエネルギーEは、第mレベ
ルにおける副写像f(m,0)を計算するために、次式
に置き換える。
The energy E 0 defined above is replaced by the following equation in order to calculate the submapping f (m, 0 ) at the m-th level.

【0058】[0058]

【数19】 また、副写像f(m,s)を計算するためには次式を用
いる。
[Formula 19] Further, the following equation is used to calculate the submapping f (m, s) .

【0059】[0059]

【数20】 こうしてすべての副写像のエネルギーを低い値に保つ写
像が得られる。式20により、異なる特異点に対応する
副写像が、副写像どうしの類似度が高くなるように同一
レベル内で関連づけられる。式19は、f
(m,s)(i,j)と、第m−1レベルの画素の一部
と考えた場合の(i,j)が射影されるべき点の位置と
の距離を示している。
[Equation 20] This gives a map that keeps the energy of all submaps low. According to Expression 20, the submappings corresponding to different singular points are associated within the same level so that the submappings have a high degree of similarity. Formula 19 is f
(M, s) shows the distance between (i, j) and the position of the point where (i, j) is to be projected when it is considered as a part of the m-1th level pixel.

【0060】仮に、相続四辺形A’B’C’D’の内部
に全単射条件を満たす画素が存在しない場合は以下の措
置をとる。まず、A’B’C’D’の境界線からの距離
がL(始めはL=1)である画素を調べる。それらのう
ち、エネルギーが最小になるものが全単射条件を満たせ
ば、これをf(m,s)(i,j)の値として選択す
る。そのような点が発見されるか、またはLがその上限
のL(m)maxに到達するまで、Lを大きくしてい
く。L(m)maxは各レベルmに対して固定である。
そのような点が全く発見されない場合、全単射の第3の
条件を一時的に無視して変換先の四辺形の面積がゼロに
なるような写像も認め、f(m,s)(i,j)を決定
する。それでも条件を満たす点が見つからない場合、つ
ぎに全単射の第1及び第2条件を外す。
If there is no pixel satisfying the bijection condition inside the inherited quadrilateral A'B'C'D ', the following measures are taken. First, a pixel whose distance from the boundary line of A′B′C′D ′ is L (initially L = 1) is examined. Among them, if the one with the smallest energy satisfies the bijection condition, this is selected as the value of f (m, s) (i, j). L is increased until such a point is found or L reaches its upper limit L (m) max. L (m) max is fixed for each level m.
If such a point is not found at all, the third condition of bijection is temporarily ignored, and a mapping such that the area of the transformed quadrangle becomes zero is accepted, and f (m, s) (i , J). If none of the conditions is found, then the bijective first and second conditions are removed.

【0061】多重解像度を用いる近似法は、写像が画像
の細部に影響されることを回避しつつ、画像間の大域的
な対応関係を決定するために必須である。多重解像度に
よる近似法を用いなければ、距離の遠い画素間の対応関
係を見いだすことは不可能である。その場合、画像のサ
イズはきわめて小さなものに限定しなければならず、変
化の小さな画像しか扱うことができない。さらに、通常
写像に滑らかさを要求するため、そうした画素間の対応
関係を見つけにくくしている。距離のある画素から画素
への写像のエネルギーは高いためである。多重解像度を
用いた近似法によれば、そうした画素間の適切な対応関
係を見いだすことができる。それらの距離は、解像度の
階層の上位レベル(粗いレベル)において小さいためで
ある。
The approximation method using multi-resolution is indispensable for determining the global correspondence between images while avoiding that the mapping is affected by the image details. It is impossible to find the correspondence between pixels that are far apart without using an approximation method based on multiresolution. In that case, the size of the image must be limited to an extremely small size, and only an image with a small change can be handled. Furthermore, since smoothness is required for the normal mapping, it is difficult to find the correspondence between such pixels. This is because the energy of mapping from a pixel with a distance to a pixel is high. According to the approximation method using multi-resolution, it is possible to find an appropriate correspondence relationship between such pixels. This is because those distances are small at the upper level (coarse level) of the hierarchy of resolution.

【0062】[1.4]最適なパレメータ値の自動決定 既存のマッチング技術の主な欠点のひとつに、パレメー
タ調整の困難さがある。大抵の場合、パラメータの調整
は人手作業によって行われ、最適な値を選択することは
きわめて難しい。前提技術に係る方法によれば、最適な
パラメータ値を完全に自動決定することができる。
[1.4] Automatic determination of optimum parameter value One of the main drawbacks of the existing matching technology is the difficulty of parameter adjustment. In most cases, adjustment of parameters is done manually, and it is extremely difficult to select the optimum value. With the method according to the base technology, the optimum parameter value can be determined completely automatically.

【0063】前提技術に係るシステムはふたつのパレメ
ータ、λ及びηを含む。端的にいえば、λは画素の輝度
の差の重みであり、ηは写像の剛性を示している。これ
らのパラメータの値は初期値が0であり、まずη=0に
固定してλを0から徐々に増加させる。λの値を大きく
しながら、しかも総合評価式(式14)の値を最小にす
る場合、各副写像に関するC(m,s) の値は一般に
小さくなっていく。このことは基本的にふたつの画像が
よりマッチしなければならないことを意味する。しか
し、λが最適値を超えると以下の現象が発生する。
The system according to the base technology comprises two parameters, λ and η. In short, λ is the weight of the difference in the luminance of the pixels, and η is the rigidity of the mapping. The initial values of these parameters are 0. First, η is fixed to 0 and λ is gradually increased from 0. When the value of λ is increased and the value of the comprehensive evaluation expression (Expression 14) is minimized, the value of C (m, s) f for each submapping generally decreases. This basically means that the two images must match better. However, when λ exceeds the optimum value, the following phenomenon occurs.

【0064】1.本来対応すべきではない画素どうし
が、単に輝度が近いというだけで誤って対応づけられ
る。 2.その結果、画素どうしの対応関係がおかしくなり、
写像がくずれはじめる。
1. Pixels that should not be corresponded to each other are erroneously corresponded to each other simply because they have similar brightness. 2. As a result, the correspondence between pixels becomes strange,
The map begins to collapse.

【0065】3.その結果、式14においてD
(m,s) が急激に増加しようとする。 4.その結果、式14の値が急激に増加しようとするた
め、D(m,s) の急激な増加を抑制するようf
(m,s)が変化し、その結果C(m,s) が増加す
る。したがって、λを増加させながら式14が最小値を
とるという状態を維持しつつC(m,s) が減少から
増加に転じる閾値を検出し、そのλをη=0における最
適値とする。つぎにηを少しづつ増やしてC(m,s)
の挙動を検査し、後述の方法でηを自動決定する。そ
のηに対応してλも決まる。
3. As a result, in Equation 14, D
(M, s) f tends to increase rapidly. 4. As a result, the value of Equation 14 tends to increase rapidly, so that f (m, s) f is suppressed so as to suppress the rapid increase.
(M, s) changes, resulting in an increase in C (m, s) f . Therefore, the threshold value at which C (m, s) f turns from decreasing to increasing is detected while maintaining the state that Expression 14 takes the minimum value while increasing λ, and sets λ to the optimum value at η = 0. Next, increase η little by little and increase C (m, s)
The behavior of f is inspected, and η is automatically determined by the method described later. Λ is also determined corresponding to the η.

【0066】この方法は、人間の視覚システムの焦点機
構の動作に似ている。人間の視覚システムでは、一方の
目を動かしながら左右両目の画像のマッチングがとられ
る。オブジェクトがはっきりと認識できるとき、その目
が固定される。
This method resembles the operation of the focus mechanism of the human visual system. In the human visual system, images of both eyes are matched while moving one eye. When the object is clearly recognizable, its eyes are fixed.

【0067】[1.4.1]λの動的決定 λは0から所定の刻み幅で増加されていき、λの値が変
わる度に副写像が評価される。式14のごとく、総エネ
ルギーはλC(m,s) +D(m,s) によって定
義される。式9のD(m,s) は滑らかさを表すもの
で、理論的には単位写像の場合に最小になり、写像が歪
むほどEもEも増加していく。Eは整数であるか
ら、D(m,s) の最小刻み幅は1である。このた
め、現在のλC(m,s) (i,j)の変化(減少量)
が1以上でなければ、写像を変化させることによって総
エネルギーを減らすことはできない。なぜなら、写像の
変化に伴ってD(m,s) は1以上増加するため、λ
(m,s) (i,j)が1以上減少しない限り総エネ
ルギーは減らないためである。
[1.4.1] Dynamic determination of λ λ is increased from 0 by a predetermined step size, and the submapping is evaluated each time the value of λ changes. As in Equation 14, the total energy is defined by λC (m, s) f + D (m, s) f . D (m, s) f in Expression 9 represents the smoothness, and theoretically has the minimum value in the case of the unit mapping, and E 0 and E 1 increase as the mapping becomes distorted. Since E 1 is an integer, the minimum step size of D (m, s) f is 1. Therefore, the current change (decrease ) of λC (m, s) (i, j )
If is not greater than 1, then the total energy cannot be reduced by changing the mapping. Because D (m, s) f increases by 1 or more as the mapping changes, λ
This is because the total energy does not decrease unless C (m, s) (i, j) decreases by 1 or more.

【0068】この条件のもと、λの増加に伴い、正常な
場合にC(m,s) (i,j)が減少することを示す。
(m,s) (i,j)のヒストグラムをh(l)と記
述する。h(l)はエネルギーC(m,s) (i,j)
がlである画素の数である。λl≧1が成り立つた
めに、例えばl=1/λの場合を考える。λがλ
らλまで微小量変化するとき、
Under this condition, it is shown that C (m, s) (i, j) decreases in the normal case as λ increases.
The histogram of C (m, s) (i, j ) is described as h (l). h (l) is energy C (m, s) (i, j)
Is the number of pixels with l 2 . Since λl 2 ≧ 1 holds, consider the case of l 2 = 1 / λ, for example. When λ slightly changes from λ 1 to λ 2 ,

【数21】 で示されるA個の画素が、[Equation 21] A pixels shown by

【数22】 のエネルギーを持つより安定的な状態に変化する。ここ
では仮に、これらの画素のエネルギーがすべてゼロにな
ると近似している。この式はC(m,s) の値が、
[Equation 22] It changes to a more stable state with the energy of. Here, it is assumed that the energies of these pixels are all zero. In this expression, the value of C (m, s) f is

【数23】 だけ変化することを示し、その結果、[Equation 23] Show that only changes, and as a result,

【数24】 が成立する。h(l)>0であるから、通常C
(m,s) は減少する。しかし、λが最適値を越えよ
うとするとき、上述の現象、つまりC(m,s) の増
加が発生する。この現象を検出することにより、λの最
適値を決定する。
[Equation 24] Is established. Since h (l)> 0, usually C
(M, s) f decreases. However, when λ tries to exceed the optimum value, the above-mentioned phenomenon, that is, the increase of C (m, s) f occurs. The optimum value of λ is determined by detecting this phenomenon.

【0069】なお、H(h>0)及びkを定数とすると
き、
When H (h> 0) and k are constants,

【数25】 と仮定すれば、[Equation 25] Assuming that

【数26】 が成り立つ。このときk≠−3であれば、[Equation 26] Holds. At this time, if k ≠ −3,

【数27】 となる。これがC(m,s) の一般式である(Cは定
数)。
[Equation 27] Becomes This is a general expression for C (m, s) f (C is a constant).

【0070】λの最適値を検出する際、さらに安全を見
て、全単射条件を破る画素の数を検査してもよい。ここ
で各画素の写像を決定する際、全単射条件を破る確率を
と仮定する。この場合、
When detecting the optimum value of λ, the number of pixels that violates the bijection condition may be checked for safety. Here, when determining the mapping of each pixel, it is assumed that the probability of breaking the bijection condition is p 0 . in this case,

【数28】 が成立しているため、全単射条件を破る画素の数は次式
の率で増加する。
[Equation 28] Therefore, the number of pixels that violates the bijection condition increases at the rate of the following equation.

【0071】[0071]

【数29】 従って、[Equation 29] Therefore,

【数30】 は定数である。仮にh(l)=Hlを仮定するとき、
例えば、
[Equation 30] Is a constant. If h (l) = Hl k is assumed,
For example,

【数31】 は定数になる。しかしλが最適値を越えると、上の値は
急速に増加する。この現象を検出し、Bλ
3/2+k/2/2の値が異常値B0thresを越
えるかどうかを検査し、λの最適値を決定することがで
きる。同様に、Bλ3/2 +k/2/2の値が異常
値B1thresを越えるかどうかを検査することによ
り、全単射の第3の条件を破る画素の増加率Bを確認
する。ファクター2を導入する理由は後述する。この
システムはこれら2つの閾値に敏感ではない。これらの
閾値は、エネルギーC(m,s) の観察では検出し損
なった写像の過度の歪みを検出するために用いることが
できる。
[Equation 31] Becomes a constant. However, when λ exceeds the optimum value, the above value increases rapidly. By detecting this phenomenon, B 0 λ
3/2 + value of k / 2/2 m examines whether exceeds the abnormal value B 0thres, it is possible to determine the optimal value of lambda. Similarly, by checking whether or not the value of B 1 λ 3/2 + k / 2/2 m exceeds the abnormal value B 1thres , the increase rate B 1 of pixels that violates the third condition of bijection is confirmed. To do. The reason for introducing the factor 2 m will be described later. This system is not sensitive to these two thresholds. These thresholds can be used to detect undue distortions of the map that are missed by observing the energy C (m, s) f .

【0072】なお実験では、副写像f(m,s)を計算
する際、もしλが0.1を越えたらf(m,s)の計算
は止めてf(m,s+1)の計算に移行した。λ>0.
1のとき、画素の輝度255レベル中のわずか「3」の
違いが副写像の計算に影響したためであり、λ>0.1
のとき正しい結果を得ることは困難だったためである。
In the experiment, when calculating the submapping f (m, s) , if λ exceeds 0.1, the calculation of f (m, s) is stopped and the calculation of f (m, s + 1) is started. did. λ> 0.
When 1, the difference of only “3” in the luminance 255 level of the pixel affected the calculation of the submapping, and λ> 0.1.
This was because it was difficult to get the correct result when.

【0073】[1.4.2]ヒストグラムh(l) C(m,s) の検査はヒストグラムh(l)に依存し
ない。全単射及びその第3の条件の検査の際、h(l)
に影響を受けうる。実際に(λ,C(m,s) )をプ
ロットすると、kは通常1付近にある。実験ではk=1
を用い、Bλ とBλを検査した。仮にkの本当
の値が1未満であれば、BλとBλは定数にな
らず、ファクターλ(1−k)/2に従って徐々に増加
する。h(l)が定数であれば、例えばファクターはλ
1/2である。しかし、こうした差は閾値B
0thresを正しく設定することによって吸収するこ
とができる。
[1.4.2] Histogram h (l) C(M, s) fThe inspection depends on the histogram h (l)
Absent. H (l) during bijection and the inspection of its third condition
Can be affected by. Actually (λ, C(M, s) f)
When lotted, k is usually around 1. In the experiment, k = 1
Using B0λ TwoAnd B1λTwoWas inspected. If k is true
If the value of is less than 1, then B0λTwoAnd B1λTwoBecomes a constant
Without factor λ(1-k) / 2Gradually increase according to
To do. If h (l) is a constant, for example, the factor is λ
1/2Is. However, such a difference is a threshold B
0thresCan be absorbed by setting
You can

【0074】ここで次式のごとく始点画像を中心が(x
,y)、半径rの円形のオブジェクトであると仮定
する。
Here, the center of the starting point image is (x
0 , y 0 ) and a circular object of radius r.

【数32】 一方、終点画像は、次式のごとく中心(x,y)、
半径がrのオブジェクトであるとする。
[Equation 32] On the other hand, the end point image has the center (x 1 , y 1 ),
It is assumed that the object has a radius r.

【数33】 ここでc(x)はc(x)=xの形であるとする。中
心(x,y)及び(x,y)が十分遠い場合、
ヒストグラムh(l)は次式の形となる。
[Expression 33] Here, it is assumed that c (x) has a form of c (x) = x k . If the centers (x 0 , y 0 ) and (x 1 , y 1 ) are far enough,
The histogram h (l) has the form:

【数34】 k=1のとき、画像は背景に埋め込まれた鮮明な境界線
を持つオブジェクトを示す。このオブジェクトは中心が
暗く、周囲にいくに従って明るくなる。k=−1のと
き、画像は曖昧な境界線を持つオブジェクトを表す。こ
のオブジェクトは中心が最も明るく、周囲にいくに従っ
て暗くなる。一般のオブジェクトはこれらふたつのタイ
プのオブジェクトの中間にあると考えてもさして一般性
を失わない。したがって、kは−1≦k≦1として大抵
の場合をカバーでき、式27が一般に減少関数であるこ
とが保障される。
[Equation 34] When k = 1, the image shows an object with a sharp border embedded in the background. This object has a dark center and becomes brighter toward the edges. When k = -1, the image represents an object with ambiguous boundaries. This object is brightest in the center and darkens towards the periphery. The general object does not lose its generality, even though it is considered to be somewhere in between these two types of objects. Therefore, k can cover most cases with −1 ≦ k ≦ 1, and it is guaranteed that Equation 27 is generally a decreasing function.

【0075】なお、式34からわかるように、rは画像
の解像度に影響されること、すなわちrは2mに比例す
ることに注意すべきである。このために[1.4.1]
においてファクター2mを導入した。
It should be noted that r is affected by the resolution of the image, that is, r is proportional to 2 m, as can be seen from equation 34. For this reason [1.4.1]
Introduced a factor of 2 m.

【0076】[1.4.3]ηの動的決定 パラメータηも同様の方法で自動決定できる。はじめに
η=0とし、最も細かい解像度における最終的な写像f
(n)及びエネルギーC(n) を計算する。つづい
て、ηをある値Δηだけ増加させ、再び最も細かい解像
度における最終写像f(n)及びエネルギーC(n)
を計算し直す。この過程を最適値が求まるまで続ける。
ηは写像の剛性を示す。次式の重みだからである。
[1.4.3] The dynamic determination parameter η of η can be automatically determined by the same method. First, η = 0, and the final mapping f at the finest resolution is obtained.
Calculate (n) and energy C (n) f . Subsequently, η is increased by a certain value Δη, and again the final map f (n) and the energy C (n) f at the finest resolution are obtained.
Recalculate. This process is continued until the optimum value is obtained.
η indicates the rigidity of the map. Because it is the weight of the following formula.

【0077】[0077]

【数35】 ηが0のとき、D(n) は直前の副写像と無関係に決
定され、現在の副写像は弾性的に変形され、過度に歪む
ことになる。一方、ηが非常に大きな値のとき、D
(n) は直前の副写像によってほぼ完全に決まる。こ
のとき副写像は非常に剛性が高く、画素は同じ場所に射
影される。その結果、写像は単位写像になる。ηの値が
0から次第に増えるとき、後述のごとくC(n) は徐
々に減少する。しかしηの値が最適値を越えると、図4
に示すとおり、エネルギーは増加し始める。同図のX軸
はη、Y軸はCである。
[Equation 35] When η is 0, D (n) f is determined independently of the immediately preceding submapping, and the current submapping is elastically deformed and excessively distorted. On the other hand, when η is a very large value, D
(N) f is almost completely determined by the immediately preceding submapping. At this time, the submapping is very rigid, and the pixels are projected on the same place. As a result, the map becomes a unit map. When the value of η gradually increases from 0, C (n) f gradually decreases as described later. However, if the value of η exceeds the optimum value,
As shown in, energy begins to increase. In the figure, the X axis is η and the Y axis is C f .

【0078】この方法でC(n) を最小にする最適な
ηの値を得ることができる。しかし、λの場合に比べて
いろいろな要素が計算に影響する結果、C(n) は小
さく揺らぎながら変化する。λの場合は、入力が微小量
変化するたびに副写像を1回計算しなおすだけだが、η
の場合はすべての副写像が計算しなおされるためであ
る。このため、得られたC(n) の値が最小であるか
どうかを即座に判断することはできない。最小値の候補
が見つかれば、さらに細かい区間を設定することによっ
て真の最小値を探す必要がある。
With this method, an optimum value of η that minimizes C (n) f can be obtained. However, as a result of various factors affecting the calculation as compared with the case of λ, C (n) f changes with a small fluctuation. In the case of λ, the submapping is recalculated once each time the input changes by a small amount.
This is because in the case of, all submappings are recalculated. Therefore, it is not possible to immediately determine whether or not the obtained value of C (n) f is the minimum. When a candidate for the minimum value is found, it is necessary to search for the true minimum value by setting a finer interval.

【0079】[1.5]スーパーサンプリング 画素間の対応関係を決定する際、自由度を増やすため
に、f(m,s)の値域をR×Rに拡張することができ
る(Rは実数の集合)。この場合、終点画像の画素の輝
度が補間され、非整数点、
[1.5] The range of f (m, s) can be expanded to R × R in order to increase the degree of freedom when determining the correspondence between super-sampling pixels (R is a real number). set). In this case, the brightness of the pixel of the end point image is interpolated,

【数36】 における輝度を持つf(m,s)が提供される。つまり
スーパーサンプリングが行われる。実験では、f
(m,s)は整数及び半整数値をとることが許され、
[Equation 36] An f (m, s) with a luminance at is provided. That is, super sampling is performed. In the experiment, f
(M, s) is allowed to take integer and half-integer values,

【数37】 は、[Equation 37] Is

【数38】 によって与えられた。[Equation 38] Given by.

【0080】[1.6]各画像の画素の輝度の正規化 始点画像と終点画像がきわめて異なるオブジェクトを含
んでいるとき、写像の計算に元の画素の輝度がそのまま
では利用しにくい。輝度の差が大きいために輝度に関す
るエネルギーC(m,s) が大きくなりすぎ、正しい
評価がしずらいためである。
[1.6] Normalization of Pixel Luminance of Each Image When the start point image and the end point image include objects that are very different, it is difficult to use the original pixel luminance as it is for the calculation of mapping. This is because the energy C (m, s) f related to the brightness becomes too large because the difference in the brightness is large, and correct evaluation is difficult.

【0081】例えば、人の顔と猫の顔のマッチングをと
る場合を考える。猫の顔は毛で覆われており、非常に明
るい画素と非常に暗い画素が混じっている。この場合、
ふたつの顔の間の副写像を計算するために、まず副画像
を正規化する。すなわち、最も暗い画素の輝度を0、最
も明るいそれを255に設定し、他の画素の輝度は線形
補間によって求めておく。
For example, consider a case where a human face and a cat face are matched. The cat's face is covered in hair, with very bright and very dark pixels. in this case,
To calculate the submapping between two faces, the subimage is first normalized. That is, the brightness of the darkest pixel is set to 0 and the brightness of the brightest pixel is set to 255, and the brightness of other pixels is obtained by linear interpolation.

【0082】[1.7]インプリメンテーション 始点画像のスキャンに従って計算がリニアに進行する帰
納的な方法を用いる。始めに、1番上の左端の画素
(i,j)=(0,0)についてf(m,s)の値を決
定する。次にiを1ずつ増やしながら各f
(m,s)(i,j)の値を決定する。iの値が画像の
幅に到達したとき、jの値を1増やし、iを0に戻す。
以降、始点画像のスキャンに伴いf(m,s)(i,
j)を決定していく。すべての点について画素の対応が
決まれば、ひとつの写像f(m,s)が決まる。
[1.7] Implementation An inductive method is used in which the calculation proceeds linearly according to the scanning of the starting point image. First, the value of f (m, s) is determined for the uppermost leftmost pixel (i, j) = (0,0). Next, increase each i by 1
(M, s) Determine the value of (i, j). When the value of i reaches the width of the image, the value of j is increased by 1 and i is returned to 0.
Thereafter, as the start point image is scanned, f (m, s) (i,
j) is decided. When the pixel correspondences are determined for all points, one mapping f (m, s) is determined.

【0083】あるp(i,j)について対応点q
f(i,j)が決まれば、つぎにp(i, j+1)の対
応点qf(i,j+1)が決められる。この際、q
f(i,j+1 の位置は全単射条件を満たすために、
f(i,j)の位置によって制限される。したがっ
て、先に対応点が決まる点ほどこのシステムでは優先度
が高くなる。つねに(0,0)が最も優先される状態が
つづくと、求められる最終の写像に余計な偏向が加わ
る。本前提技術ではこの状態を回避するために、f
(m,s)を以下の方法で決めていく。
Corresponding point q with respect to a certain p (i, j)
If f (i, j) is determined, then the corresponding point qf (i, j + 1) of p (i, j + 1) is determined. At this time, q
Since the position of f (i, j + 1 ) satisfies the bijection condition,
Limited by the position of qf (i, j) . Therefore, in this system, the higher the priority is, the higher the corresponding point is determined. When (0,0) always has the highest priority, an extra bias is added to the final mapping required. In the base technology, in order to avoid this state, f
(M, s) is determined by the following method.

【0084】まず(s mod 4)が0の場合、(0,
0)を開始点としi及びjを徐々に増やしながら決めて
いく。(s mod 4)が1の場合、最上行の右端点を
開始点とし、iを減少、jを増加させながら決めてい
く。(s mod 4)が2のとき、最下行の右端点を開
始点とし、i及びjを減少させながら決めていく。(s
mod 4)が3の場合、最下行の左端点を開始点と
し、iを増加、jを減少させながら決めていく。解像度
が最も細かい第nレベルには副写像という概念、すなわ
ちパラメータsが存在しないため、仮にs=0及びs=
2であるとしてふたつの方向を連続的に計算した。
First, when (s mod 4) is 0, (0,
Start from 0) and gradually increase i and j while deciding. When (s mod 4) is 1, the right end point of the top row is set as the starting point, i is decreased, and j is increased. When (s mod 4) is 2, the right end point of the bottom row is set as the starting point, and i and j are decreased and determined. (S
When mod 4) is 3, the leftmost point of the bottom line is set as the starting point, and i is increased and j is decreased. Since the concept of submapping, that is, the parameter s, does not exist in the nth level having the smallest resolution, s = 0 and s =
Two directions were calculated consecutively as being 2.

【0085】実際のインプリメンテーションでは、全単
射条件を破る候補に対してペナルティを与えることによ
り、候補(k,l)の中からできる限り全単射条件を満
たすf(m,s)(i,j)(m=0,…,n)の値を
選んだ。第3の条件を破る候補のエネルギーD(k、
l)にはφを掛け、一方、第1または第2の条件を破る
候補にはψを掛ける。今回はφ=2、ψ=100000
を用いた。
In an actual implementation, a penalty is given to a candidate that violates a bijection condition, so that f (m, s) ( i, j) (m = 0, ..., N) values were chosen. Candidate energies that violate the third condition D (k,
l) is multiplied by φ, while candidates that violate the first or second conditions are multiplied by ψ. This time φ = 2, ψ = 100000
Was used.

【0086】前述の全単射条件のチェックのために、実
際の手続として(k,l)=f(m ,s)(i,j)を
決定する際に以下のテストを行った。すなわちf
(m,s)(i,j)の相続四辺形に含まれる各格子点
(k,l)に対し、次式の外積のz成分が0以上になる
かどうかを確かめる。
In order to check the above-mentioned bijection condition, the following test was conducted in determining (k, l) = f (m , s) (i, j) as an actual procedure. That is, f
(M, s) For each lattice point (k, l) included in the inherited quadrangle of (i, j), it is confirmed whether the z component of the outer product of the following equation is 0 or more.

【0087】[0087]

【数39】 ただしここで、[Formula 39] However, here

【数40】 [Formula 40]

【数41】 である(ここでベクトルは三次元ベクトルとし、z軸は
直交右手座標系において定義される)。もしWが負であ
れば、その候補についてはD(m,s) (k,l にψ
を掛けることによってペナルティを与え、できるかぎり
選択しないようにする。
[Formula 41] (Here, the vector is a three-dimensional vector, and the z axis is defined in the orthogonal right-handed coordinate system). If W is negative, then D (m, s) (k, l ) has ψ
Give a penalty by multiplying by and try to avoid choosing as much as possible.

【0088】図5(a)、図5(b)はこの条件を検査
する理由を示している。図5(a)はペナルティのない
候補、図5(b)はペナルティがある候補をそれぞれ表
す。隣接画素(i,j+1)に対する写像f(m,s)
(i,j+1)を決定する際、Wのz成分が負であれば
始点画像平面上において全単射条件を満足する画素は存
在しない。なぜなら、q(m,s) (k,l)は隣接す
る四辺形の境界線を越えるためである。
FIGS. 5A and 5B show the reason for inspecting this condition. FIG. 5A shows a candidate with no penalty, and FIG. 5B shows a candidate with a penalty. Map f (m, s) for adjacent pixel (i, j + 1 )
When determining (i, j + 1), if the z component of W is negative, no pixel satisfies the bijection condition on the starting image plane. This is because q (m, s) (k, l) crosses the boundary line between adjacent quadrilaterals.

【0089】[1.7.1]副写像の順序 インプリメンテーションでは、解像度レベルが偶数のと
きにはσ(0)=0、σ(1)=1、σ(2)=2、σ
(3)=3、σ(4)=0を用い、奇数のときはσ
(0)=3、σ(1)=2、σ(2)=1、σ(3)=
0、σ(4)=3を用いた。このことで、副写像を適度
にシャッフルした。なお、本来副写像は4種類であり、
sは0〜3のいずれかである。しかし、実際にはs=4
に相当する処理を行った。その理由は後述する。
[1.7.1] In the submapping order implementation, σ (0) = 0, σ (1) = 1, σ (2) = 2, σ when the resolution level is even.
(3) = 3, σ (4) = 0 is used, and when odd, σ
(0) = 3, σ (1) = 2, σ (2) = 1, σ (3) =
0 and σ (4) = 3 were used. This appropriately shuffled the submap. In addition, originally there are four types of submappings,
s is any one of 0-3. However, actually s = 4
Was performed. The reason will be described later.

【0090】[1.8]補間計算 始点画像と終点画像の間の写像が決定された後、対応し
あう画素の輝度が補間される。実験では、トライリニア
補間を用いた。始点画像平面における正方形p
(i,j)(i+1,j)(i,j+1)
(i+1,j+1)が終点画像平面上の四辺形q
f(i,j)f(i+1,j)f(i,j+1)
f(i +1,j+1)に射影されると仮定する。簡単の
ため、画像間の距離を1とする。始点画像平面からの距
離がt(0≦t≦1)である中間画像の画素r(x,
y,t)(0≦x≦N−1,0≦y≦M−1)は以下の
要領で求められる。まず画素r(x,y,t)の位置
(ただしx,y,t∈R)を次式で求める。
[1.8] Interpolation calculation After the mapping between the start and end images is determined, the corresponding
The brightness of the matching pixel is interpolated. In the experiment, tri-linear
Interpolation was used. Square p in the starting image plane
(I, j)p(I + 1, j)p(I, j + 1)p
(I + 1, j + 1)Is a quadrangle q on the end image plane
f (i, j)qf (i + 1, j)qf (i, j + 1)q
f (i +1, j + 1)Suppose it is projected to. Easy
Therefore, the distance between the images is set to 1. Distance from the starting image plane
Pixels r (x,
y, t) (0≤x≤N-1, 0≤y≤M-1) is
Required as required. First, the position of pixel r (x, y, t)
(However, x, y, tεR) is calculated by the following equation.

【0091】[0091]

【数42】 つづいてr(x,y,t)における画素の輝度が次の式
を用いて決定される。
[Equation 42] Subsequently, the brightness of the pixel at r (x, y, t) is determined using the following equation.

【0092】[0092]

【数43】 ここでdx及びdyはパラメータであり、0から1まで
変化する。
[Equation 43] Here, dx and dy are parameters and change from 0 to 1.

【0093】[1.9]拘束条件を課したときの写像 いままでは拘束条件がいっさい存在しない場合の写像の
決定を述べた。しかし、始点画像と終点画像の特定の画
素間に予め対応関係が規定されているとき、これを拘束
条件としたうえで写像を決定することができる。
[1.9] Mapping when a constraint condition is imposed Up to now, the determination of the map when no constraint condition exists has been described. However, when the correspondence relationship between the specific pixels of the start point image and the end point image is defined in advance, the mapping can be determined under the constraint condition.

【0094】基本的な考えは、まず始点画像の特定の画
素を終点画像の特定の画素に移す大まかな写像によって
始点画像を大まかに変形し、しかる後、写像fを正確に
計算する。
The basic idea is that the starting point image is roughly transformed by a rough mapping in which a specific pixel of the starting point image is moved to a specific pixel of the ending point image, and then the mapping f is accurately calculated.

【0095】まず始めに、始点画像の特定の画素を終点
画像の特定の画素に射影し、始点画像の他の画素を適当
な位置に射影する大まかな写像を決める。すなわち、特
定の画素に近い画素は、その特定の画素が射影される場
所の近くに射影されるような写像である。ここで第mレ
ベルの大まかな写像をF(m)と記述する。
First, a rough mapping is determined in which a specific pixel of the starting point image is projected onto a specific pixel of the ending point image, and other pixels of the starting point image are projected onto appropriate positions. That is, a pixel close to a specific pixel is a map that is projected in the vicinity of the place where the specific pixel is projected. Here, the rough mapping of the m-th level is described as F (m) .

【0096】大まかな写像Fは以下の要領で決める。ま
ず、いくつかの画素について写像を特定する。始点画像
についてn個の画素、
The rough map F is determined by the following procedure. First, the mapping is specified for some pixels. N s pixels for the starting image,

【数44】 を特定するとき、以下の値を決める。[Equation 44] When specifying, determine the following values.

【数45】 始点画像の他の画素の変位量は、p(ih,jh)(h
=0,…,n−1)の変位に重み付けをして求められ
る平均である。すなわち画素p(i,j)は、終点画像
の以下の画素に射影される。
[Equation 45] The displacement amounts of the other pixels in the starting point image are p (ih, jh) (h
= 0, ..., Ns −1) is an average obtained by weighting the displacement. That is, the pixel p (i, j) is projected onto the following pixels of the end point image.

【0097】[0097]

【数46】 ただしここで、[Equation 46] However, here

【数47】 [Equation 47]

【数48】 とする。[Equation 48] And

【0098】つづいて、F(m)に近い候補写像fがよ
り少ないエネルギーを持つように、その写像fのエネル
ギーD(m,s) (i,j)を変更する。正確には、D
(m ,s) (i,j)は、
Subsequently, the energy D (m, s) (i, j) of the mapping f is changed so that the candidate mapping f close to F (m) has less energy. To be exact, D
(M , s) (i, j) is

【数49】 である。ただし、[Equation 49] Is. However,

【数50】 であり、κ,ρ≧0とする。最後に、前述の写像の自動
計算プロセスにより、fを完全に決定する。
[Equation 50] And κ and ρ ≧ 0. Finally, f is completely determined by the automatic map calculation process described above.

【0099】ここで、f(m,s)(i,j)がF
(m)(i,j)に十分近いとき、つまりそれらの距離
が、
Where f (m, s) (i, j) is F
(M) When they are sufficiently close to (i, j), that is, their distance is

【数51】 以内であるとき、E (m,s) (i,j)が0になる
ことに注意すべきである。そのように定義した理由は、
各f(m,s)(i,j)がF(m)(i,j)に十分近い限
り、終点画像において適切な位置に落ち着くよう、その
値を自動的に決めたいためである。この理由により、正
確な対応関係を詳細に特定する必要がなく、始点画像は
終点画像にマッチするように自動的にマッピングされ
る。
[Equation 51] It should be noted that E 2 (m, s) (i, j) becomes 0 when it is within. The reason I defined it that way is
This is because as long as each f (m, s) (i, j) is sufficiently close to F (m) (i, j), its value is automatically determined so as to settle at an appropriate position in the end point image. For this reason, the starting point image is automatically mapped to match the ending point image without having to specify the exact correspondence in detail.

【0100】[2]具体的な処理手順 [1]の各要素技術による処理の流れを説明する。図6
は前提技術の全体手順を示すフローチャートである。同
図のごとく、まず多重解像度特異点フィルタを用いた処
理を行い(S1)、つづいて始点画像と終点画像のマッ
チングをとる(S2)。ただし、S2は必須ではなく、
S1で得られた画像の特徴をもとに画像認識などの処理
を行ってもよい。
[2] The flow of processing by each elemental technique of the concrete processing procedure [1] will be described. Figure 6
Is a flowchart showing the overall procedure of the base technology. As shown in the figure, first, a process using a multi-resolution singularity filter is performed (S1), and then a start point image and an end point image are matched (S2). However, S2 is not essential,
Processing such as image recognition may be performed based on the characteristics of the image obtained in S1.

【0101】図7は図6のS1の詳細を示すフローチャ
ートである。ここではS2で始点画像と終点画像のマッ
チングをとることを前提としている。そのため、まず特
異点フィルタによって始点画像の階層化を行い(S1
0)、一連の始点階層画像を得る。つづいて同様の方法
で終点画像の階層化を行い(S11)、一連の終点階層
画像を得る。ただし、S10とS11の順序は任意であ
るし、始点階層画像と終点階層画像を並行して生成して
いくこともできる。
FIG. 7 is a flow chart showing the details of S1 in FIG. Here, it is assumed that the start point image and the end point image are matched in S2. Therefore, first, the starting point image is hierarchized by the singular point filter (S1
0), obtaining a series of starting point hierarchical images. Subsequently, the end point image is layered by the same method (S11) to obtain a series of end point hierarchical images. However, the order of S10 and S11 is arbitrary, and the starting point hierarchical image and the ending point hierarchical image can be generated in parallel.

【0102】図8は図7のS10の詳細を示すフローチ
ャートである。もとの始点画像のサイズは2×2
する。始点階層画像は解像度が細かいほうから順に作ら
れるため、処理の対象となる解像度レベルを示すパラメ
ータmをnにセットする(S100)。つづいて第mレ
ベルの画像p(m,0)、p(m,1)
(m,2 、p(m,3)から特異点フィルタを用い
て特異点を検出し(S101)、それぞれ第m−1レベ
ルの画像p(m−1,0)、p(m−1,1)、p
(m−1 ,2)、p(m−1,3)を生成する(S10
2)。ここではm=nであるため、p(m,0)=p
(m,1)=p(m,2)=p(m,3)=p(n)
あり、ひとつの始点画像から4種類の副画像が生成され
る。
FIG. 8 is a flow chart showing the details of S10 of FIG. The size of the original starting point image is 2 n × 2 n . Since the starting point hierarchical image is created in ascending order of resolution, the parameter m indicating the resolution level to be processed is set to n (S100). Next, the m-th level images p (m, 0) , p (m, 1) ,
Singular points are detected from p (m, 2 ) and p (m, 3) using a singular point filter (S101), and the images at the (m-1) th level p (m-1,0) and p (m- ), respectively. 1,1) , p
(M-1 , 2) and p (m-1, 3) are generated (S10 ).
2). Since m = n here, p (m, 0) = p
(M, 1) = p (m, 2) = p (m, 3) = p (n) , and four types of sub-images are generated from one starting point image.

【0103】図9は第mレベルの画像の一部と、第m−
1レベルの画像の一部の対応関係を示している。同図の
数値は各画素の輝度を示す。同図のp(m,s)はp
(m, 0)〜p(m,3)の4つの画像を象徴するもの
で、p(m−1,0)を生成する場合には、p
(m,s)はp(m,0)であると考える。[1.2]
で示した規則により、p(m−1,0)は例えば同図で
輝度を記入したブロックについて、そこに含まれる4画
素のうち「3」、p(m−1,1)は「8」、p
(m−1 ,2)は「6」、p(m−1,3)を「10」
をそれぞれ取得し、このブロックをそれぞれ取得したひ
とつの画素で置き換える。したがって、第m−1レベル
の副画像のサイズは2m−1×2m−1になる。
FIG. 9 shows a part of the m-th level image and the m-th level image.
The correspondence relationship of a part of a 1-level image is shown. Numerical values in the figure indicate the brightness of each pixel. In the figure, p (m, s) is p
(M, 0) ~p (m , 3) intended to symbolize the four images, when generating the images p (m-1,0), p
Consider (m, s) to be p (m, 0) . [1.2]
According to the rule shown in, p (m-1,0) is, for example, "3" out of the four pixels included in the block in which luminance is entered in the figure, and p (m-1,1) is "8". , P
(M-1 , 2) is "6" and p (m-1, 3) is "10"
, And replaces this block with the acquired single pixel. Therefore, the size of the sub-image at the (m-1) th level is 2 m-1 × 2 m-1 .

【0104】つづいてmをデクリメントし(図8のS1
03)、mが負になっていないことを確認し(S10
4)、S101に戻ってつぎに解像度の粗い副画像を生
成していく。この繰り返し処理の結果、m=0、すなわ
ち第0レベルの副画像が生成された時点でS10が終了
する。第0レベルの副画像のサイズは1×1である。
Next, decrement m (S1 in FIG. 8).
03), and confirm that m is not negative (S10
4) Returning to S101, a sub-image with coarse resolution is generated next. As a result of this repeated processing, S = 0 ends when m = 0, that is, when the 0th level sub-image is generated. The size of the 0th level sub-image is 1 × 1.

【0105】図10はS10によって生成された始点階
層画像をn=3の場合について例示している。最初の始
点画像のみが4つの系列に共通であり、以降特異点の種
類に応じてそれぞれ独立に副画像が生成されていく。な
お、図8の処理は図7のS11にも共通であり、同様の
手順を経て終点階層画像も生成される。以上で図6のS
1による処理が完了する。
FIG. 10 illustrates the starting point hierarchical image generated in S10 for the case of n = 3. Only the first starting point image is common to the four series, and thereafter, the sub-images are independently generated according to the types of singular points. The process of FIG. 8 is common to S11 of FIG. 7, and the end point hierarchical image is also generated through the same procedure. With the above, S in FIG.
The process according to 1 is completed.

【0106】前提技術では、図6のS2に進むためにマ
ッチング評価の準備をする。図11はその手順を示して
いる。同図のごとく、まず複数の評価式が設定される
(S30)。[1.3.2.1]で導入した画素に関す
るエネルギーC(m,s) と[1.3.2.2]で導
入した写像の滑らかさに関するエネルギーD(m,s)
がそれである。つぎに、これらの評価式を統合して総
合評価式を立てる(S31)。[1.3.2.3]で導
入した総エネルギーλC(m,s) +D(m, s)
がそれであり、[1.3.2.2]で導入したηを用い
れば、 ΣΣ(λC(m,s) (i,j)+ηE (m,s) (i,j)+E (m ,s) (i,j) ) (式52) となる。ただし、総和はi、jについてそれぞれ0、1
…、2−1で計算する。以上でマッチング評価の準備
が整う。
In the base technology, in order to proceed to S2 in FIG.
Prepare for the hatching evaluation. Figure 11 shows the procedure
There is. As shown in the figure, first, multiple evaluation formulas are set.
(S30). Regarding the pixels introduced in [1.3.2.1]
Energy C(M, s) fAnd [1.3.2.2]
Energy D related to the smoothness of the entered map(M, s)
fIs that. Next, we integrate these evaluation formulas and
A total evaluation formula is established (S31). Derived in [1.3.2.3]
Total energy input λC(M, s) f+ D(M, s) f
Is that, using η introduced in [1.3.2.2]
If     ΣΣ (λC(M, s) (I, j)+ ΗE0 (M, s) (I, j)+ E1 (M , S) (I, j) ) (Equation 52) Becomes However, the sum is 0 and 1 for i and j, respectively.
... 2mCalculate with -1. Preparation for matching evaluation
Is set.

【0107】図12は図6のS2の詳細を示すフローチ
ャートである。[1]で述べたごとく、始点階層画像と
終点階層画像のマッチングは互いに同じ解像度レベルの
画像どうしでとられる。画像間の大域的なマッチングを
良好にとるために、解像度が粗いレベルから順にマッチ
ングを計算する。特異点フィルタを用いて始点階層画像
および終点階層画像を生成しているため、特異点の位置
や輝度は解像度の粗いレベルでも明確に保存されてお
り、大域的なマッチングの結果は従来に比べて非常に優
れたものになる。
FIG. 12 is a flow chart showing the details of S2 in FIG. As described in [1], the matching between the starting point hierarchical image and the ending point hierarchical image is performed between images having the same resolution level. In order to achieve good global matching between images, matching is calculated in order of coarse resolution. Since the starting point hierarchical image and the ending point hierarchical image are generated using the singular point filter, the position and brightness of the singular point are clearly preserved even at the coarse level of resolution, and the result of global matching is better than before. It will be very good.

【0108】図12のごとく、まず係数パラメータηを
0、レベルパラメータmを0に設定する(S20)。つ
づいて、始点階層画像中の第mレベルの4つの副画像と
終点階層画像中の第mレベルの4つの副画像のそれぞれ
の間でマッチングを計算し、それぞれ全単射条件を満た
し、かつエネルギーを最小にするような4種類の副写像
(m,s)(s=0,1,2,3)を求める(S2
1)。全単射条件は[1.3.3]で述べた相続四辺形
を用いて検査される。この際、式17、18が示すよう
に、第mレベルにおける副写像は第m−1レベルのそれ
らに拘束されるため、より解像度の粗いレベルにおける
マッチングが順次利用されていく。これは異なるレベル
間の垂直的参照である。なお、いまm=0であってそれ
より粗いレベルはないが、この例外的な処理は図13で
後述する。
As shown in FIG. 12, first, the coefficient parameter η is set to 0 and the level parameter m is set to 0 (S20). Subsequently, matching is calculated between each of the four sub-images at the m-th level in the start point hierarchical image and the four sub-images at the m-th level in the end point hierarchical image, satisfying the bijective conditions, and 4 types of submappings f (m, s) (s = 0,1,2,3) that minimize
1). The bijection condition is checked using the inherited quadrilateral described in [1.3.3]. At this time, as shown in Expressions 17 and 18, the sub-mappings at the m-th level are constrained to those at the (m-1) -th level, so that matching at a coarser resolution level is sequentially used. This is a vertical reference between different levels. Note that m = 0 now and there is no coarser level, but this exceptional processing will be described later with reference to FIG.

【0109】一方、同一レベル内における水平的参照も
行われる。[1.3.3]の式20のごとく、f
(m,3)はf(m,2)に、f(m,2)はf
(m,1)に、f (m,1)はf(m,0)に、それぞ
れ類似するように決める。その理由は、特異点の種類が
違っても、それらがもともと同じ始点画像と終点画像に
含まれている以上、副写像がまったく異なるという状況
は不自然だからである。式20からわかるように、副写
像どうしが近いほどエネルギーは小さくなり、マッチン
グが良好とみなされる。
On the other hand, the horizontal reference within the same level is also
Done. As in Expression 20 of [1.3.3], f
(M, 3)Is f(M, 2)And f(M, 2)Is f
(M, 1)And f (M, 1)Is f(M, 0)To that
It is decided to be similar. The reason is that the type of singularity is
Even if they are different, they are originally the same start image and end image.
Situation in which the submappings are completely different because they are included
Is unnatural. As you can see from Equation 20,
The closer the images are to each other, the smaller the energy
Goodness is considered good.

【0110】なお、最初に決めるべきf(m,0)につ
いては同一のレベルで参照できる副写像がないため、式
19に示すごとくひとつ粗いレベルを参照する。ただ
し、実験ではf(m,3)まで求まった後、これを拘束
条件としてf(m,0)を一回更新するという手続をと
った。これは式20にs=4を代入し、f(m,4)
新たなf(m,0)とすることに等しい。f(m,0)
とf(m,3)の関連度が低くなり過ぎる傾向を回避す
るためであり、この措置によって実験結果がより良好に
なった。この措置に加え、実験では[1.7.1]に示
す副写像のシャッフルも行った。これも本来特異点の種
類ごとに決まる副写像どうしの関連度を密接に保つ趣旨
である。また、処理の開始点に依存する偏向を回避する
ために、sの値にしたがって開始点の位置を変える点は
[1.7]で述べたとおりである。
Since there is no submapping that can be referred to at the same level for f (m, 0) to be determined first, one coarse level is referred to as shown in Expression 19. However, in the experiment, after obtaining up to f (m, 3), the procedure was taken to update f (m, 0) once with this as a constraint condition. This is equivalent to substituting s = 4 into Equation 20 and making f (m, 4) a new f (m, 0) . f (m, 0)
This is to avoid the tendency that the degree of association between f and ( f (m, 3)) becomes too low, and this measure improved the experimental results. In addition to this measure, in the experiment, the shuffling of the submapping shown in [1.7.1] was also performed. This is also to keep close the degree of association between submappings that are originally determined for each type of singularity. Further, the point of changing the position of the starting point according to the value of s in order to avoid the deflection depending on the starting point of the processing is as described in [1.7].

【0111】図13は第0レベルにおいて副写像を決定
する様子を示す図である。第0レベルでは各副画像がた
だひとつの画素で構成されるため、4つの副写像
f(0,s はすべて自動的に単位写像に決まる。図1
4は第1レベルにおいて副写像を決定する様子を示す図
である。第1レベルでは副画像がそれぞれ4画素で構成
される。同図ではこれら4画素が実線で示されている。
いま、p(1,s)の点xの対応点をq(1,s)の中
で探すとき、以下の手順を踏む。
FIG. 13 is a diagram showing how the submapping is determined at the 0th level. At level 0, each sub-image consists of only one pixel, so four sub-maps
All f (0, s ) are automatically determined as unit maps. Figure 1
FIG. 4 is a diagram showing how a submapping is determined at the first level. At the first level, each sub-image consists of 4 pixels. In the figure, these four pixels are shown by solid lines.
Now, when searching the corresponding point of the point x of p (1, s) in q (1, s) , the following procedure is performed.

【0112】1.第1レベルの解像度で点xの左上点
a、右上点b、左下点c、右下点dを求める。 2.点a〜dがひとつ粗いレベル、つまり第0レベルに
おいて属する画素を探す。図14の場合、点a〜dはそ
れぞれ画素A〜Dに属する。ただし、画素A〜Cは本来
存在しない仮想的な画素である。 3.第0レベルですでに求まっている画素A〜Dの対応
点A’〜D’をq(1 ,s)の中にプロットする。画素
A’〜C’は仮想的な画素であり、それぞれ画素A〜C
と同じ位置にあるものとする。 4.画素Aの中の点aの対応点a’が画素A’の中にあ
るとみなし、点a’をプロットする。このとき、点aが
画素Aの中で占める位置(この場合、右下)と、点a’
が画素A’の中で占める位置が同じであると仮定する。 5.4と同様の方法で対応点b’〜d’をプロットし、
点a’〜d’で相続四辺形を作る。 6.相続四辺形の中でエネルギーが最小になるよう、点
xの対応点x’を探す。対応点x’の候補として、例え
ば画素の中心が相続四辺形に含まれるものに限定しても
よい。図14の場合、4つの画素がすべて候補になる。
1. The upper left point a, the upper right point b, the lower left point c, and the lower right point d of the point x are obtained at the first level resolution. 2. A pixel to which the points a to d belong at one coarse level, that is, the 0th level is searched for. In the case of FIG. 14, points a to d belong to pixels A to D, respectively. However, the pixels A to C are virtual pixels that do not originally exist. 3. Plot the corresponding points A ′ to D ′ of the pixels A to D, which have already been obtained at the 0th level, in q (1 , s) . Pixels A ′ to C ′ are virtual pixels, and are pixels A to C, respectively.
Shall be in the same position as. 4. The corresponding point a ′ of the point a in the pixel A is considered to be in the pixel A ′, and the point a ′ is plotted. At this time, the position of the point a in the pixel A (lower right in this case) and the point a ′
Are assumed to occupy the same position in pixel A '. Plot corresponding points b ′ to d ′ in the same way as in 5.4,
Make an inherited quadrilateral at points a'-d '. 6. Find the corresponding point x ′ of the point x so that the energy is minimized in the inherited quadrilateral. The candidates of the corresponding point x ′ may be limited to those in which the center of the pixel is included in the inherited quadrangle, for example. In the case of FIG. 14, all four pixels are candidates.

【0113】以上がある点xの対応点の決定手順であ
る。同様の処理を他のすべての点について行い、副写像
を決める。第2レベル以上のレベルでは、次第に相続四
辺形の形が崩れていくと考えられるため、図3に示すよ
うに画素A’〜D’の間隔が空いていく状況が発生す
る。
The above is the procedure for determining the corresponding point of the point x. Similar processing is performed for all other points to determine the submapping. At the second level and above, it is considered that the shape of the inherited quadrangle gradually collapses, so that a situation occurs in which the pixels A ′ to D ′ are spaced apart as shown in FIG. 3.

【0114】こうして、ある第mレベルの4つの副写像
が決まれば、mをインクリメントし(図12のS2
2)、mがnを超えていないことを確かめて(S2
3)、S21に戻る。以下、S21に戻るたびに次第に
細かい解像度のレベルの副写像を求め、最後にS21に
戻ったときに第nレベルの写像f(n)を決める。この
写像はη=0に関して定まったものであるから、f
(n)(η=0)と書く。
Thus, if four sub-maps of a certain m-th level are determined, m is incremented (S2 in FIG. 12).
2) Make sure that m does not exceed n (S2
3) and returns to S21. Hereinafter, each time the process returns to S21, the sub-mapping of the finer resolution level is obtained, and when the process finally returns to S21, the n-th level mapping f (n) is determined. Since this mapping is fixed for η = 0, f
(N) Write (η = 0).

【0115】つぎに異なるηに関する写像も求めるべ
く、ηをΔηだけシフトし、mをゼロクリアする(S2
4)。新たなηが所定の探索打切り値ηmaxを超えて
いないことを確認し(S25)、S21に戻り、今回の
ηに関して写像f(n)(η=Δη)を求める。この処
理を繰り返し、S21でf(n)(η=iΔη)(i=
0,1,…)を求めていく。ηがηmaxを超えたとき
S26に進み、後述の方法で最適なη=ηoptを決定
し、f(n)(η=ηopt)を最終的に写像f (n)
とする。
Next, the maps for different η should be obtained.
Shift η by Δη and clear m to zero (S2
4). New η is the predetermined search cutoff value ηmaxBeyond
Confirm that it is not (S25), return to S21,
map f with respect to η(N)Calculate (η = Δη). This place
The process is repeated, and in S21, f(N)(Η = iΔη) (i =
0, 1, ...) η is ηmaxWhen exceeded
Proceeding to S26, the optimum η = η by the method described later.optDecide
And f(N)(Η = ηopt) Is finally a map f (N)
And

【0116】図15は図12のS21の詳細を示すフロ
ーチャートである。このフローチャートにより、ある定
まったηについて、第mレベルにおける副写像が決ま
る。副写像を決める際、前提技術では副写像ごとに最適
なλを独立して決める。
FIG. 15 is a flow chart showing the details of S21 of FIG. This flowchart determines the submapping at the m-th level for a certain η. When determining the submappings, the precondition technique independently determines the optimum λ for each submapping.

【0117】同図のごとく、まずsとλをゼロクリアす
る(S210)。つぎに、そのときのλについて(およ
び暗にηについて)エネルギーを最小にする副写像f
(m, s)を求め(S211)、これをf
(m,s)(λ=0)と書く。異なるλに関する写像も
求めるべく、λをΔλだけシフトし、新たなλが所定の
探索打切り値λmaxを超えていないことを確認し(S
213)、S211に戻り、以降の繰り返し処理でf
(m,s)(λ=iΔλ)(i=0,1,…)を求め
る。λがλ maxを超えたときS214に進み、最適な
λ=λoptを決定し、f(m,s (λ=λopt
を最終的に写像f(m,s)とする(S214)。
As shown in the figure, first, s and λ are cleared to zero.
(S210). Next, for λ at that time (and
And implicitly for η) the submapping f that minimizes the energy
(M, s)(S211), and this is f
(M, s)Write (λ = 0). Also the mappings for different λ
To obtain, shift λ by Δλ, and set a new λ
Search cutoff value λmaxConfirm that it does not exceed (S
213), the process returns to S211 and f is repeated in the subsequent processing.
(M, s)(Λ = iΔλ) (i = 0,1, ...)
It λ is λ maxWhen it exceeds, the process proceeds to S214 and the optimum
λ = λoptAnd f(M, s )(Λ = λopt)
Finally the map f(M, s)(S214).

【0118】つぎに、同一レベルにおける他の副写像を
求めるべく、λをゼロクリアし、sをインクリメントす
る(S215)。sが4を超えていないことを確認し
(S216)、S211に戻る。s=4になれば上述の
ごとくf(m,3)を利用してf(m,0)を更新し、
そのレベルにおける副写像の決定を終了する。
Next, in order to find another submapping at the same level, λ is cleared to zero and s is incremented (S215). It is confirmed that s does not exceed 4 (S216), and the process returns to S211. When s = 4, f (m, 3 ) is updated using f (m, 3) as described above,
Finish the submapping determination at that level.

【0119】図16は、あるmとsについてλを変えな
がら求められたf(m,s)(λ=iΔλ)(i=0,
1,…)に対応するエネルギーC(m,s) の挙動を
示す図である。[1.4]で述べたとおり、λが増加す
ると通常C(m,s) は減少する。しかし、λが最適
値を超えるとC(m,s) は増加に転じる。そこで本
前提技術ではC(m,s) が極小値をとるときのλを
λoptと決める。同図のようにλ>λoptの範囲で
再度C(m,s) が小さくなっていっても、その時点
ではすでに写像がくずれていて意味をなさないため、最
初の極小点に注目すればよい。λoptは副写像ごとに
独立して決めていき、最後にf(n)についてもひとつ
定まる。
FIG. 16 shows that f (m, s) (λ = iΔλ) (i = 0,
It is a figure which shows the behavior of the energy C (m, s) f corresponding to 1, ...). As described in [1.4], when λ increases, C (m, s) f usually decreases. However, when λ exceeds the optimum value, C (m, s) f starts to increase. Therefore, in the base technology, λ when C (m, s) f has a minimum value is determined as λ opt . Even if C (m, s) f becomes small again in the range of λ> λ opt as shown in the figure, the map is already broken at that point and it does not make sense, so pay attention to the first minimum point. Good. λ opt is independently determined for each submapping, and finally f (n) is also determined.

【0120】一方、図17は、ηを変えながら求められ
たf(n)(η=iΔη)(i=0,1,…)に対応す
るエネルギーC(n) の挙動を示す図である。ここで
もηが増加すると通常C(n) は減少するが、ηが最
適値を超えるとC(n) は増加に転じる。そこでC
(n) が極小値をとるときのηをηoptと決める。
図17は図4の横軸のゼロ付近を拡大した図と考えてよ
い。ηoptが決まればf(n)を最終決定することが
できる。
On the other hand, FIG. 17 is a diagram showing the behavior of the energy C (n) f corresponding to f (n) (η = iΔη) (i = 0, 1, ...) Obtained while changing η. . Again, when η increases, C (n) f usually decreases, but when η exceeds the optimum value, C (n) f starts to increase. So C
(N) Determine η when f takes a minimum value as η opt .
It can be considered that FIG. 17 is an enlarged view of the vicinity of zero on the horizontal axis of FIG. Once η opt is determined, f (n) can be finally determined.

【0121】以上、本前提技術によれば種々のメリット
が得られる。まずエッジを検出する必要がないため、エ
ッジ検出タイプの従来技術の課題を解消できる。また、
画像に含まれるオブジェクトに対する先験的な知識も不
要であり、対応点の自動検出が実現する。特異点フィル
タによれば、解像度の粗いレベルでも特異点の輝度や位
置を維持することができ、オブジェクト認識、特徴抽
出、画像マッチングに極めて有利である。その結果、人
手作業を大幅に軽減する画像処理システムの構築が可能
となる。
As described above, according to the base technology, various advantages can be obtained. First, since it is not necessary to detect edges, it is possible to solve the problems of the edge detection type prior art. Also,
A priori knowledge of the objects contained in the image is not required, and the corresponding points are automatically detected. The singular point filter can maintain the brightness and position of the singular point even at a coarse resolution level, and is extremely advantageous for object recognition, feature extraction, and image matching. As a result, it is possible to construct an image processing system that significantly reduces manual work.

【0122】なお、本前提技術について次のような変形
技術も考えられる。 (1)前提技術では始点階層画像と終点階層画像の間で
マッチングをとる際にパラメータの自動決定を行った
が、この方法は階層画像間ではなく、通常の2枚の画像
間のマッチングをとる場合全般に利用できる。
The following modified techniques can be considered for the base technology. (1) In the base technology, the parameters are automatically determined when matching is performed between the starting point hierarchical image and the ending point hierarchical image, but this method does not perform matching between hierarchical images but ordinary two images. Available in all cases.

【0123】たとえば2枚の画像間で、画素の輝度の差
に関するエネルギーEと画素の位置的なずれに関する
エネルギーEのふたつを評価式とし、これらの線形和
ot=αE+Eを総合評価式とする。この総合
評価式の極値付近に注目してαを自動決定する。つま
り、いろいろなαについてEtotが最小になるような
写像を求める。それらの写像のうち、αに関してE
極小値をとるときのαを最適パラメータと決める。その
パラメータに対応する写像を最終的に両画像間の最適マ
ッチングとみなす。
For example, between two images, the energy E 0 related to the difference in pixel brightness and the energy E 1 related to the positional shift of pixels are used as evaluation expressions, and the linear sum E t ot = αE 0 + E 1 of these is used. Is a comprehensive evaluation formula. Paying attention to the vicinity of the extreme value of this comprehensive evaluation formula, α is automatically determined. That is, a map that minimizes E tot is obtained for various α. Among these mappings, α when E 1 has a minimum value with respect to α is determined as the optimum parameter. The map corresponding to that parameter is finally regarded as the optimum matching between both images.

【0124】これ以外にも評価式の設定にはいろいろな
方法があり、例えば1/Eと1/Eのように、評価
結果が良好なほど大きな値をとるものを採用してもよ
い。総合評価式も必ずしも線形和である必要はなく、n
乗和(n=2、1/2、−1、−2など)、多項式、任
意の関数などを適宜選択すればよい。
In addition to this, there are various methods for setting the evaluation formula, and for example, 1 / E 1 and 1 / E 2 which take a larger value as the evaluation result becomes better may be adopted. . The total evaluation formula does not necessarily have to be a linear sum, and n
The sum of multiplications (n = 2, 1/2, -1, -2, etc.), a polynomial, an arbitrary function, etc. may be appropriately selected.

【0125】パラメータも、αのみ、前提技術のごとく
ηとλのふたつの場合、それ以上の場合など、いずれで
もよい。パラメータが3以上の場合はひとつずつ変化さ
せて決めていく。
The parameter may be α only, two cases of η and λ as in the premised technique, or more cases. If the parameter is 3 or more, change it one by one and decide.

【0126】(2)本前提技術では、総合評価式の値が
最小になるよう写像を決めた後、総合評価式を構成する
ひとつの評価式であるC(m,s) が極小になる点を
検出してパラメータを決定した。しかし、こうした二段
回処理の代わりに、状況によっては単に総合評価式の最
小値が最小になるようにパラメータを決めても効果的で
ある。その場合、例えばαE+βEを総合評価式と
し、α+β=1なる拘束条件を設けて各評価式を平等に
扱うなどの措置を講じてもよい。パラメータの自動決定
の本質は、エネルギーが最小になるようにパラメータを
決めていく点にあるからである。
(2) In the base technology, after the mapping is determined so that the value of the comprehensive evaluation formula is minimized, one evaluation formula C (m, s) f constituting the comprehensive evaluation formula is minimized. The points were detected and the parameters were determined. However, instead of such a two-step process, it may be effective to simply determine the parameters so that the minimum value of the comprehensive evaluation formula is minimized depending on the situation. In that case, for example, αE 0 + βE 1 may be used as a comprehensive evaluation formula, and a constraint condition of α + β = 1 may be provided to treat each evaluation formula equally. This is because the essence of automatic parameter determination is to determine the parameters so that the energy is minimized.

【0127】(3)前提技術では各解像度レベルで4種
類の特異点に関する4種類の副画像を生成した。しか
し、当然4種類のうち1、2、3種類を選択的に用いて
もよい。例えば、画像中に明るい点がひとつだけ存在す
る状態であれば、極大点に関するf(m,3)だけで階
層画像を生成しても相応の効果が得られるはずである。
その場合、同一レベルで異なる副写像は不要になるた
め、sに関する計算量が減る効果がある。
(3) In the base technology, four types of sub-images relating to four types of singular points are generated at each resolution level. However, naturally, one, two, and three types among the four types may be selectively used. For example, if there is only one bright point in the image, a corresponding effect should be obtained even if a hierarchical image is generated only with f (m, 3) related to the maximum point.
In that case, different submappings at the same level are not necessary, which has the effect of reducing the amount of calculation regarding s.

【0128】(4)本前提技術では特異点フィルタによ
ってレベルがひとつ進むと画素が1/4になった。例え
ば3×3で1ブロックとし、その中で特異点を探す構成
も可能であり、その場合、レベルがひとつ進むと画素は
1/9になる。
(4) In this base technology, when the level advances by one with the singularity filter, the number of pixels becomes 1/4. For example, it is possible to use 3 × 3 as one block and search for a singular point in the block. In that case, the pixel becomes 1/9 when the level advances by one.

【0129】(5)始点画像と終点画像がカラーの場
合、それらをまず白黒画像に変換し、写像を計算する。
その結果求められた写像を用いて始点のカラー画像を変
換する。それ以外の方法として、RGBの各成分につい
て副写像を計算してもよい。
(5) When the start point image and the end point image are in color, they are first converted into a black and white image and the mapping is calculated.
The color image at the starting point is converted using the mapping obtained as a result. As another method, a submapping may be calculated for each of the RGB components.

【0130】[画像符号化および復号に関する実施の形
態]前提技術ではキーフレーム間のマッチングをとって
対応点情報を生成し、この対応点情報をもとに中間フレ
ームを生成した。したがって、この技術は動画の圧縮に
利用でき、現実に実験ではMPEGを超える画質と圧縮
率の両立が確認されはじめている。また、キーフレーム
とその対応点情報を元に、キーフレーム間の中間フレー
ムを精度良く生成できるので、複数の静止画像から滑ら
かな動画を生成するのに利用できる。本実施の形態で
は、ネットワークを介して音声データと共に画像データ
を送受信する端末間で、画像データの通信量を減らして
も受信側で滑らかな動画像を再生可能とする技術を説明
する。以下、前提技術を利用した画像符号化および復号
技術を説明する。
[Embodiment Regarding Image Coding and Decoding] In the base technology, matching points are generated by matching key frames, and an intermediate frame is generated based on this matching point information. Therefore, this technique can be used for compression of moving images, and in actuality, it has been actually confirmed in the experiment that both the image quality and the compression rate exceeding MPEG are compatible. Further, since the intermediate frame between the key frames can be accurately generated based on the key frame and the corresponding point information, it can be used to generate a smooth moving image from a plurality of still images. In the present embodiment, a technique will be described in which, between terminals that transmit and receive image data together with audio data via a network, a smooth moving image can be reproduced on the receiving side even if the communication amount of image data is reduced. Hereinafter, the image encoding and decoding techniques using the prerequisite technique will be described.

【0131】図18は、本発明の実施の形態に係る画像
符号化装置10の構成を示す図である。画像符号化装置
10は、テレビ電話やテレビ会議などにおける送信側の
端末である。画像符号化装置10は、画像入力部12、
画像保持部14、音声入力部16、音声認識部18、配
列部20、プロセッサ22、ストリーム生成部24、お
よび通信部26を有する。
FIG. 18 is a diagram showing the structure of the image coding apparatus 10 according to the embodiment of the present invention. The image encoding device 10 is a transmission-side terminal in a videophone, a video conference, or the like. The image encoding device 10 includes an image input unit 12,
The image storage unit 14, the voice input unit 16, the voice recognition unit 18, the array unit 20, the processor 22, the stream generation unit 24, and the communication unit 26 are included.

【0132】画像入力部12は、人が言葉を発声すると
きの表情を示す画像を各音ごとにキーフレームKFとし
て取得する。画像入力部12は、各音ごとに静止画像と
してキーフレームKFを取得してもよく、動画像を取得
してその中からキーフレームKFを決定する機能を有し
てもよい。また、このときの画像はユーザの実際の画像
でなく、キャラクタの画像であってもよい。
The image input unit 12 acquires, as a key frame KF, an image showing a facial expression when a person speaks a word for each sound. The image input unit 12 may acquire a key frame KF as a still image for each sound, or may have a function of acquiring a moving image and determining the key frame KF from the acquired moving image. Further, the image at this time may be an image of a character instead of the actual image of the user.

【0133】画像保持部14は、画像入力部12により
取得されたキーフレームKFを各音に対応づけて保持す
る。また画像保持部14は、異なる音であってもそれら
の音を発声するときの表情が類似する場合、それらの音
をグループ化して同一のキーフレームKFに対応づけて
保持してもよい。
The image holding unit 14 holds the key frame KF acquired by the image input unit 12 in association with each sound. In addition, the image holding unit 14 may group different sounds and associate them with the same key frame KF when the expressions when uttering those sounds are similar.

【0134】このグループ化を行うひとつの方法とし
て、発声したときに類似した表情になるであろう音を予
めグループ化しておき、画像入力部12にグループごと
にひとつの表情の画像を取得させてもよい。また別の方
法として、取得された画像の類似度を判定する手段を設
け、類似すると判定されたものをグループ化して保持し
てもよい。
As one method of performing this grouping, sounds that will have similar facial expressions when uttered are grouped in advance, and the image input unit 12 is made to acquire one facial expression image for each group. Good. As another method, a unit for determining the degree of similarity of the acquired images may be provided, and those determined to be similar may be grouped and held.

【0135】音声入力部16は音声データSを入力す
る。音声認識部18は音声データSに含まれる各音を認
識する既知の音声認識手段である。音声認識部18はさ
らに、音声データSにおいて各音が発声されたタイミン
グを検知する手段を有する。ここでいうタイミングと
は、例えば各音が発声された時間間隔である。音声認識
部18は、さらにタイミングに応じてキーフレームKF
間に人工的に生成すべき中間フレームの枚数Niを特定
する手段を有する。
The voice input unit 16 inputs the voice data S. The voice recognition unit 18 is a known voice recognition unit that recognizes each sound included in the voice data S. The voice recognition unit 18 further has means for detecting the timing at which each sound is uttered in the voice data S. The timing here is, for example, a time interval at which each sound is uttered. The voice recognition unit 18 further determines the key frame KF according to the timing.
A means for specifying the number Ni of intermediate frames to be artificially generated is provided between them.

【0136】配列部20は、キーフレームKFを認識さ
れた各音の順に配列する。プロセッサ22は前提技術に
基づき、または別の任意の技術に基づき、特異点その他
をもとに画素単位でふたつのキーフレームKF間のマッ
チングをとる。これによりプロセッサ22は、配列され
たキーフレームKF間の対応点情報Cを生成する。ただ
し、プロセッサ22をなくし、対応点情報C自体を別の
個所から取得してストリーム生成部24へ投入する構成
であってもよい。
The arranging section 20 arranges the key frames KF in the order of the recognized sounds. The processor 22 performs matching between the two key frames KF on a pixel-by-pixel basis based on the singularity or the like based on the base technology or another arbitrary technology. As a result, the processor 22 generates corresponding point information C between the arranged key frames KF. However, the processor 22 may be omitted, and the corresponding point information C itself may be acquired from another location and input to the stream generation unit 24.

【0137】ストリーム生成部24は、配列されたキー
フレームKF、対応点情報C、各キーフレームKF間に
生成すべき中間フレームの枚数Niをもとに符号化デー
タストリームCIを生成する。通信部26は、符号化デ
ータストリームCIを、音声データと共に図示しないネ
ットワークを介して、後述する画像復号装置50へ出力
する。
The stream generation unit 24 generates the coded data stream CI based on the arranged key frames KF, the corresponding point information C, and the number Ni of intermediate frames to be generated between each key frame KF. The communication unit 26 outputs the encoded data stream CI together with the audio data to the image decoding device 50 described later via a network (not shown).

【0138】以上の構成による符号化の手順を示す。An encoding procedure with the above configuration will be shown.

【0139】まず、ストレージやカメラから画像入力部
12を介してキーフレームKFが入力される。画像符号
化装置10は、ユーザにキーフレームKFを入力させる
ための指示を行う。例えば、「「あ」と発声してくださ
い。」という表示をしてユーザが「あ」という音を発声
するときの表情を示す画像を取得する。このとき、画像
符号化装置10は、ユーザの音声情報を同時に取得して
もよい。その場合、音声認識部18は、ユーザ自身の音
声情報を基準にして音声データSに含まれる音の認識を
行えるので、認識精度を上げることができる。
First, the key frame KF is input from the storage or camera via the image input unit 12. The image encoding device 10 gives an instruction for the user to input the key frame KF. For example, say "a". Is displayed, and an image showing the facial expression when the user utters the sound "A" is acquired. At this time, the image encoding device 10 may simultaneously acquire the voice information of the user. In that case, the voice recognition unit 18 can recognize the sound included in the voice data S based on the voice information of the user himself, and thus the recognition accuracy can be improved.

【0140】図19は、画像保持部14の内部構成を示
す図である。画像保持部14は、フレーム番号欄、キー
フレーム欄および音欄を有する。ユーザが各音を発声す
るときの表情を示す画像であるキーフレームKFは、そ
のフレーム番号と音とに対応づけて保持される。例え
ば、フレーム番号A1のキーフレームKFはユーザが
「あ」と発声したときの表情を示す画像である。本実施
の形態では各音ごとにキーフレームを対応付けている
が、例えばユーザが「い」と発声したときと「し」と発
声したときの表情が類似している場合、フレーム番号B
1のキーフレームに「し」の音をも対応づけて保持して
よい。このようにグループ化することにより、必要なキ
ーフレームKFの数を減らすことができるので、通信量
をさらに少なくすることができる。
FIG. 19 is a diagram showing the internal structure of the image holding unit 14. The image holding unit 14 has a frame number column, a key frame column, and a sound column. The key frame KF, which is an image showing the facial expression when the user utters each sound, is held in association with the frame number and the sound. For example, the key frame KF of the frame number A1 is an image showing a facial expression when the user utters “A”. In the present embodiment, a key frame is associated with each sound, but if the facial expressions when the user utters "i" and "shi" are similar, frame number B
The sound of “shi” may be associated with one key frame and held. By grouping in this way, the number of required keyframes KF can be reduced, so that the amount of communication can be further reduced.

【0141】以上のキーフレームKFの取得および保持
は、音声データSの入力に先立ち予め処理される。次
に、音声データSの入力を説明する。音声データSは、
ユーザが画像復号装置50のユーザへ電話をするときに
入力されてよい。
The acquisition and holding of the above key frame KF are processed in advance before the input of the audio data S. Next, the input of the voice data S will be described. The voice data S is
It may be input when the user calls the user of the image decoding device 50.

【0142】音声入力部16は、ユーザが発した音声を
音声データSとして入力する。例えばユーザが「もしも
し」と発声すると、音声認識部18はこの音声データS
に「も、し、も、し」という音が含まれることを認識す
る。この場合のように、同じ音が重複する場合、配列部
20はキーフレームKF自体を配列するのではなく、各
キーフレームKFのフレーム番号を配列する。
The voice input unit 16 inputs the voice uttered by the user as the voice data S. For example, when the user utters "Hello", the voice recognition unit 18 uses the voice data S
Recognize that the sound "is good, good, good" is included. When the same sound is duplicated, as in this case, the arrangement unit 20 arranges the frame numbers of the respective key frames KF instead of arranging the key frames KF themselves.

【0143】また、音声認識部18は、音声データSに
含まれる各音が発生された時間間隔に応じて、隣接する
キーフレームKF間に生成すべき中間フレームの枚数N
iを算出する。隣接するキーフレームKF間の時間間隔
をΔT、表示装置の毎秒の表示フレーム数をnとすれ
ば、生成すべき中間フレームの枚数Niは、 Ni=nΔT となる。
Also, the voice recognition unit 18 determines the number N of intermediate frames to be generated between the adjacent key frames KF in accordance with the time interval at which each sound included in the voice data S is generated.
Calculate i. When the time interval between adjacent key frames KF is ΔT and the number of display frames per second of the display device is n, the number of intermediate frames Ni to be generated is Ni = nΔT.

【0144】ストリーム生成部24には、配列部20か
らキーフレームKFおよびフレーム番号の配列が、プロ
セッサ22からキーフレームKF間の対応点情報Cが、
音声認識部18から中間フレームの枚数Niが入力され
る。ストリーム生成部24はこれらのデータを適当な順
番で組み込み、符号化データストリームCIを生成す
る。
In the stream generation unit 24, the array of the key frame KF and the frame number from the array unit 20 and the corresponding point information C between the processor 22 and the key frame KF are stored.
The number Ni of intermediate frames is input from the voice recognition unit 18. The stream generation unit 24 incorporates these data in an appropriate order and generates an encoded data stream CI.

【0145】図20は、ストリーム生成部24によって
生成された符号化データストリームCIの構成を示す図
である。符号化データストリームCIは、「も」を発声
したときのキーフレームKF(E7)、「し」を発声し
たときのキーフレームKF(B3)、これらのキーフレ
ームKF間の対応点情報Cおよびフレーム番号の配列を
示す配列情報Hを含む。
FIG. 20 is a diagram showing the structure of the coded data stream CI generated by the stream generation unit 24. The coded data stream CI includes a key frame KF (E7) when "mo" is uttered, a key frame KF (B3) when "shi" is uttered, corresponding point information C and a frame between these key frames KF. Sequence information H indicating the sequence of numbers is included.

【0146】図21は、配列情報Hのフォーマットを示
す。配列は「E7、B3、E7、B3」の順となる。ま
た、各フレーム番号の間にはその間に挿入すべき中間フ
レームの枚数Niが含まれる。
FIG. 21 shows the format of the array information H. The sequence is "E7, B3, E7, B3". In addition, the number Ni of intermediate frames to be inserted between the frame numbers is included between each frame number.

【0147】通信部26は、音声入力部16から音声デ
ータSを、ストリーム生成部24から符号化データスト
リームCIを受取り、画像復号装置50に送信する。以
上が符号化側の処理である。画像符号化装置10によれ
ば、復号側で容易に再生可能な動画像を提供できる。
The communication section 26 receives the audio data S from the audio input section 16 and the coded data stream CI from the stream generation section 24, and transmits them to the image decoding apparatus 50. The above is the processing on the encoding side. The image encoding device 10 can provide a moving image that can be easily reproduced on the decoding side.

【0148】図22は、本発明の実施の形態に係る画像
復号装置50の構成を示す図である。画像復号装置50
は、テレビ電話やテレビ会議などにおける受信側の端末
である。画像復号装置50は、通信部52、ストリーム
入力部54、ストリーム分別部56、音声入力部58、
同期調整部60、中間画像生成部62、画像出力部6
4、および音声出力部66を有する。
FIG. 22 is a diagram showing the structure of the image decoding device 50 according to the embodiment of the present invention. Image decoding device 50
Is a terminal on the receiving side in a videophone or a video conference. The image decoding device 50 includes a communication unit 52, a stream input unit 54, a stream classification unit 56, an audio input unit 58,
Synchronization adjustment unit 60, intermediate image generation unit 62, image output unit 6
4 and a voice output unit 66.

【0149】通信部52は、ネットワークを介して画像
符号化装置10からデータを受取る。ストリーム入力部
54は、符号化データストリームCIを取得する。スト
リーム分別部56は、入力した符号化データストリーム
CIをその構成要素へ分解して、そのデータストリーム
CIに含まれるキーフレームKF、フレーム番号の配列
情報H、キーフレームKF間の対応点情報Cおよび中間
フレームの枚数Niを検出する。音声入力部58は、音
声データSを取得する。
The communication section 52 receives data from the image coding apparatus 10 via the network. The stream input unit 54 acquires the encoded data stream CI. The stream classification unit 56 decomposes the input coded data stream CI into its constituent elements, and includes a key frame KF included in the data stream CI, frame number array information H, corresponding point information C between the key frames KF, and The number Ni of intermediate frames is detected. The voice input unit 58 acquires the voice data S.

【0150】中間画像生成部62は、ストリーム分別部
56からキーフレームKF、配列情報H、対応点情報C
および中間フレームの枚数Niを受取り、前提技術で示
した補間処理によって各キーフレームKF間にNi枚の
中間フレームを生成する。
The intermediate image generator 62 receives the key frame KF, the array information H, and the corresponding point information C from the stream classification unit 56.
Also, the number of intermediate frames Ni is received, and Ni intermediate frames are generated between each key frame KF by the interpolation processing described in the base technology.

【0151】同期調整部60は、音声データSにおける
各音の出力タイミングに同期して各キーフレームKFが
出力されるように、音声データSおよび動画像の再生の
同期を調整する。音声出力部66は音声データSを出力
する。画像出力部64はキーフレームKFおよび中間フ
レームを動画として出力する。
The synchronization adjusting unit 60 adjusts the synchronization of reproduction of the audio data S and the moving image so that each key frame KF is output in synchronization with the output timing of each sound in the audio data S. The audio output unit 66 outputs the audio data S. The image output unit 64 outputs the key frame KF and the intermediate frame as a moving image.

【0152】以上、実施の形態をもとに本発明を説明し
た。なお本発明はこの実施の形態に限定されることな
く、そのさまざまな変形例もまた、本発明の態様として
有効である。
The present invention has been described above based on the embodiments. Note that the present invention is not limited to this embodiment, and various modifications thereof are also effective as aspects of the present invention.

【0153】例えば、実施の形態では予めキーフレーム
KFを登録しておき、音声認識技術を用いて、入力され
た音声データSに含まれる各音に対応するキーフレーム
KFを取り出して符号化データストリームCIを生成し
ていたが、音声データSの入力と同時に所定のタイミン
グで順次キーフレームKFを取得してもよい。この場
合、キーフレームKFの取得は音声データSの入力と略
リアルタイムで行われてよい。このようにすれば、音声
認識を行う必要がないので、処理がより簡潔になる。
For example, in the embodiment, the key frame KF is registered in advance, and the voice recognition technique is used to extract the key frame KF corresponding to each sound included in the input voice data S to obtain the encoded data stream. Although the CI is generated, the key frames KF may be sequentially acquired at a predetermined timing at the same time when the audio data S is input. In this case, the acquisition of the key frame KF may be performed substantially in real time with the input of the audio data S. In this way, it is not necessary to perform voice recognition, so the process becomes simpler.

【0154】以下に、図18および図22を用いてこの
例を説明する。画像入力部12にはキーフレームKF
が、音声入力部16には音声データSが略リアルタイム
に入力される。プロセッサ22は、入力されたキーフレ
ームKF間の対応点情報Cを順次生成する。ストリーム
生成部24は、キーフレームKFおよび対応点情報Cを
含む形式にて符号化データストリームCIを生成する。
This example will be described below with reference to FIGS. 18 and 22. The image input section 12 has a key frame KF.
However, the voice data S is input to the voice input unit 16 in substantially real time. The processor 22 sequentially generates corresponding point information C between the input key frames KF. The stream generation unit 24 generates the encoded data stream CI in a format including the key frame KF and the corresponding point information C.

【0155】画像入力部12は、入力画像の変化を検知
する手段を有してもよく、話をしている人の表情が変化
するタイミングでキーフレームKFを取得してよい。ま
た、画像符号化装置10は、その人が異なる音を発声す
るタイミングを検知する手段を有してもよく、そのタイ
ミングでキーフレームKFを取得してもよい。
The image input unit 12 may have means for detecting a change in the input image, and may acquire the key frame KF at the timing when the facial expression of the person talking is changed. Further, the image encoding device 10 may have a means for detecting the timing at which the person speaks a different sound, and may acquire the key frame KF at that timing.

【0156】画像復号装置50は、以上のようにして生
成された符号化データストリームCIに基づき、各キー
フレームKF間の中間フレームを生成しつつ、音声デー
タSの出力タイミングに同期させてキーフレームKFお
よび中間フレームを動画として出力する。
The image decoding device 50 generates an intermediate frame between the key frames KF based on the coded data stream CI generated as described above, and synchronizes with the output timing of the audio data S to generate the key frame. The KF and the intermediate frame are output as a moving image.

【0157】また、本実施の形態では、配列部20によ
りキーフレームKFを配列した後に各フレーム間の対応
点情報Cを生成したが、予め全てのキーフレーム間の対
応点情報Cを生成して画像保持部14に保持しておき、
必要に応じて取り出すようにしてもよい。このようにす
れば、対応点情報を毎回生成する必要がなくなり、音声
データSの入力に対して効率よく符号化ストリームCI
を生成することができる。
Further, in the present embodiment, the corresponding points information C between the frames is generated after the key frames KF are arranged by the arranging section 20, but the corresponding point information C between all the key frames is generated in advance. It is held in the image holding unit 14,
It may be taken out if necessary. In this way, it is not necessary to generate corresponding point information every time, and the encoded stream CI can be efficiently input to the audio data S.
Can be generated.

【0158】また、図23に示すように画像復号装置5
0に、画像符号化装置10から送信されたキーフレーム
KFを各音に対応づけて保存するキーフレーム保存部7
4と、中間画像を生成する際にキーフレーム保存部74
からキーフレームKFを選択する画像選択部72とを設
けてもよい。さらに、画像復号装置50に、画像符号化
装置10に対して取得済みのキーフレームKFを通知
し、未取得のキーフレームKFのみを送信するように促
す判断部76を設けてもよい。この判断部76は画像符
号化装置10に設けられてもよく、未送信のキーフレー
ムKFのみが画像復号装置50に送信されようにしても
よい。このようにすると、既に全てのキーフレームKF
がキーフレーム保存部74に保存されている場合、画像
符号化装置10から配列情報Hを送信するだけで、キー
フレーム保存部74に保存されたキーフレームKFを用
いて動画を再生することができる。
Further, as shown in FIG. 23, the image decoding device 5
0, a key frame storage unit 7 that stores the key frame KF transmitted from the image encoding device 10 in association with each sound.
4 and the key frame storage unit 74 when generating the intermediate image.
An image selecting section 72 for selecting the key frame KF from the above may be provided. Further, the image decoding apparatus 50 may be provided with a determination unit 76 that notifies the image encoding apparatus 10 of the acquired key frame KF and urges the image encoding apparatus 10 to transmit only the unacquired key frame KF. The determination unit 76 may be provided in the image encoding device 10, and only the untransmitted key frame KF may be transmitted to the image decoding device 50. By doing this, all keyframes KF
Is stored in the key frame storage unit 74, the moving image can be reproduced by using the key frame KF stored in the key frame storage unit 74 only by transmitting the array information H from the image encoding device 10. .

【0159】また、画像復号装置50にキャラクタの画
像をキーフレームとして保存させておき、送信側からは
音声データSと配列情報Hを送信し、音声と同期させて
そのキャラクタの動画を出力させてもよい。
Further, the image of the character is stored as a key frame in the image decoding device 50, the voice data S and the arrangement information H are transmitted from the transmitting side, and the moving image of the character is outputted in synchronization with the voice. Good.

【0160】また、本実施の形態では画像復号装置50
は、音声データSと同時に配列情報Hを受取る構成とし
たが、これに限らず、音声データSのみを受け取り、画
像復号装置50側に音声認識機能を設け、あらかじめ画
像復号装置50に保存してあるキーフレームKFから動
画を生成し音声に同期させて出力してもよい。これによ
り、送信側に画像を送信する画像符号化機能がない場
合、または送信側から画像が送られない場合でも、動画
を利用した通話が実現できる。
Also, in the present embodiment, the image decoding device 50
Is configured to receive the arrangement information H at the same time as the audio data S, but is not limited to this, only the audio data S is received, a voice recognition function is provided on the image decoding device 50 side, and the image data is stored in the image decoding device 50 in advance. A moving image may be generated from a certain key frame KF and output in synchronization with audio. As a result, even if there is no image encoding function for transmitting an image to the transmitting side, or even if no image is transmitted from the transmitting side, a call using a moving image can be realized.

【0161】図24はこれを実現するための画像復号装
置50の変形例の構成を示す図である。以下、図22と
同様の構成には同じ符号を与え、適宜その説明を略す。
図24における新たな構成は、画像復号装置50が、ス
トリーム入力部54およびストリーム分別部56に代え
て、画像入力部12、音声認識部18、キーフレーム保
存部74、画像選択部72、および特定部70を有する
点にある。
FIG. 24 is a diagram showing the configuration of a modified example of the image decoding apparatus 50 for realizing this. Hereinafter, the same configurations as those in FIG. 22 will be assigned the same reference numerals and the description thereof will be appropriately omitted.
In the new configuration in FIG. 24, the image decoding device 50 replaces the stream input unit 54 and the stream classification unit 56 with the image input unit 12, the voice recognition unit 18, the key frame storage unit 74, the image selection unit 72, and the specification. It has a part 70.

【0162】画像入力部12は、音声に対応づけられた
画像をキーフレームKF群として取得しておく。これ
は、前述のキャラクタの画像でもよいし、俳優の画像な
どでもよい。キーフレーム保存部74は、取得したキー
フレームKF群をその送信者に対応づけて保存する。特
定部70は、例えば送信者側から電話があったときに、
送信者を特定して画像選択部72に通知する。画像選択
部72は、その送信者に対応づけられたキーフレームK
F群をキーフレーム保存部74から選択する。
The image input unit 12 obtains images associated with voices as a key frame KF group. This may be an image of the above-mentioned character, an image of an actor, or the like. The key frame storage unit 74 stores the acquired key frame KF group in association with the sender. The specifying unit 70, for example, when a call is received from the sender side,
The sender is specified and notified to the image selection unit 72. The image selection unit 72 displays the key frame K associated with the sender.
The F group is selected from the key frame storage unit 74.

【0163】キーフレーム保存部74は、例えば送信者
の電話番号に対応づけてキーフレームKFを保存してよ
い。この場合、特定部70は、発信者番号通知機能など
により送信者の電話番号を特定する。これにより、画像
出力部64は、その送信者に対応づけられているキーフ
レームKFに基づき動画を出力することができる。また
この手法は、通話中はもちろん、着信合図にも使用でき
る。例えば、画像復号装置50は送信者側からの電話を
受け、「Aさんより着信です」などの音声とともに動画
を生成および表示してもよい。
The key frame storage unit 74 may store the key frame KF in association with the telephone number of the sender, for example. In this case, the identifying unit 70 identifies the telephone number of the sender by using the caller number notification function or the like. As a result, the image output unit 64 can output a moving image based on the key frame KF associated with the sender. This method can be used not only during a call but also as an incoming signal. For example, the image decoding device 50 may receive a telephone call from the sender side and generate and display a moving image together with a voice such as “A call is received from Mr. A”.

【0164】音声認識部18は音声データSに含まれる
音を認識し、画像選択部72は、同期調整部60の指示
に基づき、その音に対応するキーフレームKFをキーフ
レーム保存部74のその送信者に対応付けられたキーフ
レームKF群から取得する。中間画像生成部62は、取
得されたキーフレームKFをもとに中間画像を生成し、
画像出力部64は動画を出力する。その際、同期調整部
60は出力すべき音声との同期を取る。
The voice recognition unit 18 recognizes the sound included in the voice data S, and the image selection unit 72 determines the key frame KF corresponding to the sound based on the instruction from the synchronization adjustment unit 60 in the key frame storage unit 74. It is acquired from the key frame KF group associated with the sender. The intermediate image generation unit 62 generates an intermediate image based on the acquired key frame KF,
The image output unit 64 outputs a moving image. At that time, the synchronization adjustment unit 60 synchronizes with the sound to be output.

【0165】またここで、音声入力部58に入力される
データは音声データとしているが、これは音声に変換可
能なデータであればよく、例えば電子メールなどで受取
るテキストデータであってもよい。
Although the data input to the voice input unit 58 is voice data here, it may be any data that can be converted into voice, and may be text data received by e-mail or the like.

【0166】また、画像符号化装置10の機能をネット
ワーク上のサーバに設け、従来の送信端末から入力され
た音声データSをもとに、受信端末側で動画像を表示さ
せるようにしてもよい。
Further, the function of the image coding apparatus 10 may be provided in a server on the network so that a moving image can be displayed on the receiving terminal side based on the audio data S input from the conventional transmitting terminal. .

【0167】図25は通信端末120およびキーフレー
ム提供サーバ110が接続されたネットワークシステム
180の構成を示す図である。キーフレーム提供サーバ
110は、画像符号化装置10の機能を有する。通信端
末120は画像復号装置50を含む。通信端末120の
ユーザは、音声に同期させて動画を表示する場合、その
動画を生成するために必要なキーフレームKFをキーフ
レーム提供サーバ110よりあらかじめ取得して保存し
ておく。ここで、キーフレームKFとして使用される画
像は、送信者から電子メールの添付ファイルとして取得
されてもよいし、メモリカードのような記録媒体から取
得されてもよい。
FIG. 25 is a diagram showing the structure of a network system 180 to which the communication terminal 120 and the key frame providing server 110 are connected. The key frame providing server 110 has the function of the image encoding device 10. The communication terminal 120 includes the image decoding device 50. When displaying a moving image in synchronization with voice, the user of the communication terminal 120 acquires in advance the key frame KF required to generate the moving image from the key frame providing server 110 and stores it. Here, the image used as the key frame KF may be acquired from the sender as an attached file of an electronic mail, or may be acquired from a recording medium such as a memory card.

【0168】以上の説明において、画像復号装置50と
それを含む通信端末120は区別しない。また通信端末
120は画像符号化装置10の機能を有したものでもよ
い。
In the above description, the image decoding device 50 and the communication terminal 120 including it are not distinguished. Further, the communication terminal 120 may have the function of the image encoding device 10.

【0169】本実施の形態では、静止画をキーフレーム
KFとして保存し適宜動画を生成したが、これに限らず
動画を保存して利用してもよい。特に頻出する単語、さ
らには文章、例えば「こんにちは」などの挨拶や固有名
詞などの動画が保存されてもよい。これは特にテキスト
データに動画を同期させる場合有効である。
In the present embodiment, the still image is stored as the key frame KF and the moving image is generated as appropriate, but the present invention is not limited to this, and the moving image may be stored and used. In particular word to frequent, and even sentences, for example videos, such as greetings and proper nouns, such as "Hello" may be stored. This is particularly effective when synchronizing a moving image with text data.

【0170】また、実施の形態では前提技術のマッチン
グ技術を利用したが、これはオプティカルフローやブロ
ックマッチングなど、既存の技術を利用してもよい。
Further, in the embodiment, the matching technique which is a prerequisite technique is used, but the existing technique such as optical flow or block matching may be used.

【0171】明記しなかったが、画像符号化装置10の
音声入力部16は例えばMPEGレイヤ3などの手法で
音声の圧縮符号化を行い、圧縮された音声データを画像
復号装置50に送信してもよい。
Although not specified, the audio input unit 16 of the image encoding device 10 performs compression encoding of audio by a method such as MPEG layer 3 and transmits the compressed audio data to the image decoding device 50. Good.

【図面の簡単な説明】[Brief description of drawings]

【図1】 図1(a)とは図1(b)は、ふたりの人物
の顔に平均化フィルタを施して得られる画像、図1
(c)と図1(d)は、ふたりの人物の顔に関して前提
技術で求められるp(5,0)の画像、図1(e)と図
1(f)は、ふたりの人物の顔に関して前提技術で求め
られるp(5,1)の画像、図1(g)と図1(h)
は、ふたりの人物の顔に関して前提技術で求められるp
(5,2)の画像、図1(i)と図1(j)は、ふたり
の人物の顔に関して前提技術で求められるp(5,3)
の画像をそれぞれディスプレイ上に表示した中間調画像
の写真である。
1A and 1B are images obtained by applying an averaging filter to the faces of two persons, and FIG.
(C) and FIG. 1 (d) are images of p (5, 0) required by the base technology for the faces of the two persons, and FIGS. 1 (e) and 1 (f) are the faces of the two persons. Images of p (5,1) required by the base technology, Fig. 1 (g) and Fig. 1 (h)
Is the p required by the base technology for the faces of two people.
The images of (5, 2) , Fig. 1 (i) and Fig. 1 (j) are p (5, 3) obtained by the base technology for the faces of two persons.
3 is a photograph of a halftone image in which each of the images is displayed on the display.

【図2】 図2(R)はもとの四辺形を示す図、図2
(A)、図2(B)、図2(C)、図2(D)、図2
(E)はそれぞれ相続四辺形を示す図である。
2 (R) is a diagram showing an original quadrangle, FIG.
(A), FIG. 2 (B), FIG. 2 (C), FIG. 2 (D), FIG.
(E) is a figure which shows each inherited quadrangle.

【図3】 始点画像と終点画像の関係、および第mレベ
ルと第m−1レベルの関係を相続四辺形を用いて示す図
である。
FIG. 3 is a diagram showing a relationship between a start point image and an end point image and a relationship between an mth level and an m−1th level by using an inherited quadrangle.

【図4】 パラメータηとエネルギーCの関係を示す
図である。
FIG. 4 is a diagram showing a relationship between a parameter η and energy C f .

【図5】 図5(a)、図5(b)は、ある点に関する
写像が全単射条件を満たすか否かを外積計算から求める
様子を示す図である。
5 (a) and 5 (b) are diagrams showing how to determine from a cross product calculation whether or not a mapping regarding a certain point satisfies a bijection condition.

【図6】 前提技術の全体手順を示すフローチャートで
ある。
FIG. 6 is a flowchart showing the overall procedure of the base technology.

【図7】 図6のS1の詳細を示すフローチャートであ
る。
FIG. 7 is a flowchart showing details of S1 in FIG.

【図8】 図7のS10の詳細を示すフローチャートで
ある。
FIG. 8 is a flowchart showing details of S10 of FIG.

【図9】 第mレベルの画像の一部と、第m−1レベル
の画像の一部の対応関係を示す図である。
FIG. 9 is a diagram showing a correspondence relationship between a part of an m-th level image and a part of an m-1th level image.

【図10】 前提技術で生成された始点階層画像を示す
図である。
FIG. 10 is a diagram showing a starting point hierarchical image generated by the base technology.

【図11】 図6のS2に進む前に、マッチング評価の
準備の手順を示す図である。
FIG. 11 is a diagram showing a procedure of preparation for matching evaluation before proceeding to S2 of FIG.

【図12】 図6のS2の詳細を示すフローチャートで
ある。
FIG. 12 is a flowchart showing details of S2 in FIG.

【図13】 第0レベルにおいて副写像を決定する様子
を示す図である。
FIG. 13 is a diagram showing how a submapping is determined at the 0th level.

【図14】 第1レベルにおいて副写像を決定する様子
を示す図である。
FIG. 14 is a diagram showing how a submapping is determined at the first level.

【図15】 図12のS21の詳細を示すフローチャー
トである。
FIG. 15 is a flowchart showing details of S21 in FIG.

【図16】 あるf(m,s)についてλを変えながら
求められたf(m, s)(λ=iΔλ)に対応するエネ
ルギーC(m,s) の挙動を示す図である。
FIG. 16 is a diagram showing a behavior of energy C (m, s) f corresponding to f (m, s) (λ = iΔλ) obtained by changing λ for a certain f (m, s) .

【図17】 ηを変えながら求められたf(n)(η=
iΔη)(i=0,1,…)に対応するエネルギーC
(n) の挙動を示す図である。
FIG. 17 shows f (n) (η = determined by changing η
energy C corresponding to iΔη) (i = 0, 1, ...)
It is a figure which shows the behavior of (n) f .

【図18】 本発明の実施の形態に係る画像符号化装置
の構成を示す図である。
FIG. 18 is a diagram showing a configuration of an image encoding device according to an embodiment of the present invention.

【図19】 画像保持部の内部構成を示す図である。FIG. 19 is a diagram showing an internal configuration of an image holding unit.

【図20】 ストリーム生成部によって生成された符号
化データストリームの構成を示す図である。
[Fig. 20] Fig. 20 is a diagram illustrating the configuration of an encoded data stream generated by a stream generation unit.

【図21】 配列情報のフォーマットを示す。FIG. 21 shows a format of sequence information.

【図22】 本発明の実施の形態に係る画像復号装置の
構成を示す図である。
FIG. 22 is a diagram showing a configuration of an image decoding device according to an embodiment of the present invention.

【図23】 本発明の実施の形態に係る画像復号装置の
変形例の構成を示す図である。
FIG. 23 is a diagram showing the configuration of a modified example of the image decoding device according to the embodiment of the present invention.

【図24】 本発明の実施の形態に係る画像復号装置の
変形例の構成を示す図である。
FIG. 24 is a diagram showing the configuration of a modified example of the image decoding device according to the embodiment of the present invention.

【図25】 本発明の実施の形態に係る通信端末とキー
フレーム提供サーバが接続されたネットワークシステム
を示す図である。
FIG. 25 is a diagram showing a network system in which a communication terminal and a key frame providing server according to an embodiment of the present invention are connected.

【符号の説明】[Explanation of symbols]

10 画像符号化装置、 12 画像入力部、 14
画像保持部、 16音声入力部、 18 音声認識部、
20 配列部、 22 プロセッサ、 24 ストリ
ーム生成部、 26 通信部、 50 画像復号装置、
52 通信部、 54 ストリーム入力部、 56
ストリーム分別部、 58 音声入力部、 60 同期
調整部、 62 中間画像生成部、 64 画像出力
部、 70 特定部、 72 画像選択部、 74 キ
ーフレーム保存部、 76 判断部、 110 キーフ
レーム提供サーバ。
10 image encoding device, 12 image input unit, 14
Image holding unit, 16 voice input unit, 18 voice recognition unit,
20 array unit, 22 processor, 24 stream generation unit, 26 communication unit, 50 image decoding device,
52 communication unit, 54 stream input unit, 56
Stream classification unit, 58 audio input unit, 60 synchronization adjustment unit, 62 intermediate image generation unit, 64 image output unit, 70 identification unit, 72 image selection unit, 74 key frame storage unit, 76 determination unit, 110 key frame provision server.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/92 G10L 3/00 E 5/93 S Fターム(参考) 5B057 AA20 CA02 CA08 CA12 CA16 CB02 CB08 CB12 CB16 CC01 CE08 CE20 CG07 5C023 AA32 CA03 DA04 5C053 FA07 GB00 JA07 JA12 LA14 5D045 AB00 AB26 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/92 G10L 3/00 E 5/93 SF term (reference) 5B057 AA20 CA02 CA08 CA12 CA16 CB02 CB08 CB12 CB16 CC01 CE08 CE20 CG07 5C023 AA32 CA03 DA04 5C053 FA07 GB00 JA07 JA12 LA14 5D045 AB00 AB26

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 映像を表示可能な端末において、 音声に変換可能なデータを取得する工程と、 変換後の音声に対応する画像をキーフレームとして取得
する工程と、 取得したキーフレームをもとに中間画像を生成して動画
を生成する工程と、 前記音声に同期させて、前記動画を表示する工程と、 を含むことを特徴とする画像処理方法。
1. A terminal capable of displaying video, a step of acquiring data that can be converted into sound, a step of acquiring an image corresponding to the converted sound as a key frame, and based on the acquired key frame An image processing method comprising: a step of generating an intermediate image to generate a moving image; and a step of displaying the moving image in synchronization with the sound.
【請求項2】 映像を表示可能な端末において、情報の
着信があったとき、動画と所定の音声にてその旨を知ら
せる方法であって、 その音声に対応する画像をキーフレームとして取得する
工程と、 取得したキーフレームをもとに中間画像を生成して動画
を生成する工程と、 前記音声に同期させて、前記動画を表示する工程と、 を含むことを特徴とする画像処理方法。
2. A method of informing a moving image and a predetermined voice when an incoming information is received in a terminal capable of displaying a video, and obtaining an image corresponding to the voice as a key frame. An image processing method comprising: a step of generating an intermediate image based on the acquired key frame to generate a moving image; and a step of displaying the moving image in synchronization with the sound.
【請求項3】 前記キーフレームは、発音をする際の表
情を表した画像であることを特徴とする請求項1または
2に記載の画像処理方法。
3. The image processing method according to claim 1, wherein the key frame is an image showing a facial expression when producing a sound.
【請求項4】 異なる音声であっても、その発音の表情
が略同一である場合、それら音声は同一のキーフレーム
に対応づけることを特徴とする請求項3に記載の画像処
理方法。
4. The image processing method according to claim 3, wherein different sounds are associated with the same key frame when the facial expressions of the pronunciations are substantially the same.
【請求項5】 前記キーフレームを保存する工程をさら
に含み、 前記音声に対応する画像をキーフレームとして取得する
工程は、音声に変換可能なデータを取得する工程に先立
って画像を取得し保存しておくことで、キーフレームよ
り動画像を生成する状況になった場合、保存されている
キーフレームを利用することで通信データ量を抑制する
ことを特徴とする請求項1から4に記載の画像処理方
法。
5. The method further comprises the step of saving the key frame, wherein the step of acquiring the image corresponding to the sound as a key frame acquires and saves the image prior to the step of acquiring the data convertible to the sound. The image according to any one of claims 1 to 4, characterized in that when the moving image is generated from the key frame, the amount of communication data is suppressed by using the stored key frame. Processing method.
【請求項6】 前記キーフレームを保存する工程は、前
記キーフレームを取得する工程で取得されなかったキー
フレームのみを選択して保存することを特徴とする請求
項5に記載の画像処理方法。
6. The image processing method according to claim 5, wherein in the step of saving the key frame, only key frames that are not acquired in the step of acquiring the key frame are selected and saved.
【請求項7】 前記音声に変換可能なデータの発信者を
特定する工程と、 特定された相手に対応したキーフレームを保存されてい
るキーフレームから選択する工程と、 をさらに含むことを特徴とする請求項5または6のいず
れかに記載の画像処理方法。
7. The method further comprises: a step of identifying a sender of the data that can be converted into the voice, and a step of selecting a key frame corresponding to the identified party from the stored key frames. The image processing method according to claim 5, wherein
【請求項8】 特定音を発声するときのユーザの表情を
撮影した画像をその特定音と関連づけて保持しておき、
ユーザが前記特定音の連続に係る単語または文章を発声
したとき、その単語または文章を構成する特定音に対応
する画像を連続的かつ円滑化処理を加えたうえで表示す
ることを特徴とする画像処理方法。
8. An image obtained by photographing a user's facial expression when a specific sound is uttered is stored in association with the specific sound,
When the user utters a word or a sentence related to the continuation of the specific sound, an image corresponding to the specific sound constituting the word or the sentence is displayed continuously and after smoothing processing. Processing method.
【請求項9】 前記円滑化処理はモーフィングであるこ
とを特徴とする請求項8に記載の画像処理方法。
9. The image processing method according to claim 8, wherein the smoothing process is morphing.
【請求項10】 ネットワーク上の所定のサイトに、音
声が対応づけられた画像をキーフレームとして保存する
工程と、 前記キーフレームを前記サイトより取得し保存する工程
と、 音声に変換可能なデータを取得する工程と、 前記データの変換後の音声に対応するキーフレームを前
記保存されているキーフレームから選択する工程と、 それらキーフレームをもとに中間画像を生成し動画を生
成する工程と、 その動画と前記音声とを同期させ出力する工程と、 を含むことを特徴とする画像処理方法。
10. A step of storing an image associated with voice as a key frame in a predetermined site on a network, a step of acquiring the key frame from the site and storing the key frame, and converting data convertible into voice. A step of acquiring, a step of selecting a key frame corresponding to the voice after the conversion of the data from the stored key frames, a step of generating an intermediate image based on the key frames to generate a moving image, And a step of synchronizing and outputting the moving image and the sound, the image processing method.
【請求項11】 音声に変換可能なデータを取得するデ
ータ入力部と、 そのデータを音声に変換する音声変換部と、 変換後の音声に対応したキーフレームを取得する画像取
得部と、 前記音声とキーフレームを対応づける対応部と、 前記キーフレームをもとに中間画像を生成し、動画を生
成する中間画像生成部と、 音声を出力する音声出力部と、 その動画を音声と同期させ出力する画像出力部と、 を含むことを特徴とする画像処理装置。
11. A data input unit that acquires data that can be converted into voice, a voice conversion unit that converts the data into voice, an image acquisition unit that acquires a key frame corresponding to the voice after conversion, and the voice. With a corresponding key frame, an intermediate image generation unit that generates an intermediate image based on the key frame and generates a moving image, an audio output unit that outputs audio, and an output that synchronizes the moving image with the audio. An image processing device comprising:
【請求項12】 前記取得したキーフレームを保存する
キーフレーム保存部をさらに含み、音声に変換可能なデ
ータの取得に先立って前記キーフレームを取得し保存し
ておき、 前記画像取得部は動画を生成する際にキーフレーム保存
部からキーフレームから選択し取得することを特徴とす
る請求項11に記載の画像処理装置。
12. A key frame storage unit for storing the acquired key frame, wherein the key frame is acquired and stored prior to acquisition of data that can be converted into voice, and the image acquisition unit stores a moving image. The image processing apparatus according to claim 11, wherein the image processing apparatus selects and acquires from a key frame from a key frame storage unit when generating.
【請求項13】 前記画像取得部は、ネットワーク上の
所定のサイトより前記キーフレームを取得し、前記キー
フレーム保存部に保存することを特徴とする請求項12
に記載の画像処理装置。
13. The image acquisition unit acquires the key frame from a predetermined site on a network and stores the key frame in the key frame storage unit.
The image processing device according to item 1.
【請求項14】 前記画像取得部は前記キーフレームが
取得済みか否かを判定し、通信相手にその旨を通知する
ことで、通信相手に対し未取得のキーフレームのみを送
信するように促すことを特徴とする請求項12に記載の
画像処理装置。
14. The image acquisition unit determines whether or not the key frame has been acquired, and notifies the communication partner of that fact, thereby urging the communication partner to transmit only the unacquired key frame. The image processing device according to claim 12, wherein
【請求項15】 映像を表示可能な端末において、 音声に変換可能なデータを取得する工程と、 変換後の音声に対応する画像をキーフレームとして取得
する工程と、 取得したキーフレームをもとに中間画像を生成して動画
を生成する工程と、 前記音声に同期させて、前記動画を表示する工程と、 をコンピュータに実行させることを特徴とするコンピュ
ータプログラム。
15. A terminal capable of displaying video, the step of acquiring data that can be converted into audio, the step of acquiring an image corresponding to the audio after conversion as a key frame, and based on the acquired key frame. A computer program that causes a computer to execute a step of generating an intermediate image to generate a moving image, and a step of displaying the moving image in synchronization with the sound.
【請求項16】 映像を表示可能な端末において、情報
の着信があったとき、動画と所定の音声にてその旨を知
らせるプログラムであって、 その音声に対応する画像をキーフレームとして取得する
工程と、 取得したキーフレームをもとに中間画像を生成して動画
を生成する工程と、 前記音声に同期させて、前記動画を表示する工程と、 をコンピュータに実行させることを特徴とするコンピュ
ータプログラム。
16. A program capable of notifying a moving image and a predetermined voice when an incoming information is received in a terminal capable of displaying a video, and acquiring an image corresponding to the voice as a key frame. And a step of generating an intermediate image based on the acquired key frame to generate a moving image, and a step of displaying the moving image in synchronization with the voice, the computer program characterized by the above-mentioned. .
【請求項17】 特定音を発声するときのユーザの表情
を撮影した画像をその特定音と関連づけて保持する工程
と、 ユーザが前記特定音の連続に係る単語または文章を発声
したとき、その単語または文章を構成する特定音に対応
する画像を連続的かつ円滑化処理を加えたうえで表示す
る工程と、 をコンピュータに実行させることを特徴とするコンピュ
ータプログラム。
17. A step of holding an image of a facial expression of a user when uttering a specific sound in association with the specific sound, and holding the word when the user utters a word or a sentence related to the continuation of the specific sound. A computer program characterized by causing a computer to execute a step of displaying an image corresponding to a specific sound forming a sentence continuously and after smoothing processing.
JP2001345290A 2001-11-09 2001-11-09 Method and device for processing image and computer program Pending JP2003153159A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001345290A JP2003153159A (en) 2001-11-09 2001-11-09 Method and device for processing image and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001345290A JP2003153159A (en) 2001-11-09 2001-11-09 Method and device for processing image and computer program

Publications (1)

Publication Number Publication Date
JP2003153159A true JP2003153159A (en) 2003-05-23

Family

ID=19158653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001345290A Pending JP2003153159A (en) 2001-11-09 2001-11-09 Method and device for processing image and computer program

Country Status (1)

Country Link
JP (1) JP2003153159A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015117373A1 (en) * 2014-07-22 2015-08-13 中兴通讯股份有限公司 Method and device for realizing voice message visualization service

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015117373A1 (en) * 2014-07-22 2015-08-13 中兴通讯股份有限公司 Method and device for realizing voice message visualization service

Similar Documents

Publication Publication Date Title
JP3889233B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
US8798168B2 (en) Video telecommunication system for synthesizing a separated object with a new background picture
JP2002232908A (en) Image interpolation method and device
JP2002271788A (en) Image coding method and device and image decoding method and device
JP2003018602A (en) Method and device for encoding and decoding image data
JP2004040422A (en) Image processing method and apparatus
JP4050472B2 (en) Image generation method, apparatus and system
JP4157686B2 (en) Method and apparatus for image encoding and decoding
JP4039858B2 (en) Image matching method and apparatus, and image encoding method and apparatus
JP2002230543A (en) Method and device for interpolating image
JP2002232838A (en) Digital camera
JP2003037842A (en) Picture coding method, decoding method, picture coder and decoder
JP2003153159A (en) Method and device for processing image and computer program
JP2002190020A (en) Method and device for image effect
JP2002230575A (en) Method and device for image effect
JP2007122751A (en) Method, device and program for image processing
JP2003153276A (en) Image processing method, image encoding method, image decoding method, image encoding apparatus, and image decoding apparatus
JP4524412B2 (en) Image encoding method, decoding method, image encoding device, and decoding device
JP2002230572A (en) Method and device for image effect, method and device for image interpolation
JP2002359842A (en) Method and device for encoding image, and method and device for decoding image
JP2003274399A (en) Method and device for image encoding, and method and device for image decoding
JP3839353B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
JP2003032639A (en) Image processing method and equipment, and contents recording method capable of being used for the method and the equipment
JP2003102015A (en) Image encoding method and apparatus, image decoding method and apparatus
JP2003018557A (en) Method and apparatus for processing image