JP2002094881A - Picture and sound interpolation processor and its method - Google Patents

Picture and sound interpolation processor and its method

Info

Publication number
JP2002094881A
JP2002094881A JP2000279864A JP2000279864A JP2002094881A JP 2002094881 A JP2002094881 A JP 2002094881A JP 2000279864 A JP2000279864 A JP 2000279864A JP 2000279864 A JP2000279864 A JP 2000279864A JP 2002094881 A JP2002094881 A JP 2002094881A
Authority
JP
Japan
Prior art keywords
image
sound
interpolation
pseudo
interpolation processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000279864A
Other languages
Japanese (ja)
Inventor
Mitsuo Yamada
光男 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Megafusion Corp
Original Assignee
Megafusion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Megafusion Corp filed Critical Megafusion Corp
Priority to JP2000279864A priority Critical patent/JP2002094881A/en
Publication of JP2002094881A publication Critical patent/JP2002094881A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a picture and sound interpolation processor and method capable of quickly and inexpensively generating a pseudo picture or pseudo sound whose quality is satisfactory indicating the age change or change over aging of an object to be imaged or a sound source. SOLUTION: This picture interpolation processor 1 for generating the pseudo picture of an object to be imaged in designated time information from real pictures I1,... of the same object to be imaged whose image pickup time is different is provided with a characteristic part recognizing means 7 for recognizing the characteristic parts of the real pictures, a characteristic part relating means 3 for relating the characteristic parts among a plurality of real pictures I1,..., an interpolating means 4 for executing interpolation by using the time information as independent variables and the pixel values of the characteristic parts as the dependent variables, and for outputting interpolated curves, and a pseudo picture generating means for calculating the pixel values in the designated time information by using the interpolated curves, and for outputting the pseudo picture of the object to be imaged.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、現実に撮像した実
画像や現実に記録した音を用いて、現実感のある擬似画
像や疑似音を生成する補間処理装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interpolation processing apparatus for generating a realistic pseudo image or a pseudo sound using a real image actually picked up or a sound actually recorded.

【0002】[0002]

【従来の技術】従来から、映画などで使用されるデジタ
ル特殊映像効果の一つで、或る画像Aを別の画像Bへ連
続的に変化させるモーフィングと称する手法が知られて
いた。これにより、例えば、図19に示すように人物
(女性)100の外観を人物(男性)101のそれへ
(左方から右方へ)と連続的に変化させ、人物100,
101の中間の人物画像102〜104を生成し得た
り、人間の外観が動物のそれへと連続的に変化させ得る
特殊効果を実現できる。また、他の例として、動物の表
情を示す映像を幾つか用意しておき、それら各映像の間
の中間画像を擬似的に生成し、あたかも動物が喋ってい
るかのように、或いは動物の表情が連続的に変化するか
のような特殊効果を実現するモーフィング技術もある。
2. Description of the Related Art A technique called morphing, which continuously changes an image A to another image B as one of digital special video effects used in a movie or the like, has been known. Thereby, for example, as shown in FIG. 19, the appearance of the person (female) 100 is continuously changed from that of the person (male) 101 (from left to right), and
It is possible to generate a special effect that can generate the person images 102 to 104 in the middle of the image 101 and continuously change the appearance of a human to that of an animal. Also, as another example, several images showing the facial expressions of animals are prepared, and an intermediate image between the images is generated in a simulated manner, as if the animals were talking, or the facial expressions of the animals. There is also a morphing technique that realizes a special effect as if the sound changes continuously.

【0003】他方、音声のモーフィングも知られてい
る。この種の音声のモーフィング技術により、例えば、
音声A,Bをそれぞれデジタル音としてサンプリングし
ておき、音声A,Bの各々の元波形(ウェーブテーブ
ル)に基づいて音声A,Bの中間波形を補間演算して生
成し、時間経過と共に音声Aから音声Bへと連続的に変
化させることができる。この種の効果は、例えば、録音
したアナログ音声波形を任意の発音ピッチで再生できる
電子楽器(サンプラー)などを用いて実現できる。
On the other hand, voice morphing is also known. With this kind of audio morphing technology, for example,
The sounds A and B are sampled as digital sounds, and an intermediate waveform of the sounds A and B is generated by interpolation based on the original waveforms (wave tables) of the sounds A and B, and the sounds A and B are generated with time. To the sound B continuously. This kind of effect can be realized by using, for example, an electronic musical instrument (sampler) that can reproduce a recorded analog voice waveform at an arbitrary pitch.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
画像のモーフィング技術は、相互に関連の無い2種類の
画像A,Bの中間画像を作り出すものではあっても、被
撮像体の経年変化や年齢変化を予測し得るものではな
い。従来から、犯罪捜査などにおいて、専用のグラフィ
ック・ソフトウェアを用い、以前に撮像した被写体画像
に基づき、その被写体の現在または将来の疑似画像をつ
くる例もあるが、このような例ではオペレータがその被
写体画像の各部を一々指定し、それら各部の変化の種類
や程度を指示して疑似画像を作り出すから、疑似画像の
精度はオペレータの熟練や勘に依存する部分が大きく、
またその処理に時間を要するため大量の疑似画像をつく
り出すには多大の労力と費用を要するという問題があっ
た。したがって、従来の技術では、近年の、映画やテレ
ビ番組などにおいてモーフィングなどの特殊映像効果の
需要の高まりに十分に対応できなかった。
However, even though the conventional image morphing technique produces an intermediate image between two types of images A and B which are not related to each other, the aging and age of the object to be imaged are changed. It is not predictable of change. Conventionally, in criminal investigations and the like, there has been a case where a special graphic software is used to create a current or future pseudo image of the subject based on a previously captured image of the subject. Since each part of the image is designated one by one and the type and degree of change of each part is specified to create a pseudo image, the accuracy of the pseudo image largely depends on the skill and intuition of the operator,
In addition, there is a problem that a great deal of labor and cost are required to produce a large number of pseudo images because the processing takes time. Therefore, the conventional technology has not been able to adequately cope with an increasing demand for special video effects such as morphing in recent movies and television programs.

【0005】また、従来の音声のモーフィング技術にお
いても、その疑似音声の音質は低いという問題がある。
このため、例えばモーフィングによる動画像に同期した
音声では現実感が低くなり易く、その音声に現実感を持
たせようとすると、多大な労力と費用を要することにな
り易かった。
Further, the conventional voice morphing technique also has a problem that the sound quality of the pseudo voice is low.
For this reason, for example, a sound synchronized with a moving image by morphing tends to have low realism, and it is easy to require a lot of labor and cost to give the sound a real feeling.

【0006】以上の問題などに鑑みて本発明が解決しよ
うとするところは、被撮像体や音源の年齢変化や経年変
化を示す良質な疑似画像や疑似音声を素早く且つ低コス
トでつくり出す画像および音声の補間処理装置並びにそ
れらの補間処理方法を提供する点にある。
SUMMARY OF THE INVENTION In view of the above problems, the present invention is intended to solve the problems described above with respect to an image and a sound that quickly and inexpensively produce a high-quality pseudo image or a pseudo sound showing the age change and the secular change of the object or sound source. The present invention is to provide an interpolation processing device and an interpolation processing method thereof.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するた
め、請求項1に係る発明は、被撮像体の複数の実画像デ
ータを用いて当該被撮像体の疑似画像を生成する画像の
補間処理方法であって、撮像時間の異なる同一の被撮像
体の実画像データを複数格納する画像記憶部と、前記画
像記憶部から選択した複数の実画像データに基づき、指
定した時間情報における疑似画像データを補間で算出す
る画像補間部と、を備えることを特徴とするものであ
る。
According to a first aspect of the present invention, there is provided an image interpolating process for generating a pseudo image of a subject using a plurality of real image data of the subject. A method, comprising: an image storage unit that stores a plurality of real image data of the same object having different imaging times; and pseudo image data in designated time information based on the plurality of real image data selected from the image storage unit. And an image interpolating unit that calculates the value by interpolation.

【0008】また請求項2に係る発明は、請求項1記載
の画像の補間処理装置であって、前記画像補間部は、前
記画像記憶部から選択した複数の実画像データの特徴部
を自動認識する特徴部認識手段と、前記特徴部を複数の
前記実画像データの間で相互に対応付けする特徴部対応
付け手段と、をさらに備えたものである。
According to a second aspect of the present invention, there is provided the image interpolation processing apparatus according to the first aspect, wherein the image interpolating unit automatically recognizes a characteristic portion of a plurality of real image data selected from the image storing unit. Characteristic unit recognizing means, and characteristic part associating means for associating the characteristic parts with each other among the plurality of real image data.

【0009】また請求項3に係る発明は、請求項2記載
の画像の補間処理装置であって、前記画像補間部は、前
記特徴部における画素値について前記時間情報を独立変
数とし、前記画素値をその従属変数とした補間を実行し
て補間曲線を算出する補間手段と、前記補間曲線を用い
て前記指定した時間情報における画素値を算出し、被撮
像体の疑似画像を生成し出力する疑似画像生成手段と、
をさらに備えたものである。
According to a third aspect of the present invention, in the image interpolation processing apparatus according to the second aspect, the image interpolating unit sets the time information as an independent variable for a pixel value in the characteristic unit, And an interpolation unit that calculates an interpolation curve by executing interpolation with the dependent variable as a dependent variable, and calculates a pixel value at the specified time information using the interpolation curve, and generates and outputs a pseudo image of the object to be captured. Image generation means;
Is further provided.

【0010】また請求項4に係る発明は、請求項1〜3
の何れか1項に記載の画像の補間処理装置であって、前
記時間情報に相応する代替画像を格納した代替画像記憶
部と、前記代替画像記憶部を参照して前記指定した時間
情報に相応する代替画像を検索し、前記疑似画像生成手
段で生成した擬似画像に当該代替画像を適用する画像合
成手段と、をさらに備えたものである。
The invention according to claim 4 is the invention according to claims 1 to 3.
The image interpolation processing device according to any one of claims 1 to 3, wherein an alternative image storage unit storing an alternative image corresponding to the time information, and an alternative image storage device storing the alternative image corresponding to the designated time information with reference to the alternative image storage unit. Image synthesizing means for searching for a substitute image to be performed and applying the substitute image to the pseudo image generated by the pseudo image generating means.

【0011】次に、請求項5に係る発明は、被撮像体の
複数の実画像データを用いて当該被撮像体の疑似画像を
生成する画像の補間処理方法であって、(a)撮像時間
の異なる同一の被撮像体の実画像データを複数記録する
ステップと、(b)前記ステップ(a)で記録された実
画像データに基づき、指定した時間情報における疑似画
像データを補間で算出するステップと、を備えることを
特徴とするものである。
Next, a fifth aspect of the present invention is an image interpolation processing method for generating a pseudo image of a subject using a plurality of real image data of the subject. Recording a plurality of real image data of the same object to be photographed, and (b) calculating pseudo image data at specified time information by interpolation based on the real image data recorded in the step (a). And the following.

【0012】また請求項6に係る発明は、請求項5記載
の画像の補間処理方法であって、前記ステップ(b)
は、(b−1)前記実画像データの特徴部を自動認識す
るステップと、(b−2)前記特徴部を複数の前記実画
像データ間で相互に対応付けするステップと、をさらに
備えたものである。
The invention according to claim 6 is the image interpolation processing method according to claim 5, wherein the step (b) is performed.
Further comprises: (b-1) automatically recognizing a characteristic portion of the real image data, and (b-2) correlating the characteristic portion among a plurality of the real image data. Things.

【0013】また請求項7に係る発明は、請求項6記載
の画像の補間処理方法であって、前記ステップ(b)
は、(b−3)前記特徴部における画素値について前記
時間情報を独立変数とし、前記画素値をその従属変数と
した補間を実行して補間曲線を算出するステップと、
(b−4)前記補間曲線を用いて前記指定した時間情報
における画素値を算出し、被撮像体の疑似画像を生成す
るステップと、をさらに備えたものである。
The invention according to claim 7 is the image interpolation processing method according to claim 6, wherein the step (b) is performed.
(B-3) calculating an interpolation curve by executing interpolation using the time information as an independent variable and the pixel value as a dependent variable for the pixel value in the characteristic portion;
(B-4) calculating a pixel value at the specified time information using the interpolation curve, and generating a pseudo image of the object to be imaged.

【0014】また請求項8に係る発明は、請求項5〜7
の何れか1項に記載の画像の補間処理方法であって、前
記ステップ(b)の後に、(c)前記ステップ(b)で
生成された疑似画像データに、前記時間情報に相応する
代替画像を適用するステップ、をさらに備えたものであ
る。
The invention according to claim 8 is the invention according to claims 5-7.
The image interpolation processing method according to any one of claims 1 to 3, wherein after the step (b), (c) a substitute image corresponding to the time information is added to the pseudo image data generated in the step (b). And a step of applying

【0015】次に、請求項9に係る発明は、複数の実音
波形データを用いて当該音源の疑似音を生成する音の補
間処理装置であって、時間を隔てた複数の時間帯に同一
音源から取得した複数の実音波形データを格納する実音
波形記憶部と、前記実音波形記憶部から選択した複数の
実音波形データに基づき、指定した時間情報における疑
似音波形データを補間で算出する実音波形補間部と、を
備えることを特徴とするものである。
A ninth aspect of the present invention is a sound interpolation processing apparatus for generating a pseudo sound of a sound source using a plurality of real sound waveform data, wherein the same sound source is generated in a plurality of time zones separated by time. A real sound waveform storage unit that stores a plurality of real sound waveform data obtained from the real sound waveform data unit, and a real sound waveform interpolation unit that calculates pseudo sound waveform data at specified time information by interpolation based on the plurality of real sound waveform data selected from the real sound waveform storage unit. And a unit.

【0016】また請求項10に係る発明は、請求項9記
載の音の補間処理装置であって、前記実音波形補間部
は、前記実音波形記憶部から選択した実音波形データを
重み付け平均し、前記指定した時間情報における疑似音
波形データを算出してなるものである。
According to a tenth aspect of the present invention, in the sound interpolation processing apparatus according to the ninth aspect, the real sound waveform interpolating unit weights and averages the real sound waveform data selected from the real sound waveform storage unit, This is obtained by calculating pseudo sound waveform data at designated time information.

【0017】また請求項11に係る発明は、請求項9記
載の音の補間処理装置であって、前記実音波形補間部
は、前記実音波形記憶部から選択した実音波形データの
時間情報を独立変数とし、当該実音波形の強さをその従
属変数とした補間を実行して補間曲線を算出し、前記補
間曲線を用いて前記指定した時間情報における疑似音波
形データを算出する疑似音生成手段をさらに備えたもの
である。
According to an eleventh aspect of the present invention, in the sound interpolation processing apparatus according to the ninth aspect, the real sound waveform interpolating unit stores the time information of the real sound waveform data selected from the real sound waveform storage unit as an independent variable. A pseudo-sound generating means for calculating an interpolation curve by executing interpolation using the strength of the actual sound waveform as a dependent variable, and calculating pseudo sound waveform data at the specified time information using the interpolation curve. It is provided.

【0018】また請求項12に係る発明は、請求項9記
載の音の補間処理装置であって、前記実音波形補間部
は、前記実音波形記憶部から選択した実音波形データの
周波数特性分布を算出する周波数特性分布算出手段と、
前記周波数特性分布から周波数強調成分である特徴成分
を抽出する特徴成分抽出手段と、複数の前記特徴成分を
補間して前記指定した時間情報における擬似的な特徴成
分を算出する特徴成分補間手段と、前記特徴成分を除い
た実音波形データを生成し出力する特徴成分除去手段
と、前記特徴成分除去手段から出力された実音波形デー
タに前記疑似的な特徴成分を付加して前記疑似音波形デ
ータを出力する特徴成分付加手段と、を備えたものであ
る。
According to a twelfth aspect of the present invention, in the sound interpolation processing apparatus according to the ninth aspect, the real sound waveform interpolation unit calculates a frequency characteristic distribution of the real sound waveform data selected from the real sound waveform storage unit. Frequency characteristic distribution calculating means,
A feature component extraction unit that extracts a feature component that is a frequency emphasis component from the frequency characteristic distribution, a feature component interpolation unit that calculates a pseudo feature component in the designated time information by interpolating a plurality of the feature components, A characteristic component removing unit that generates and outputs actual sound waveform data excluding the characteristic component; and outputs the pseudo acoustic waveform data by adding the pseudo characteristic component to the actual sound waveform data output from the characteristic component removing unit. Characteristic component adding means.

【0019】また請求項13に係る発明は、請求項12
記載の音の補間処理装置であって、前記特徴成分を補正
する補正データを格納する補正データ記憶部をさらに備
え、前記特徴成分補間手段は、前記補正規則記憶部を参
照して当該音源の音質に相応する補正データを取得し、
当該補正データに則って前記特徴成分を補正するもので
ある。
The invention according to claim 13 is the invention according to claim 12
The sound interpolation processing device according to claim 1, further comprising: a correction data storage unit that stores correction data for correcting the characteristic component, wherein the characteristic component interpolation unit refers to the correction rule storage unit to determine a sound quality of the sound source. Acquisition of correction data corresponding to
The characteristic component is corrected based on the correction data.

【0020】また請求項14に係る発明は、請求項9〜
13の何れか1項に記載の音の補間処理装置であって、
請求項1〜4の何れか1項に記載の画像の補間処理装置
で生成した疑似画像に前記擬音波形データを同期させる
機能を備えたものである。
The invention according to claim 14 is the invention according to claims 9 to
13. The sound interpolation processing device according to any one of 13),
A function of synchronizing the pseudo sound waveform data with a pseudo image generated by the image interpolation processing device according to any one of claims 1 to 4.

【0021】次に、請求項15に係る発明は、音源から
取得した複数の実音波形データを用いて当該音源の疑似
音を生成する音の補間処理方法であって、(d)複数の
時間帯に同一音源から取得した複数の実音波形データを
記録するステップと、(e)前記ステップ(d)で記録
された実音波形データに基づき、指定した時間情報にお
ける疑似音波形データを補間で算出するステップと、を
備えることを特徴とするものである。
Next, the invention according to claim 15 is a sound interpolation processing method for generating a pseudo sound of a sound source using a plurality of real sound waveform data obtained from a sound source, wherein (d) a plurality of time zones Recording a plurality of real sound waveform data obtained from the same sound source, and (e) calculating pseudo sound waveform data at specified time information by interpolation based on the real sound waveform data recorded in the step (d). And the following.

【0022】また請求項16に係る発明は、請求項15
記載の音の補間処理方法であって、前記ステップ(e)
において、前記ステップ(d)で記録された実音波形デ
ータを重み付け平均し、前記指定した時間情報における
疑似音波形データを補間で算出するものである。
The invention according to claim 16 is the invention according to claim 15.
The sound interpolation processing method according to claim 1, wherein said step (e)
In the above, the actual sound waveform data recorded in the step (d) is weighted and averaged, and the pseudo sound wave data at the designated time information is calculated by interpolation.

【0023】また請求項17に係る発明は、請求項15
記載の音の補間処理方法であって、前記ステップ(e)
は、(e−1)前記実音波形データの時間情報を独立変
数とし、当該実音波形の強さをその従属変数とした補間
を実行して補間曲線を算出するステップと、(e−2)
前記補間曲線を用いて前記指定した時間情報における疑
似音波形データを算出するステップと、をさらに備えた
ものである。
The invention according to claim 17 is based on claim 15.
The sound interpolation processing method according to claim 1, wherein said step (e)
(E-1) calculating an interpolation curve by executing interpolation using the time information of the actual sound waveform data as an independent variable and the intensity of the actual sound waveform as a dependent variable; and (e-2).
Calculating the pseudo sound waveform data at the designated time information using the interpolation curve.

【0024】また請求項18に係る発明は、請求項15
記載の音の補間処理方法であって、前記ステップ(e)
は、(e−3)前記実音波形データの周波数特性分布を
算出するステップと、(e−4)前記周波数特性分布か
ら周波数強調成分である特徴成分を抽出するステップ
と、(e−5)前記複数の特徴成分を補間して前記指定
した時間情報における擬似的な特徴成分を算出するステ
ップと、(e−6)前記特徴成分を除いた実音波形デー
タを生成し出力するステップと、(e−7)前記ステッ
プ(e−6)で出力された実音波形データに、前記ステ
ップ(e−5)で算出された擬似的な特徴成分を付加し
て前記疑似音波形データを算出するステップと、をさら
に備えたものである。
The invention according to claim 18 is directed to claim 15
The sound interpolation processing method according to claim 1, wherein said step (e)
(E-3) calculating a frequency characteristic distribution of the actual sound waveform data; (e-4) extracting a characteristic component that is a frequency emphasis component from the frequency characteristic distribution; Calculating a pseudo feature component in the designated time information by interpolating a plurality of feature components; (e-6) generating and outputting real sound waveform data excluding the feature component; 7) calculating the pseudo sound waveform data by adding the pseudo feature component calculated in the step (e-5) to the actual sound wave data output in the step (e-6). Further provisions.

【0025】また請求項19に係る発明は、請求項18
記載の音の補間処理方法であって、(f)前記ステップ
(e−4)または(e−7)の特徴成分を、当該音源の
音質に相応する補正データに則って補正するステップ、
をさらに備えたものである。
The invention according to claim 19 is the invention according to claim 18
(F) correcting the characteristic component of step (e-4) or (e-7) according to correction data corresponding to the sound quality of the sound source;
Is further provided.

【0026】そして請求項20に係る発明は、請求項1
5〜19の何れか1項に記載の音の補間処理方法であっ
て、請求項5〜8の何れか1項に記載の画像の補間処理
方法で生成した疑似画像に前記疑似音波形データを同期
させるものである。
The invention according to claim 20 is based on claim 1
The sound interpolation processing method according to any one of claims 5 to 19, wherein the pseudo sound waveform data is added to a pseudo image generated by the image interpolation processing method according to any one of claims 5 to 8. Synchronize.

【0027】[0027]

【発明の実施の形態】<実施の形態1>図1は、本発明
の実施の形態1に係る画像の補間処理装置1の概略構成
を示す機能ブロック図である。
<First Embodiment> FIG. 1 is a functional block diagram showing a schematic configuration of an image interpolation processing apparatus 1 according to a first embodiment of the present invention.

【0028】本実施の形態に係る画像補間処理装置1
は、被撮像体の実際の画像(実画像)データを格納した
実画像データベース2を備えている。実画像データベー
ス2には、同一の被撮像体の実画像データI1,I2
…,Inがそれぞれ時間情報(撮影時間)T1,T2
…,Tnを付されて格納されている。図示した例では、
時間情報T1は1950年1月1日、T2は1960年1
月1日、T3は1980年1月7日、…、Tnは2000
年1月1月である。尚、これら時間情報は撮像日時を示
すものでもよいし、被撮像体の年齢や経過時間などを示
すものでもよい。また、実画像データベース2には、撮
像した実画像データが直接格納されてもよいし、既存の
写真や画像データが取り込まれて格納されてもよい。さ
らに、本実施の形態では人物画像を例示して説明する
が、本発明では被撮像体は人物に限らず、他の生物や植
物、建造物などでもよい。
Image interpolation processing device 1 according to the present embodiment
Is provided with a real image database 2 that stores actual image (real image) data of the object to be imaged. The real image database 2 stores real image data I 1 , I 2 ,
..., I n each time information (imaging time) T 1, T 2,
..., it is stored in labeled the T n. In the example shown,
Time information T 1 is January 1, 1950, T 2 is 1960
Month 1 day, T 3 January 7, 1980, ..., T n 2000
January / January. Note that the time information may indicate the date and time of imaging, or may indicate the age and elapsed time of the object to be imaged. The real image database 2 may directly store the captured real image data, or may capture and store existing photographs and image data. Further, in the present embodiment, a person image will be described as an example. However, in the present invention, the object to be imaged is not limited to a person, but may be another living thing, plant, building, or the like.

【0029】また、画像補間処理装置1は、これら複数
の実画像データに表示される被撮像体の目や鼻などの特
徴部を自動認識する特徴部認識手段7と、実画像データ
1,I2,…,In間で特徴部を相互に対応付けする特
徴部対応付け手段3と、を備えており、複数の実画像デ
ータの間で補間を実行する補間手段4と、この補間手段
4で算出された補間曲線を利用して被撮像体の疑似画像
を生成する疑似画像生成手段5とを備えている。
The image interpolation processing apparatus 1 further includes a feature recognition unit 7 for automatically recognizing features such as the eyes and nose of the object displayed on the plurality of real image data, and real image data I 1 , I 2, ..., a feature association unit 3 to correspond to each other feature between I n, provided with an interpolation means 4 for performing interpolation between the plurality of actual image data, the interpolation means And a pseudo image generating means 5 for generating a pseudo image of the object to be picked up using the interpolation curve calculated in step 4.

【0030】このような構成の画像補間処理装置1の処
理手順を、図2のフローチャートを参照して以下に詳説
する。先ず、実画像データベース2に格納した実画像デ
ータT1,…,Tnの中から所要の撮影年月日の実画像デ
ータが複数選択される(ST1)。
The processing procedure of the image interpolation processing device 1 having such a configuration will be described in detail below with reference to the flowchart of FIG. First, a plurality of real image data of a required shooting date is selected from among the real image data T 1 ,..., T n stored in the real image database 2 (ST1).

【0031】次に、特徴部対応付け手段3において、こ
のように選択された実画像データの背景や被撮像体の特
徴部を対応付けする処理が実行される(ST2)。図3
に例示するように、選択した実画像が同一人物を撮影し
た画像A(1980年,30歳時に撮影)と画像C(2
000年,50歳時に撮影)とである場合、双方の画像
A,Cの特徴部(目、鼻、唇、眉毛、耳など)が認識さ
れた後に対応付けされる。尚、服装や髪型などは年齢変
化が現れにくく比較対象となり難いため、特徴部の対応
付け処理から除かれる場合がある。このような対応付け
処理は、オペレータが画像処理ソフトウェアを用い、マ
ウスやスタイラスなどのポインティング・デバイスを操
作するなどして、双方の画像の共通の特徴部を一々指定
して認識させてもよいし、パターン認識技術を用いて特
徴部を自動認識し対応付けても構わない。
Next, the characteristic unit associating means 3 executes a process of associating the background of the actual image data thus selected and the characteristic unit of the object to be imaged (ST2). FIG.
As shown in FIG. 2, the selected real images are an image A (photographed at the age of 30 in 1980) and an image C (2
000 years and 50 years old) is associated after the features (eyes, nose, lips, eyebrows, ears, etc.) of both images A and C are recognized. Note that clothes, hairstyles, and the like do not easily show age changes and are not easily compared, and thus may be excluded from the feature portion association processing. Such an association process may be performed by an operator operating a pointing device such as a mouse or a stylus using image processing software to specify and recognize common features of both images one by one. Alternatively, the characteristic portions may be automatically recognized using the pattern recognition technology and may be associated with each other.

【0032】特徴部認識手段7がパターン認識機能を備
えている場合、特徴部認識手段7は、選択した実画像デ
ータの各々に表示されている被撮像体と背景画像とを区
別するために被撮像体の輪郭線をパターン認識し、被撮
像体の年齢変化を示す身体的特徴、例えば鼻筋、素肌、
頭髪などの特徴部を、予め用意したそれら特徴部を模し
た基準モデルとパターン・マッチングして抽出する。こ
れにより、処理時間が短縮化され、被撮像体の疑似画像
を短時間で且つ効率的に創り出すことが可能となる。例
えば図3を示して具体的に説明すると、特徴部認識手段
7において、画像Aに表示された被撮像体10の輪郭線
10aと画像Cの被撮像体12の輪郭線12aとが認識
され、被撮像体10,12と背景画像11,13とが識
別される。次に、被撮像体10の目や鼻などの特徴部
と、被撮像体12の目や鼻などの特徴部とが認識された
後に、双方の被撮像体10,12の各特徴部が画素単位
で対応付けされる。
When the characteristic part recognizing means 7 has a pattern recognition function, the characteristic part recognizing means 7 is used to distinguish the object to be displayed and the background image displayed on each of the selected real image data. Recognize the contours of the imaged object in a pattern, and show physical characteristics indicating the age change of the imaged object, for example, nose muscles, bare skin,
Characteristic parts such as hair are extracted by pattern matching with a reference model prepared in advance, which simulates those characteristic parts. As a result, the processing time is shortened, and a pseudo image of the object to be imaged can be created in a short time and efficiently. For example, a specific description will be given with reference to FIG. 3. In the feature part recognizing means 7, the outline 10 a of the imaging object 10 displayed in the image A and the outline 12 a of the imaging object 12 in the image C are recognized. Objects 10 and 12 to be imaged and background images 11 and 13 are identified. Next, after the features such as the eyes and the nose of the object to be imaged 10 and the features such as the eyes and the nose of the object to be imaged 12 are recognized, each feature of both the objects to be imaged 10 and 12 It is associated in units.

【0033】次に、ステップST3に処理が移行し、上
記ステップST2で対応付けした特徴部毎に画素値(赤
(R),緑(G),青(B)で構成される画素の輝度
値)について補間処理が実行される。図4(a)のグラ
フに例示するように、時間情報Tを独立変数、画素値を
その従属変数とし、画像Aの画素aについて時間情報T
Aの画素値を示す点をSA、画像Cの画素cについて時間
情報TCの画素値を示す点をSCとした場合、2点SA
Cを補間した補間曲線fi(T)(i:i番目の画素値
を示している)を形成できる。図示した例では、補間曲
線fi(T)は、2点SA,SC間を結ぶ直線であるが、
最小自乗法やラグランジュの補間公式などの既知の補間
手段を用いて補間曲線を形成しても構わない。このよう
な補間曲線fi(T)を用いて、2点SA,SC間の時間
情報TBにおける点PBで示された画素値や、2点SA
C間の範囲外の時間情報TDにおける点PDで示された
画素値を求めることができる。
Next, the processing shifts to step ST3.
The pixel value (red
(R), luminance of pixel composed of green (G) and blue (B)
Value) is interpolated. The graph of FIG.
As an example, time information T is an independent variable, and pixel value is
The time information T for the pixel a of the image A is set as the dependent variable.
AThe point indicating the pixel value ofA, Time for pixel c of image C
Information TCThe point indicating the pixel value ofC, Two points SA,
SCInterpolated curve fi(T) (i: i-th pixel value
Is shown). In the example shown, the interpolation music
Line fi(T) is 2 points SA, SCIt is a straight line that connects them,
Known interpolations such as least squares and Lagrange's interpolation formula
The interpolation curve may be formed using a means. like this
Interpolation curve fiUsing (T), two points SA, SCTime between
Information TBThe point P atBAnd the two points SA,
SCTime information T outside the range betweenDThe point P atDIndicated by
Pixel values can be determined.

【0034】また図4(b)のグラフに示すように、実
画像が複数あって実画像間で対応付けされた画素値を示
す点が複数点SA,SB,SCある場合、各点SA,SB
Cを直線で結んだ補間曲線fi(T)を形成すればよ
い。このように直線補間することで、例えば時間情報T
Cにおける点PCで示される画素値を素早く算出すること
が可能となる。また、直線状の補間曲線fi(T)を用
いる代わりに、最小自乗法などのように全ての点を考慮
した補間法の場合は、図4(b)に例示されるように補
間曲線gi(T)が形成され、直線補間する場合よりも
若干処理時間を要するものの、指定された画素値をより
正確に算出することができる。
As shown in the graph of FIG. 4B, when there are a plurality of real images and there are a plurality of points S A , S B , and S C indicating the pixel values associated with the real images, The points S A , S B ,
What is necessary is just to form an interpolation curve f i (T) connecting S C with a straight line. By performing such linear interpolation, for example, the time information T
It is possible to quickly calculate the pixel value indicated by a point P C in C. Instead of using a linear interpolation curve f i (T), in the case of an interpolation method that takes all points into consideration, such as a least square method, an interpolation curve g as illustrated in FIG. i (T) is formed, and although it takes slightly more processing time than in the case of linear interpolation, the specified pixel value can be calculated more accurately.

【0035】次に、ステップST4に処理が移行し、上
記疑似画像生成手段5は、前記ステップST3で作成し
た補間曲線を用いて、全ての画素について指定された時
間情報における画素値を算出することで疑似画像を生成
して表示装置6に出力し、表示装置6で疑似画像が表示
される(ST5)。
Next, the process proceeds to step ST4, in which the pseudo image generating means 5 calculates pixel values in the designated time information for all the pixels using the interpolation curve created in step ST3. Generates a pseudo image and outputs it to the display device 6, and the display device 6 displays the pseudo image (ST5).

【0036】このようにして、図3に例示されるよう
に、画像Aに表示された30歳時(1980年)の被撮
像体10と、画像Cに表示された50歳時(2000
年)の被撮像体12とから、画像Bに表示された40歳
時(1990年)の被撮像体14や、画像Dに表示され
た55歳時(2005年)の被撮像体16を生成し表示
することが可能となる。また、このように画像Aと画像
Bとの間の疑似画像を時間軸に沿って連続的に生成する
ことで、表示装置6において画像Aから画像Bへまたは
その逆方向へ同一人物の外観が除々に年齢を変えて変化
する様子を表示させることが可能となる。したがって、
本実施の形態1によれば、撮像時間の異なる同一の被撮
像体の実画像を利用して、所望の時間情報における疑似
画像を現実感があるように高精度且つ短時間に創り出す
ことが可能である。
In this way, as illustrated in FIG. 3, the object 10 at the age of 30 (1980) displayed on the image A and the image at the age of 50 (2000) displayed on the image C are displayed.
The image-capturing object 14 at the age of 40 (1990) displayed in the image B and the image-capturing object 16 at the age of 55 (2005) displayed in the image D are generated from the image-capturing object 12 Can be displayed. In addition, by continuously generating a pseudo image between the image A and the image B along the time axis, the appearance of the same person in the display device 6 from the image A to the image B or in the opposite direction is displayed. It is possible to display a state in which the age changes gradually. Therefore,
According to the first embodiment, it is possible to create a pseudo image at desired time information with high accuracy and in a short time so that there is a sense of realism by using real images of the same object having different imaging times. It is.

【0037】<実施の形態2>次に、本発明の実施の形
態2について説明する。図5は、実施の形態2に係る画
像補間処理装置の概略構成を示す機能ブロック図であ
る。尚、図5において、上記実施の形態1で示した符号
と同一符号を付したブロックについては略同一機能を有
するものとして詳細な説明を省略する。
Second Embodiment Next, a second embodiment of the present invention will be described. FIG. 5 is a functional block diagram illustrating a schematic configuration of the image interpolation processing device according to the second embodiment. In FIG. 5, blocks denoted by the same reference numerals as those described in the first embodiment have substantially the same functions, and a detailed description thereof will be omitted.

【0038】本実施の形態2に係る画像補間処理装置2
0は、上記実施の形態1に係る画像補間処理装置1の構
成に加えて、代替画像を格納した代替画像データベース
21と、その代替画像を上記疑似画像に合成する画像合
成手段22とを備えている。
An image interpolation processing device 2 according to the second embodiment
0 is provided with an alternative image database 21 storing alternative images and an image synthesizing means 22 for synthesizing the alternative images with the pseudo image in addition to the configuration of the image interpolation processing apparatus 1 according to the first embodiment. I have.

【0039】この画像補間処理装置20の処理手順を、
図6のフローチャートを参照して以下に説明する。先
ず、上記実施の形態1で説明したステップST1〜ST
4(図2)と同様の処理が実行される。すなわち、実画
像データベース2から撮影日時(撮影時間)の異なる実
画像が選択され(ST1)、上記特徴部対応付け手段3
において選択した複数の実画像の特徴部が実画像間(時
間軸上)で関連付けされ(ST2)、上記補間手段4に
おいて、ステップST2で対応付けした特徴部間の補間
処理が実行され(ST3)、次に疑似画像生成手段5に
おいて上記補間曲線を用いて疑似画像が生成される(S
T4)。
The processing procedure of the image interpolation processing device 20 is as follows.
This will be described below with reference to the flowchart of FIG. First, the steps ST1 to ST described in the first embodiment are performed.
4 (FIG. 2). That is, real images having different shooting dates and times (shooting times) are selected from the real image database 2 (ST1), and the characteristic unit associating means 3
The characteristic portions of the plurality of real images selected in (1) are associated between the real images (on the time axis) (ST2), and interpolation processing between the characteristic portions associated in step ST2 is executed by the interpolation means 4 (ST3). Then, a pseudo image is generated by the pseudo image generating means 5 using the interpolation curve (S
T4).

【0040】そして、ステップST10に処理が移行
し、画像合成手段22は、代替画像データベース21を
参照し、前記ステップST4で出力した疑似画像の年齢
に相応し、且つ上記補間手段4で補間するのが難しい特
徴部を代替し得る代替画像を検索する。代替画像として
は、前記疑似画像の年齢に相応した時代の背景や服装、
髪型などが挙げられる。またサンプルとなる実画像に表
示された被撮像体が全て黒髪の持ち主であった場合、白
髪となった被撮像体の疑似画像を補間法で生成するのは
難しいため、疑似画像の年齢に応じて白髪の代替画像を
用いることが望ましい。またサンプル実画像の撮影時点
と疑似画像の指定時点とが離れている場合は、年齢変化
を補足するように代替画像を用いることが望ましい。
Then, the processing shifts to step ST10, where the image synthesizing means 22 refers to the substitute image database 21 and corresponds to the age of the pseudo image output in step ST4, and performs interpolation by the interpolation means 4. Search for an alternative image that can replace a difficult-to-find feature. As the substitute image, the background and clothes of the age corresponding to the age of the pseudo image,
Hairstyle and the like. Also, if the imaged object displayed in the sample real image is all black hair, it is difficult to generate a pseudo image of the imaged object with white hair by interpolation, so it depends on the age of the pseudo image. It is desirable to use an alternative image of gray hair. When the photographing time of the sample real image and the designated time of the pseudo image are far from each other, it is desirable to use the substitute image so as to supplement the age change.

【0041】次に、ステップST11において、上記補
間手段4で補間が難しかった特徴部を代替画像に替え
て、疑似画像と代替画像との画像合成処理を実行する。
例えば、図3に示した画像Cで被撮像体14の背景画像
15を時代に相応する他の背景画像に替えたり、被撮像
体14の服装を替えたりすることができる。最終的に、
画像合成手段22から出力した合成された疑似画像は、
表示装置6で表示される(ST12)。
Next, in step ST11, an image synthesizing process of the pseudo image and the substitute image is executed by replacing the characteristic portion which is difficult to interpolate by the interpolation means 4 with the substitute image.
For example, in the image C shown in FIG. 3, the background image 15 of the object 14 can be replaced with another background image corresponding to the age, or the clothing of the object 14 can be changed. Finally,
The synthesized pseudo image output from the image synthesis means 22 is:
It is displayed on the display device 6 (ST12).

【0042】このように本実施の形態によれば、代替画
像データベース21を用いることで、補間するのが難し
い部位に代替画像を適用できるから、時代背景に則し
た、極めて現実感の高い疑似画像を生成することができ
る。また、その疑似画像を用いて高精度のモーフィング
を実行し動画像を再生することが可能となる。
As described above, according to the present embodiment, the use of the substitute image database 21 allows the substitute image to be applied to a portion that is difficult to interpolate. Can be generated. In addition, it is possible to reproduce a moving image by executing high-precision morphing using the pseudo image.

【0043】<実施の形態3>上記実施の形態に係る画
像補間処理装置で作成した疑似画像を用いて動画像を再
生したりモーフィングを実行する際に、その疑似画像に
同期した疑似的な音(以下、疑似音と呼ぶ。)を再生す
ることでより現実感を高めることができる。図7は、そ
のような疑似音を生成するための、本発明の実施の形態
3に係る音補間処理装置30を示す機能ブロック図であ
る。
<Third Embodiment> When reproducing a moving image or performing morphing using a pseudo image created by the image interpolation processing apparatus according to the above embodiment, a pseudo sound synchronized with the pseudo image is performed. (Hereinafter, it is called a pseudo sound.) By reproducing the sound, the sense of reality can be further enhanced. FIG. 7 is a functional block diagram showing a sound interpolation processing device 30 according to Embodiment 3 of the present invention for generating such a pseudo sound.

【0044】本実施の形態3に係る音補間処理装置30
は、音源から出力した音の実音波形データW1,W2,W
3,…,Wnを格納した実音波形記憶部31を備えてい
る。その実音波形データは、例えばPCM(パルス符号
変調;Pulse-Code Modulation)方式などを用い、音源
が発した音を一定時間、数十kHz程度のサンプリング
周波数において12〜20ビット程度の解像度で量子化
することによりサンプリングされる。また、実音波形デ
ータW1,…,Wnは、当該実音波形をサンプリングした
ときの時間情報(サンプリング時間)を対応付けされた
状態で実音波形記憶部31に格納されている。図示した
例では、実音波形データW1の時間情報T1は1945年
1月1日、T2は1960年1月1日、T3は1980年
1月1日、…、Tnは2000年1月1日である。尚、
上記実画像データと同様に、これら時間情報は撮像日時
を示すものでもよいし、音源の年齢や経過時間などを示
すものでもよい。また、実音波形記憶部31には、記録
した実音波形データが直接格納されてもよいし、既存の
音データが取り込まれて格納されてもよい。
The sound interpolation processing device 30 according to the third embodiment
Are the actual sound waveform data W 1 , W 2 , W of the sound output from the sound source.
3, ..., a real waveform storing section 31 which stores W n. The real sound waveform data is quantized by a PCM (Pulse-Code Modulation) method or the like, for a fixed time, at a sampling frequency of about several tens of kHz and a resolution of about 12 to 20 bits at a sampling frequency of about several tens of kHz. Sampling. The actual sound waveform data W 1 ,..., W n are stored in the actual sound waveform storage unit 31 in a state in which time information (sampling time) at the time of sampling the actual sound waveform is associated. In the illustrated example, the time information T 1 of the actual sound waveform data W 1 is January 1, 1945, T 2 is January 1, 1960, T 3 is January 1, 1980,..., T n is 2000. January 1st. still,
As in the case of the actual image data, the time information may indicate the date and time of image capturing, or may indicate the age or elapsed time of the sound source. Further, the recorded actual sound waveform data may be directly stored in the actual sound waveform storage unit 31, or existing sound data may be captured and stored.

【0045】また、この音補間処理装置30は、実音波
形記憶部31に蓄積された実音波形データを平均化して
音響機器33に出力する実音波形平均化手段32を備え
ている。
The sound interpolation processing device 30 includes an actual sound waveform averaging means 32 for averaging the actual sound waveform data stored in the actual sound waveform storage unit 31 and outputting the averaged sound data to the acoustic device 33.

【0046】このような音補間処理装置30の処理手順
を図8のフローチャートを参照しつつ以下に詳説する。
先ず、実音波形平均化手段32に、外部から指定された
時間情報(Ts)と、実音波形記憶部31から複数の実
音波形データW1,…とが入力する(ST20)。
The processing procedure of the sound interpolation processing device 30 will be described below in detail with reference to the flowchart of FIG.
First, time information (Ts) designated from the outside and a plurality of real sound waveform data W 1 ,... From the real sound waveform storage unit 31 are input to the real sound waveform averaging means 32 (ST20).

【0047】次に、実音波形平均化手段32は、時間情
報Tsに基づいて重み付け平均化した実音波形を生成し
音響機器33に出力する(ST21)。すなわち、時間
情報Tに対応する実音波形をwi(T)とし、時間情報
iに対応する重み係数をMiとするとき、時間情報Ts
が時間情報Tk,Tk+1(k:1〜n−1)の間にある場
合、時間情報Tsに対応する実音波形ws(t)は次式
で表現される。
Next, the actual sound waveform averaging means 32 generates a weighted and averaged actual sound waveform based on the time information Ts, and outputs it to the acoustic device 33 (ST21). That is, when the actual sound waveform corresponding to the time information T is w i (T) and the weight coefficient corresponding to the time information T i is M i , the time information Ts
Is between the time information T k and T k + 1 (k: 1 to n−1), the actual sound waveform w s (t) corresponding to the time information Ts is expressed by the following equation.

【0048】ws(t)=Mk×wk(t)+Mk+1×w
k+1(t)(但し、Mk+Mk+1=1) ここで、図9のx−yグラフ(0≦x≦1)に示す通
り、x軸上のx=0の点をTk、x=1の点をTk+1およ
びx=xsの点をTsに対応させたとき、Mk=1−x、
k+1=xとすればよい。
W s (t) = M k × w k (t) + M k + 1 × w
k + 1 (t) (however, M k + M k + 1 = 1) Here, as shown in the xy graph (0 ≦ x ≦ 1) of FIG. When the points of k and x = 1 correspond to T k + 1 and the points of x = x s to Ts, M k = 1−x,
It suffices to set M k + 1 = x.

【0049】したがって、ステップST21では、実音
波形平均化手段32は、入力した時間情報Tsが実測さ
れた実音波形データのどの時間情報の間にあるかを算出
し、上式に基づいて時間情報Tsに対応する実音波形を
算出した後、音響機器33でその実音波形の擬似音が再
生されることとなる(ST22)。例えば、入力時間情
報Tsが1950年1月1日の場合は、時間情報Tsは
実音波形データW1,W2の時間情報T1(1945年1
月1日)とT2(1960年1月1日)との間に位置す
るから、図9に示した入力時間情報Tsに対応するxs
は、xs=(1950年−1945年)/(1960年
−1945年)=1/3となり、重み係数はM1=1/
3、M2=2/3となる。したがって、入力時間情報T
sに対応する実音波形は、ws(t)=(1/3)w
1(t)+(2/3)w2(t)で表現される。
Therefore, in step ST21, the actual sound waveform averaging means 32 calculates which time information of the actually measured actual sound waveform data is within the input time information Ts, and calculates the time information Ts based on the above equation. Is calculated, the pseudo sound of the actual sound waveform is reproduced by the acoustic device 33 (ST22). For example, when the input time information Ts is January 1, 1950, the time information Ts is the time information T 1 of the actual sound waveform data W 1 and W 2 (Jan. 1945).
1) and T 2 (Jan. 1, 1960), x s corresponding to the input time information Ts shown in FIG.
Is x s = (1950-1945) / (1960-1945) = 1/3, and the weighting factor is M 1 = 1 /
3, M 2 = 2. Therefore, the input time information T
The actual sound waveform corresponding to s is w s (t) = (1 /) w
It is expressed by 1 (t) + (2/3) w 2 (t).

【0050】このように本実施の形態3では、サンプリ
ング済みの同一音源による複数の実音波形データに基づ
いて、サンプリングされていない時間情報における前記
音源が発する音を擬似的に生成し再生できるという効果
を得られる。また、本実施の形態3に係る音補間処理装
置30を、上記実施の形態1,2に係る画像補間処理装
置と組み合わせることで、これら画像補間処理装置から
出力された動画像と同期した、極めて現実感のある音の
モーフィングや特殊音響効果を実現することも可能とな
る。
As described above, in the third embodiment, the sound generated by the sound source in the non-sampled time information can be generated and reproduced in a pseudo manner based on a plurality of real sound waveform data of the same sampled sound source. Can be obtained. Further, by combining the sound interpolation processing device 30 according to the third embodiment with the image interpolation processing devices according to the first and second embodiments, the sound interpolation processing device 30 is extremely synchronized with the moving image output from these image interpolation processing devices. It is also possible to realize realistic sound morphing and special sound effects.

【0051】<実施の形態4>図10は、本発明の実施
の形態4に係る音補間処理装置40の概略構成を示す機
能ブロック図である。尚、図10において、上記符号と
同一符号を付したブロックについては、略同一機能を有
するものとして詳細な説明を省略する。
<Fourth Embodiment> FIG. 10 is a functional block diagram showing a schematic configuration of a sound interpolation processing device 40 according to a fourth embodiment of the present invention. Note that, in FIG. 10, blocks denoted by the same reference numerals as those described above have substantially the same functions, and a detailed description thereof will be omitted.

【0052】本実施の形態4に係る音補間処理装置40
は、上記実施の形態3で説明したものと同じ実音波形記
憶部31と、複数の前記実音波形データの時間情報の軸
上の補間処理を実行する実音波形補間手段41と、この
実音波形補間手段41で補間された実音波形データに基
づいて疑似音を生成する疑似音生成手段42と、を備え
ている。
The sound interpolation processing device 40 according to the fourth embodiment
Is a real sound waveform storage unit 31 that is the same as that described in the third embodiment, a real sound waveform interpolation unit 41 that performs an interpolation process on the axis of time information of the plurality of real sound waveform data, A pseudo-sound generating means for generating a pseudo-sound based on the actual sound waveform data interpolated at 41.

【0053】このような音補間処理装置40の処理手順
を図11のフローチャートを参照して以下に詳説する
と、先ず、実音波形補間手段41は、実音波形記憶部3
1を参照し、同一音源からサンプリングした時間帯の異
なる複数の実音波形データW1,…,Wnを取得する(S
T30)。
The processing procedure of the sound interpolation processing device 40 will be described in detail below with reference to the flowchart of FIG. 11. First, the real sound waveform interpolation means 41
1, a plurality of actual sound waveform data W 1 ,..., W n in different time zones sampled from the same sound source are acquired (S
T30).

【0054】次に、実音波形補間手段41は、それら実
音波形データW1,…,Wnの実音波形w1(t),…,
n(t)を時間情報Tの軸方向で補間し、補間曲線も
しくは補間曲面を形成する(ST31)。すなわち、実
音波形補間手段41は、実音波形データをサンプリング
した時のサンプリング時間TについてT=Tj(j=
1,2,…)の複数点で補間を実行し、補間曲線F
j(T)(j=1,2,…)を算出する。尚、補間方法
としては最小自乗法やラグランジュの補間法などの既知
の補間手段を使用すればよい。
Next, the actual sound waveform interpolation means 41, their actual sound waveform data W 1, ..., the actual sound waveform of W n w 1 (t), ...,
w n (t) is interpolated in the axial direction of the time information T to form an interpolation curve or interpolation surface (ST31). That is, the actual sound waveform interpolating means 41 determines that the sampling time T when the actual sound waveform data is sampled is T = T j (j =
, 1, 2,...), And the interpolation curve F
j (T) (j = 1, 2,...) is calculated. As the interpolation method, a known interpolation means such as a least squares method or a Lagrange's interpolation method may be used.

【0055】次にステップST32に処理が移行し、疑
似音生成手段42は、時間情報Tsの入力を受けると、
前記実音波形補間手段41で算出した補間曲線F
j(T)を用いて、モーフィングなどによる動画像と同
期するように、時間情報T=Tsにおける擬字音を生成
して音響機器33に出力し、音響機器33でその疑似音
が再生される(ST33)。例えば、実音波形補間手段
41で実音波形データW1〜W3について補間処理を実行
した場合、補間曲線もしくは補間曲面を用いてそれら実
音波形データの時間情報T1(1945年1月1日),
2(1960年1月1日),T3(1980年1月7
日)のサンプリングの範囲内(1945年乃至1980
年)のみならず、その範囲外(1945年未満且つ19
80年を超える範囲)での擬似音波形を得ることが可能
となる。
Next, the process proceeds to step ST32, where the pseudo sound generating means 42 receives the input of the time information Ts,
The interpolation curve F calculated by the actual sound waveform interpolation means 41
Using j (T), a pseudo-sound at time information T = Ts is generated and output to the audio device 33 so that the pseudo-sound is synchronized with the moving image by morphing or the like, and the pseudo-sound is reproduced by the audio device 33 ( ST33). For example, when performing interpolation processing on the actual sound waveform data W 1 to W-3 in a real-waveform interpolation means 41, the interpolation curve or using an interpolation curved surface thereof actual sound waveform data time information T 1 (1 January 1945),
T 2 (January 1, 1960), T 3 (January 7, 1980)
Days) (1945 to 1980)
Year), but outside that range (less than 1945 and 19
(Over 80 years).

【0056】このように、本実施の形態4によれば、上
記実施の形態3と同じく、サンプリングした日や時刻の
異なる複数の同一音源による実音波形データに基づい
て、サンプリングされていない日や時刻における同じ音
源の音を擬似的に生成し、現実感のある音のモーフィン
グや特殊音響効果をつくり出すことが可能となる。さら
に、本実施の形態3では、時間情報Tの軸上で実音波形
i(t)の補間曲線を作成するので、サンプリングし
た実音波形データの時間情報の範囲内のみならず、その
範囲外の疑似音波形を算出しその疑似音を再生すること
が可能となる。
As described above, according to the fourth embodiment, similarly to the third embodiment, based on the actual sound waveform data from a plurality of the same sound sources having different sampled dates and times, the date and time that are not sampled are determined. , It is possible to simulate the sound of the same sound source in, and create a morphing of a sound with a realistic feeling and a special sound effect. Further, in the third embodiment, since the interpolation curve of the actual sound waveform w i (t) is created on the axis of the time information T, not only within the range of the time information of the sampled actual sound waveform data but also outside the range. It is possible to calculate a pseudo sound waveform and reproduce the pseudo sound.

【0057】<実施の形態5>次に、図12は、本発明
の実施の形態5に係る音補間処理装置60の概略構成を
示す機能ブロック図、図13は、この音補間処理装置6
0による処理手順を示すフローチャートである。
<Fifth Embodiment> Next, FIG. 12 is a functional block diagram showing a schematic configuration of a sound interpolation processing device 60 according to a fifth embodiment of the present invention, and FIG.
11 is a flowchart illustrating a processing procedure according to the first embodiment.

【0058】この音補間処理装置60は、上記実施の形
態3で示した通り、時間帯(記録時間)が互いに異なる
複数の実音波形データW1,…,Wnを格納した実音波形
記憶部31と、実音波形データの周波数特性分布を算出
する周波数特性分布算出手段69とを備え、さらに、前
記周波数特性分布の特徴成分を抽出する特徴成分抽出手
段61と、指定された時間情報Tsに基づき所定の規則
で特徴成分を変換する特徴成分補間手段64と、特徴成
分を対応する実音波形データから除く特徴成分除去手段
62と、特徴成分を除いた実音波形データW1’,…,
n’を合成する波形合成手段63と、特徴成分を除い
た実音波形データW1’,…,Wn’の各々に前記特徴成
分補間手段64で変換後の特徴成分を付加する特徴成分
付加手段66と、を備えている。特徴成分付加手段66
から出力された音信号は音響機器33で再生される。
As shown in the third embodiment, the sound interpolation processing device 60 stores the actual sound waveform storage unit 31 storing a plurality of actual sound waveform data W 1 ,..., W n having different time zones (recording times). Frequency characteristic distribution calculating means 69 for calculating the frequency characteristic distribution of the actual sound waveform data; further, a characteristic component extracting means 61 for extracting a characteristic component of the frequency characteristic distribution; and a predetermined component based on the designated time information Ts. , A characteristic component interpolating means 64 for converting a characteristic component according to the rule, a characteristic component removing means 62 for removing the characteristic component from the corresponding real sound waveform data, and a real sound waveform data W 1 ′,.
'And waveform synthesizing means 63 for synthesizing the actual sound waveform data W 1 excluding the feature component' W n, ..., characteristic components added for adding feature components after conversion to each of the W n 'in the characteristic component interpolating means 64 Means 66. Characteristic component adding means 66
The sound signal output from is reproduced by the acoustic device 33.

【0059】このような構成を有する音補間処理装置6
0の処理手順を図13のフローチャートを参照しつつ以
下に詳説する。先ず、周波数特性分布算出手段69は、
実音波形記憶部31から実音波形データW1,…,W
n(n≧2)を取得し(ST50)、FFT(Fast Four
ier Transform;高速フーリエ変換)などにより、それ
ら実音波形データW1,…,Wnをそれぞれ周波数特性分
布F1,…,Fnに変換する(ST51)。例えば、図1
4(a)に示す実音波形Wkは同図(b)に示すような
周波数特性分布Fkに変換される。このような周波数特
性分布Fkには、特定の周波数領域で強調して生ずる複
数の特徴成分70,70,…が含まれており、音質を特
徴付ける音源固有な成分である。尚、一般に、楽器や音
声の特徴成分はフォルマントと呼ばれている。音声のフ
ォルマントは、大体において口蓋の発声器官などが発す
る音の振動数により決定されており、男性のフォルマン
トは比較的低い周波数領域に存在し、他方で女性のフォ
ルマントは比較的高い周波数領域に存在するのが一般的
である。
The sound interpolation processing device 6 having such a configuration
0 will be described in detail below with reference to the flowchart of FIG. First, the frequency characteristic distribution calculating means 69
The actual sound wave data W 1 ,.
n (n ≧ 2) is acquired (ST50), and FFT (Fast Four
ier Transform; by high-speed Fourier transform), their actual sound waveform data W 1, ..., the frequency characteristics of W n, respectively distributions F 1, ..., is converted to F n (ST51). For example, FIG.
The actual sound waveform W k shown in FIG. 4A is converted into a frequency characteristic distribution F k as shown in FIG. Such frequency characteristic distribution F k, a plurality of characteristic components 70 and 70 resulting highlighted in a specific frequency domain, ... are included, a source-specific components that characterize the sound quality. Generally, characteristic components of musical instruments and voices are called formants. Speech formants are largely determined by the frequency of the sound emitted by the vocal organs of the palate, etc., while male formants are in a relatively low frequency range, while female formants are in a relatively high frequency range. It is common to do.

【0060】次に、特徴成分抽出手段61において上記
した各周波数特性分布F1,…,Fnから特徴成分が抽出
され(ST52)、各特徴成分を表す値(基準周波数f
0など)が特徴成分除去手段62と特徴成分補間手段6
4とに出力される。特徴成分は、FFTもしくはLPC
(Linear Prediction Coding;線形予測符号化)分析な
どを用いた既知のケプストラム(Cepstrum)処理により
抽出されることができる。
Next, the characteristic component is extracted from the above-mentioned frequency characteristic distributions F 1 ,..., F n by the characteristic component extracting means 61 (ST 52), and a value representing each characteristic component (the reference frequency f
0 ) is the characteristic component removal means 62 and the characteristic component interpolation means 6
4 is output. The characteristic component is FFT or LPC
(Linear Prediction Coding) can be extracted by known cepstrum processing using analysis or the like.

【0061】次に、特徴成分除去手段62は、元の実音
波形データW1,…,Wnからその周波数特性の特徴成分
をバンド・パス・フィルタ仕様のIIR(Infinite Imp
ulseResponse)フィルタやFIR(Finite Impulse Res
ponse)フィルタなどのディジタルフィルタを用いて当
該特徴成分を平坦化する(ST53)。これにより得ら
れる実音波形データW1’,…,Wn’が波形合成手段6
3に出力される。
Next, the characteristic component removing means 62 converts the characteristic component of the frequency characteristic from the original actual sound waveform data W 1 ,..., W n into an IIR (Infinite Imp
ulseResponse) filter and FIR (Finite Impulse Res)
The characteristic component is flattened using a digital filter such as a filter (ST53). Thus the actual sound waveform data W 1 obtained ', ..., W n' is waveform synthesis means 6
3 is output.

【0062】次に、波形合成手段63は、周波数特性分
布から特徴成分を除かれた実音波形W1’,…,Wn’を
補間して、上記時間情報Tsにおける特徴成分を含まな
い擬似的な実音波形Wc’を合成する(ST54)。こ
の補間処理としては、上記実施の形態3で述べたのと同
様の重み係数を用いた平均化処理や、上記実施の形態4
で述べたのと同様の補間曲線を用いた補間処理を適用す
ればよい。
Next, the waveform synthesizing means 63 interpolates the actual sound waveforms W 1 ′,..., W n ′ from which the characteristic components have been removed from the frequency characteristic distribution, and generates a pseudo-waveform containing no characteristic components in the time information Ts. A real sound waveform W c 'is synthesized (ST54). As the interpolation processing, averaging processing using the same weighting factor as described in the third embodiment,
Interpolation processing using the same interpolation curve as described above may be applied.

【0063】また、前記ステップST53,54の処理
と併行して、特徴成分補間手段64において、特徴成分
抽出手段61で抽出された特徴成分が補間され、時間情
報Tsにおける擬似的な特徴成分が生成される(ST5
5)。この補間処理としては、上記実施の形態3で述べ
たのと同様の重み係数を用いた平均化処理や、上記実施
の形態4で述べたのと同様の補間曲線を用いた補間処理
を適用すればよい。
In parallel with the processing of steps ST53 and ST54, the characteristic component extracted by the characteristic component extraction means 61 is interpolated by the characteristic component interpolation means 64 to generate a pseudo characteristic component in the time information Ts. (ST5
5). As the interpolation processing, an averaging processing using the same weight coefficient as described in the third embodiment or an interpolation processing using an interpolation curve similar to the one described in the fourth embodiment can be applied. I just need.

【0064】また、特徴成分補間手段64は補正規則デ
ータベース65に記憶された規則(補正データ)に則っ
て上記補正処理を実行する。補正規則データベース65
には、各種制御パラメータが記憶されている。具体的に
は、IIR型フィルタを用いる場合は、中心周波数
0,Q値、レベル(単位:dB)など、FIR型フィ
ルタを用いる場合は、点数(次数)に応じた各タップの
係数群などが制御パラメータであり、新たな特徴成分を
決定する数値となる。これら制御パラメータを決定する
ため、例えば、男性、女性、子供または老人などの分類
に応じた制御パラメータの範囲、入力する音声信号の基
準周波数に追随した変動範囲などを定める規則が補正規
則データベース65に格納されている。
Further, the characteristic component interpolation means 64 executes the above-mentioned correction processing in accordance with the rules (correction data) stored in the correction rule database 65. Correction rule database 65
Stores various control parameters. Specifically, when using an IIR filter, the center frequency f 0 , Q value, level (unit: dB) and the like are used. When using an FIR filter, a coefficient group of each tap according to the score (order) is used. Is a control parameter, which is a numerical value for determining a new feature component. In order to determine these control parameters, for example, a rule that defines a range of control parameters according to the classification of a man, a woman, a child, or an elderly person, a fluctuation range that follows a reference frequency of an input audio signal, and the like is stored in the correction rule database 65. Is stored.

【0065】例えば、サンプリングした男性の音声の周
波数特性において2kHzと3kHzに特徴成分(ピー
ク)がある場合、1kHzの基準周波数が入力したとす
れば、その特徴成分の中心周波数2kHzと3kHzに
おける各レベルを所定の強調量で上げるように制御でき
る。また、例えば基準周波数が700Hzの倍音となる
2.1kHz,2.8kHzに特徴成分のピークが位置
するように特徴成分をシフトするように制御できる。ま
た、入力音が基準振動数の倍音をもつ場合や、逆に入力
音が200Hzのように比較的低い周波数をもつ場合
は、特徴成分の周波数を若干変化させてもよい。さら
に、特徴成分補間手段64に入力する基準振動数の変化
に伴い、その倍音の周波数も相関的に変化させるように
規則を設けてもよい。例えば、基準周波数の変化の割合
の数十%の追従率で特徴成分のピーク周波数を変化させ
ることができる。このように音源の音質に相応するよう
に特徴成分を補正できるから、現実感のある疑似音を創
り出すことが可能となる。
For example, in the frequency characteristic of a sampled male voice, when there are characteristic components (peaks) at 2 kHz and 3 kHz, if a reference frequency of 1 kHz is input, each level at the center frequency 2 kHz and 3 kHz of the characteristic component is input. Can be controlled to be increased by a predetermined enhancement amount. Further, for example, the control can be performed such that the characteristic component is shifted so that the peak of the characteristic component is located at 2.1 kHz and 2.8 kHz, which are the overtones of 700 Hz. Further, when the input sound has an overtone of the reference frequency, or when the input sound has a relatively low frequency such as 200 Hz, the frequency of the characteristic component may be slightly changed. Furthermore, a rule may be provided so that the frequency of the overtone is correlatedly changed with a change in the reference frequency input to the characteristic component interpolation means 64. For example, the peak frequency of the characteristic component can be changed at a tracking rate of several tens% of the rate of change of the reference frequency. As described above, since the characteristic components can be corrected so as to correspond to the sound quality of the sound source, it is possible to create a realistic pseudo sound.

【0066】次に、ステップST56に処理が移行し、
特徴成分付加手段66において、上記ステップST54
で算出した合成波形に、上記ステップST55で補間し
た複数の実音波形の特徴成分が付加される。
Next, the process proceeds to step ST56,
In the characteristic component adding means 66, the above-mentioned step ST54 is performed.
The characteristic components of the plurality of real sound waveforms interpolated in step ST55 are added to the composite waveform calculated in step ST55.

【0067】上記特徴成分付加手段66の回路構成とし
ては、図15に例示するような3基の状態変数型フィル
タ711,712,713を直列接続したものが挙げられ
る。図15において、符号A1は加算器、D1は遅延
器、M1は乗算器を示している。各フィルタ711,7
2,713は、BPFとしてそれぞれ3個のピーク周波
数F1,F2,F3に応じた周波数特性を制御でき、そ
れぞれ(中心周波数,Q値,レベル)のパラメータの組
(F1,Q1,L1)、(F2,Q2,L2)、(F
3,Q3,L3)を指定されると、入力信号Xに対し出
力Yを得るものである。このような3基を直列した状態
変数フィルタ711〜713を用いることにより、図16
に示すように、前述の3組のパラメータ(F1,Q1,
L1),(F2,Q2,L2),(F3,Q3,L3)
を表す周波数特性分布を得ることが可能となる。例え
ば、特徴成分抽出手段61から特徴成分補間手段64に
特徴成分の基準周波数1kHzが入力し、特徴成分補間
手段64は補正規則データベース65を参照して、その
倍音2kHzに対して+6dB、3kHzに対して+2
dB、4kHzに対して+8dBのレベルに設定すると
いう規則を適用した場合、上記状態変数フィルタ711
〜713に送信される制御パラメータの組は、それぞれ
(2kHz,2.0,6.0dB),(3kHz,2.
5,2.0dB),(4kHz,4.0,8.0dB)
となる。
As a circuit configuration of the characteristic component adding means 66, there is a circuit in which three state variable filters 71 1 , 71 2 and 71 3 are connected in series as exemplified in FIG. In FIG. 15, reference symbol A1 indicates an adder, D1 indicates a delay unit, and M1 indicates a multiplier. Each filter 71 1 , 7
1 2, 71 3, respectively to control the frequency characteristic according to the three peak frequencies F1, F2, F3 as a BPF, respectively (center frequency, Q value, level) of the set of parameters (F1, Q1, L1) , (F2, Q2, L2), (F
When (3, Q3, L3) is specified, an output Y is obtained for the input signal X. By using the state variable filter 71 1-71 3 such 3 group in series, FIG. 16
As shown in FIG. 5, the above three sets of parameters (F1, Q1,
L1), (F2, Q2, L2), (F3, Q3, L3)
Can be obtained. For example, the reference frequency 1 kHz of the feature component is input from the feature component extraction unit 61 to the feature component interpolation unit 64, and the feature component interpolation unit 64 refers to the correction rule database 65 and adds +6 dB for the overtone 2 kHz and 3 kHz for the 3 kHz. +2
When the rule of setting the level to +8 dB for dB and 4 kHz is applied, the state variable filter 71 1
Set of control parameters transmitted to the -71 3, respectively (2kHz, 2.0,6.0dB), (3kHz , 2.
5, 2.0 dB), (4 kHz, 4.0, 8.0 dB)
Becomes

【0068】尚、図15に例示した状態変数型フィルタ
の代わりにFIR型フィルタを用いてもよい。この場
合、通常、64次乃至1024次程度の点数に応じた周
波数解像度で全体の周波数特性を制御することができ
る。
Note that an FIR filter may be used instead of the state variable filter illustrated in FIG. In this case, generally, the entire frequency characteristic can be controlled with a frequency resolution corresponding to a score of about 64th to 1024th order.

【0069】そして、最終的には、前記特徴成分付加手
段66で生成された実音波形データが音響機器33に出
力され、疑似音が再生されることとなる(ST56)。
尚、音響機器33として、例えばPWM(Pulse Width
Modulation)音源、FM(Frequency Modulatoin)音
源、PCM(Pulse Code Modulation)サンプリング音
源、DSP(Digital Signal Processing)音源、DL
S(Down Loadable Sampling)音源などを併用してもよ
い。
Finally, the actual sound waveform data generated by the characteristic component adding means 66 is output to the audio equipment 33, and the pseudo sound is reproduced (ST56).
The acoustic device 33 is, for example, a PWM (Pulse Width).
Modulation) sound source, FM (Frequency Modulatoin) sound source, PCM (Pulse Code Modulation) sampling sound source, DSP (Digital Signal Processing) sound source, DL
An S (Down Loadable Sampling) sound source or the like may be used together.

【0070】このように、本実施の形態5に係る音補間
処理装置60によれば、特徴成分抽出手段61において
実音波形データの周波数特性分布から特徴成分を抽出
し、特徴成分補間手段64においてその特徴成分に関し
て所望の時間情報Tsに基づく補間処理を実行している
から、高精度で現実感のある疑似音を生成し再生するこ
とが可能となる。また特徴成分補間手段64において補
正規則データベース65を参照して、規則に則った補正
処理を実行しているから、サンプリングした実音波形デ
ータに基づいた補間が難しい時間情報の疑似音を、より
現実感を増して生成し再生することが可能となる。
As described above, according to the sound interpolation processing device 60 according to the fifth embodiment, the characteristic component is extracted from the frequency characteristic distribution of the actual sound waveform data by the characteristic component extraction means 61, and the characteristic component is extracted by the characteristic component interpolation means 64. Since the interpolation process based on the desired time information Ts is performed on the characteristic component, it is possible to generate and reproduce a highly accurate and realistic pseudo sound. In addition, since the characteristic component interpolation means 64 executes the correction process in accordance with the rule with reference to the correction rule database 65, the pseudo sound of the time information, which is difficult to interpolate based on the sampled actual sound waveform data, is generated in a more realistic manner. Can be generated and reproduced.

【0071】<実施の形態5の変形例>また、図17に
示すように、特徴成分付加手段66と音響機器33との
間に介在し、特徴成分付加手段66から出力された波形
を時間情報Tsに基づいて変換する波形変換手段67を
さらに設けるのが望ましい。波形変換手段67は、変換
パラメータデータベース68を参照し、予め定められ時
間情報Tsに相応するパラメータ(補正データ)を読み
込み、特徴成分付加手段66から出力された波形の振幅
を変えたり、時間軸上に所定のピッチ変換率で伸縮させ
たりする機能を有する。これにより、例えば、年齢が変
わることによる声帯変化(例えば、声変)を表すため
に、図18(a)に例示する1kHzで録音された実音
波形を時間軸上で圧縮し、同図(b)の2kHzの再生
波形を生成したり、同図(a)の波形を伸長し、同図
(c)の500Hzの再生波形を生成したりすることが
可能となる。この場合、ピッチ変換率が変換パラメータ
データベース68に格納されるパラメータの例である。
一般に、音波形の変換範囲は、音質を良好にするため、
プラスマイナス1オクターブ(ピッチ変換率:1/2倍
〜2倍)程度に抑えることが望ましい。
<Modification of the Fifth Embodiment> As shown in FIG. 17, the waveform output from the characteristic component adding means 66 interposed between the characteristic component adding It is desirable to further provide a waveform converting means 67 for converting based on Ts. The waveform converting means 67 reads a parameter (correction data) corresponding to the predetermined time information Ts with reference to the conversion parameter database 68, changes the amplitude of the waveform output from the characteristic component adding means 66, Has a function of expanding and contracting at a predetermined pitch conversion rate. As a result, for example, in order to represent a vocal cord change (for example, a voice change) due to a change in age, an actual sound waveform recorded at 1 kHz illustrated in FIG. 18A is compressed on the time axis, and FIG. 2) can be generated, or the waveform of FIG. 3A can be expanded to generate a 500 Hz reproduced waveform of FIG. 3C. In this case, the pitch conversion rate is an example of a parameter stored in the conversion parameter database 68.
Generally, the conversion range of the sound waveform is to improve the sound quality,
It is desirable to suppress it to about plus or minus one octave (pitch conversion rate: 1/2 to 2 times).

【0072】以上、本発明の種々の実施の形態について
説明したが、上記実施の形態1,2に係る画像補間処理
装置と上記実施の形態3〜6に係る音補間処理装置とを
組み合わせ、画像補間処理装置で生成した動画像を再生
すると同時に、その動画像に同期するように音補間処理
装置で疑似音を生成することで、臨場感ある特殊映像音
響効果を実現することが可能となる。
While the various embodiments of the present invention have been described above, the image interpolation processing apparatuses according to the first and second embodiments and the sound interpolation processing apparatuses according to the third to sixth embodiments are combined to form an image. Simultaneous reproduction of the moving image generated by the interpolation processing device and generation of the pseudo sound by the sound interpolation processing device in synchronization with the moving image enables realization of a special video and audio effect with a sense of reality.

【0073】[0073]

【発明の効果】以上の如く、本発明の請求項1に係る画
像の補間処理装置および請求項5に係る補間処理方法に
よれば、既に撮像した被撮像体の実画像に基づいて、所
望の時間情報(年齢や年代)の疑似画像を現実感がある
ように創り出すことができる。このため、例えば20歳
と40歳の時の被撮像体の2枚の実画像を用いて、30
歳や50歳の時の被撮像体の擬似画像を創り出すことが
可能となる。
As described above, according to the image interpolation processing apparatus and the interpolation processing method according to the first and second aspects of the present invention, it is possible to obtain a desired image based on a real image of an object already captured. A pseudo image of time information (age and age) can be created with a sense of reality. For this reason, for example, using two real images of the object to be imaged when they are 20 years old and 40 years old,
It is possible to create a pseudo image of the object to be imaged at the age of 50 or 50 years.

【0074】また請求項2および請求項6によれば、実
画像に表示される被撮像体の特徴部を自動認識できるた
め、実画像間で特徴部を対応付けする処理時間が短縮化
され、被撮像体の擬似画像を短時間で且つ効率的に生成
することが可能となる。またモーフィングによる被撮像
体の年齢が移り変わる疑似画像を短時間で且つ高精度に
創り出すことが可能となる。
According to the second and sixth aspects, since the characteristic portion of the object to be displayed displayed in the real image can be automatically recognized, the processing time for associating the characteristic portion between the real images can be shortened. A pseudo image of the object to be imaged can be generated efficiently in a short time. In addition, it is possible to create a pseudo image in which the age of an object to be imaged changes by morphing in a short time and with high accuracy.

【0075】また請求項3および請求項7によれば、よ
り現実感のある高精度の疑似画像を創り出すことが可能
となる。
According to the third and seventh aspects, it is possible to create a more realistic and accurate pseudo image.

【0076】また請求項4および請求項8によれば、サ
ンプリングした実画像を用いて補間することが難しい部
位に代替画像を適用できるから、より現実感のある疑似
画像を創り出すことが可能となる。このため、年齢に相
応した頭髪や髭の形状や色、肌の性状などを代替画像の
それに置き換え、現実感を増すことが可能となる。
According to the fourth and eighth aspects, a substitute image can be applied to a portion that is difficult to interpolate using a sampled real image, so that a more realistic pseudo image can be created. . For this reason, the shape and color of the hair and beard corresponding to the age, the properties of the skin, and the like can be replaced with those of the substitute image, and the realism can be increased.

【0077】また、本発明の請求項9に係る音の補間処
理装置および請求項15に係る補間処理方法によれば、
同一音源から、時間を隔てた複数の時間帯に録音された
音を利用して、所望の時間情報(年齢や経過時間、日時
など)における現実感のある疑似音を短時間で創り出す
ことが可能となる。
According to the sound interpolation processing apparatus and the interpolation processing method according to the ninth aspect of the present invention,
By using sounds recorded in multiple time zones separated by time from the same sound source, it is possible to create a realistic pseudo sound in the desired time information (age, elapsed time, date, etc.) in a short time Becomes

【0078】また請求項10および請求項16によれ
ば、実音波形データを重み付け平均することで、疑似音
波形データを精度良く算出することが可能となる。
According to the tenth and sixteenth aspects, it is possible to calculate the pseudo sound waveform data with high accuracy by averaging the actual sound wave data.

【0079】また請求項11および請求項17によれ
ば、補間曲線を用いることでより精度良く疑似音を生成
し再生することが可能となる。
According to the eleventh and seventeenth aspects, it is possible to more accurately generate and reproduce a pseudo sound by using an interpolation curve.

【0080】また請求項12および請求項18によれ
ば、周波数特性分布から抽出した複数の特徴成分間で補
間を実行しているため、極めて現実感の高い疑似音を得
ることが可能となる。
According to the twelfth and eighteenth aspects, since interpolation is performed between a plurality of feature components extracted from the frequency characteristic distribution, it is possible to obtain an extremely realistic pseudo sound.

【0081】また請求項13および請求項19によれ
ば、音源の音質に相応するように特徴成分を補正できる
から、補間するのが困難な時間情報における実音波形を
現実感があるように創り出し、再生することが可能とな
る。このため、例えば、音源が男性、女性、子供または
老人などの場合、補間した後の特徴成分が各音源の音質
に相応するような疑似音を創り出したり、或いは、サン
プリングした実音波形データが全て声変前のものだった
場合に、声変に関する補正データに則って声変後の疑似
音を創り出すことができる。
According to the thirteenth and nineteenth aspects, since the characteristic component can be corrected so as to correspond to the sound quality of the sound source, an actual sound waveform in time information that is difficult to interpolate is created with a sense of realism. It becomes possible to reproduce. For this reason, for example, when the sound source is a man, a woman, a child, or an elderly person, the interpolated characteristic component creates a pseudo sound corresponding to the sound quality of each sound source, or the sampled real sound waveform data is entirely vocalized. In the case where the sound is before the sound change, a pseudo sound after the sound change can be created based on the correction data relating to the sound change.

【0082】また請求項14および請求項20によれ
ば、疑似画像に同期した音を創り出すことができるか
ら、特殊映像効果をさらに高めることが可能となる。
According to the fourteenth and twentieth aspects, since a sound synchronized with the pseudo image can be created, the special video effect can be further enhanced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態1に係る画像補間処理装置
の概略構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of an image interpolation processing device according to a first embodiment of the present invention.

【図2】実施の形態1に係る画像補間処理装置による処
理手順を示すフローチャートである。
FIG. 2 is a flowchart illustrating a processing procedure performed by the image interpolation processing device according to the first embodiment;

【図3】被撮像体の年齢の異なる実画像と疑似画像とを
示す模式図である。
FIG. 3 is a schematic diagram showing a real image and a pseudo image of the imaged object having different ages.

【図4】(a)は、時間軸に対する2点の画素値の補間
曲線を示すグラフの図、(b)は、時間軸に対する3点
の画素値の補間曲線を示すグラフの図である。
FIG. 4A is a graph showing an interpolation curve of two pixel values on a time axis, and FIG. 4B is a graph showing an interpolation curve of three pixel values on a time axis.

【図5】本発明の実施の形態2に係る画像補間処理装置
の概略構成を示すブロック図である。
FIG. 5 is a block diagram illustrating a schematic configuration of an image interpolation processing device according to a second embodiment of the present invention.

【図6】実施の形態2に係る画像補間処理装置による処
理手順を示すフローチャートである。
FIG. 6 is a flowchart illustrating a processing procedure performed by the image interpolation processing apparatus according to the second embodiment;

【図7】本発明の実施の形態3に係る音補間処理装置の
概略構成を示す機能ブロック図である。
FIG. 7 is a functional block diagram illustrating a schematic configuration of a sound interpolation processing device according to a third embodiment of the present invention.

【図8】実施の形態3に係る音補間処理装置による処理
手順を示すフローチャートである。
FIG. 8 is a flowchart illustrating a processing procedure performed by the sound interpolation processing device according to the third embodiment;

【図9】実施の形態3における重み係数を算出するため
のグラフを示す説明図である。
FIG. 9 is an explanatory diagram showing a graph for calculating a weight coefficient according to the third embodiment.

【図10】本発明の実施の形態4に係る音補間処理装置
の概略構成を示す機能ブロック図である。
FIG. 10 is a functional block diagram showing a schematic configuration of a sound interpolation processing device according to Embodiment 4 of the present invention.

【図11】実施の形態4に係る音補間処理装置による処
理手順を示すフローチャートである。
FIG. 11 is a flowchart showing a processing procedure by the sound interpolation processing device according to the fourth embodiment.

【図12】本発明の実施の形態5に係る音補間処理装置
の概略構成を示す機能ブロック図である。
FIG. 12 is a functional block diagram illustrating a schematic configuration of a sound interpolation processing device according to a fifth embodiment of the present invention.

【図13】実施の形態5に係る音補間処理装置による処
理手順を示すフローチャートである。
FIG. 13 is a flowchart showing a processing procedure by the sound interpolation processing device according to the fifth embodiment.

【図14】(a)は実音波形の一例を示す概略図、
(b)はその周波数特性分布を示す概略図である。
FIG. 14A is a schematic diagram illustrating an example of an actual sound waveform.
(B) is a schematic diagram showing the frequency characteristic distribution.

【図15】実施の形態5に係る音補間処理装置の特徴成
分付加手段で用いるIIR型フィルタの回路図である。
FIG. 15 is a circuit diagram of an IIR filter used in a characteristic component adding unit of the sound interpolation processing device according to the fifth embodiment.

【図16】図15のIIR型フィルタを用いた波形例を
示す概略図である。
16 is a schematic diagram showing a waveform example using the IIR filter of FIG.

【図17】実施の形態5の変形例の要部構成を示す機能
ブロック図である。
FIG. 17 is a functional block diagram illustrating a main configuration of a modification of the fifth embodiment.

【図18】(a)は実音波形を示す図、(b)は(a)
に示す実音波形を時間軸に沿って圧縮した図、(c)は
(a)に示す実音波形を時間軸に沿って伸長した図であ
る。
18A is a diagram showing an actual sound waveform, and FIG.
(C) is a diagram in which the actual sound waveform shown in (a) is compressed along the time axis, and FIG.

【図19】画像のモーフィングの従来例を示す図であ
る。
FIG. 19 is a diagram showing a conventional example of image morphing.

【符号の説明】[Explanation of symbols]

1 画像補間処理装置 2 実画像データベース 3 特徴部対応付け手段 4 補間手段 5 疑似画像生成手段 6 表示装置 7 特徴部認識手段 10,12,14,16 被写体 11,13,15,17 背景画像 20 画像補間処理装置 21 代替画像データベース 22 画像合成手段 30 音補間処理装置 31 実音波形記憶部 32 実音波形平均化手段 33 音響機器 40 音補間処理装置 41 実音波形補間手段 42 疑似音生成手段 60 音補間処理装置 61 特徴成分抽出手段 62 特徴成分除去手段 63 波形合成手段 64 特徴成分補間手段 65 補正規則データベース 66 特徴成分付加手段 67 波形変換手段 68 変換パラメータデータベース 69 周波数特性分布算出手段 711〜713 状態変数型フィルターDESCRIPTION OF SYMBOLS 1 Image interpolation processing apparatus 2 Real image database 3 Characteristic part associating means 4 Interpolating means 5 Pseudo image generating means 6 Display device 7 Characteristic part recognizing means 10, 12, 14, 16 Subject 11, 13, 15, 17 Background image 20 Image Interpolation processing device 21 Alternative image database 22 Image synthesis means 30 Sound interpolation processing device 31 Real sound waveform storage unit 32 Real sound waveform averaging means 33 Audio equipment 40 Sound interpolation processing device 41 Real sound waveform interpolation means 42 Pseudo sound generation means 60 Sound interpolation processing device 61 feature component extraction means 62 feature component removal means 63 waveform synthesis means 64 feature component interpolation means 65 correction rule database 66 feature component addition means 67 waveform conversion means 68 conversion parameter database 69 frequency characteristic distribution calculation means 71 1 to 71 3 state variable type filter

フロントページの続き Fターム(参考) 5B050 AA08 BA08 BA10 BA12 DA07 EA04 EA13 EA18 EA19 EA24 FA02 FA10 5B057 AA20 BA02 CD11 CE08 DA16 DA17 DB02 DC01 DC32 DC36 5C023 AA01 AA11 AA21 AA34 AA38 BA01 BA11 BA15 CA01 CA08 DA08 5D045 AB01 AB30 CA10 Continued on front page F-term (reference) 5B050 AA08 BA08 BA10 BA12 DA07 EA04 EA13 EA18 EA19 EA24 FA02 FA10 5B057 AA20 BA02 CD11 CE08 DA16 DA17 DB02 DC01 DC32 DC36 5C023 AA01 AA11 AA21 AA34 AA38 BA01 DA08 CA01 AB

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 被撮像体の複数の実画像データを用いて
当該被撮像体の疑似画像を生成する画像の補間処理方法
であって、 撮像時間の異なる同一の被撮像体の実画像データを複数
格納する画像記憶部と、 前記画像記憶部から選択した複数の実画像データに基づ
き、指定した時間情報における疑似画像データを補間で
算出する画像補間部と、を備えることを特徴とする画像
の補間処理装置。
An image interpolation processing method for generating a pseudo image of a subject using a plurality of real image data of the subject, wherein the real image data of the same subject having different imaging times is obtained. An image storage unit that stores a plurality of images, and an image interpolation unit that calculates pseudo image data at specified time information by interpolation based on a plurality of real image data selected from the image storage unit. Interpolation processing device.
【請求項2】 請求項1記載の画像の補間処理装置であ
って、前記画像補間部は、 前記画像記憶部から選択した複数の実画像データの特徴
部を自動認識する特徴部認識手段と、 前記特徴部を複数の前記実画像データの間で相互に対応
付けする特徴部対応付け手段と、をさらに備える画像の
補間処理装置。
2. The image interpolation processing apparatus according to claim 1, wherein the image interpolation unit automatically recognizes a plurality of real image data selected from the image storage unit. An image interpolating apparatus further comprising: a characteristic unit associating unit for associating the characteristic units with each other among the plurality of real image data.
【請求項3】 請求項2記載の画像の補間処理装置であ
って、前記画像補間部は、 前記特徴部における画素値について前記時間情報を独立
変数とし、前記画素値をその従属変数とした補間を実行
して補間曲線を算出する補間手段と、 前記補間曲線を用いて前記指定した時間情報における画
素値を算出し、被撮像体の疑似画像を生成し出力する疑
似画像生成手段と、をさらに備える画像の補間処理装
置。
3. The image interpolation processing apparatus according to claim 2, wherein the image interpolator uses the time information as an independent variable for the pixel value in the characteristic part, and uses the pixel value as a dependent variable. And a pseudo-image generation unit that calculates a pixel value at the specified time information using the interpolation curve, and generates and outputs a pseudo image of the object. An image interpolation processing device.
【請求項4】 請求項1〜3の何れか1項に記載の画像
の補間処理装置であって、 前記時間情報に相応する代替画像を格納した代替画像記
憶部と、 前記代替画像記憶部を参照して前記指定した時間情報に
相応する代替画像を検索し、前記疑似画像生成手段で生
成した擬似画像に当該代替画像を適用する画像合成手段
と、をさらに備える画像の補間処理装置。
4. The image interpolation processing apparatus according to claim 1, wherein: a substitute image storage unit storing a substitute image corresponding to the time information; and An image synthesizing unit further comprising: an image synthesizing unit that searches for a substitute image corresponding to the designated time information by referring to the substitute image, and applies the substitute image to the pseudo image generated by the pseudo image generating unit.
【請求項5】 被撮像体の複数の実画像データを用いて
当該被撮像体の疑似画像を生成する画像の補間処理方法
であって、(a)撮像時間の異なる同一の被撮像体の実
画像データを複数記録するステップと、(b)前記ステ
ップ(a)で記録された実画像データに基づき、指定し
た時間情報における疑似画像データを補間で算出するス
テップと、を備えることを特徴とする画像の補間処理方
法。
5. An image interpolation method for generating a pseudo image of a subject using a plurality of real image data of the subject, comprising: (a) realization of the same subject having different imaging times; Recording a plurality of image data; and (b) calculating, by interpolation, pseudo image data at specified time information based on the actual image data recorded in the step (a). Image interpolation processing method.
【請求項6】 請求項5記載の画像の補間処理方法であ
って、前記ステップ(b)は、(b−1)前記実画像デ
ータの特徴部を自動認識するステップと、(b−2)前
記特徴部を複数の前記実画像データ間で相互に対応付け
するステップと、をさらに備える画像の補間処理方法。
6. The image interpolation processing method according to claim 5, wherein the step (b) comprises: (b-1) automatically recognizing a characteristic portion of the real image data; and (b-2). Associating the features with each other among a plurality of the real image data.
【請求項7】 請求項6記載の画像の補間処理方法であ
って、前記ステップ(b)は、(b−3)前記特徴部に
おける画素値について前記時間情報を独立変数とし、前
記画素値をその従属変数とした補間を実行して補間曲線
を算出するステップと、(b−4)前記補間曲線を用い
て前記指定した時間情報における画素値を算出し、被撮
像体の疑似画像を生成するステップと、をさらに備える
画像の補間処理方法。
7. The image interpolation processing method according to claim 6, wherein the step (b) comprises: (b-3) making the time information an independent variable with respect to a pixel value in the characteristic portion; (B-4) calculating a pixel value at the specified time information using the interpolation curve to generate a pseudo image of the object to be captured; And an image interpolation processing method further comprising:
【請求項8】 請求項5〜7の何れか1項に記載の画像
の補間処理方法であって、前記ステップ(b)の後に、
(c)前記ステップ(b)で生成された疑似画像データ
に、前記時間情報に相応する代替画像を適用するステッ
プ、をさらに備える画像の補間処理方法。
8. The image interpolation processing method according to claim 5, wherein after the step (b),
(C) applying an alternative image corresponding to the time information to the pseudo image data generated in the step (b).
【請求項9】 複数の実音波形データを用いて当該音源
の疑似音を生成する音の補間処理装置であって、時間を
隔てた複数の時間帯に同一音源から取得した複数の実音
波形データを格納する実音波形記憶部と、 前記実音波形記憶部から選択した複数の実音波形データ
に基づき、指定した時間情報における疑似音波形データ
を補間で算出する実音波形補間部と、を備えることを特
徴とする音の補間処理装置。
9. A sound interpolation processing apparatus for generating a pseudo sound of a sound source using a plurality of real sound waveform data, wherein the plurality of real sound waveform data acquired from the same sound source in a plurality of time zones separated by time is provided. An actual sound waveform storage unit to be stored, and based on a plurality of actual sound waveform data selected from the actual sound waveform storage unit, an actual sound waveform interpolation unit that calculates pseudo sound waveform data at specified time information by interpolation, Sound interpolation processing device.
【請求項10】 請求項9記載の音の補間処理装置であ
って、前記実音波形補間部は、前記実音波形記憶部から
選択した実音波形データを重み付け平均し、前記指定し
た時間情報における疑似音波形データを算出してなる音
の補間処理装置。
10. The sound interpolation processing apparatus according to claim 9, wherein the actual sound waveform interpolation unit weights and averages the actual sound waveform data selected from the actual sound waveform storage unit, and generates a pseudo sound wave in the designated time information. A sound interpolation processing device that calculates shape data.
【請求項11】 請求項9記載の音の補間処理装置であ
って、前記実音波形補間部は、前記実音波形記憶部から
選択した実音波形データの時間情報を独立変数とし、当
該実音波形の強さをその従属変数とした補間を実行して
補間曲線を算出し、 前記補間曲線を用いて前記指定した時間情報における疑
似音波形データを算出する疑似音生成手段をさらに備え
る音の補間処理装置。
11. The sound interpolation processing apparatus according to claim 9, wherein the actual sound waveform interpolator uses time information of the actual sound waveform data selected from the actual sound waveform storage unit as an independent variable, and obtains the strength of the actual sound waveform. A sound interpolation processing apparatus further comprising: a pseudo sound generation unit that calculates an interpolation curve by performing interpolation using the interpolation variable as a dependent variable, and calculates pseudo sound waveform data at the specified time information using the interpolation curve.
【請求項12】 請求項9記載の音の補間処理装置であ
って、前記実音波形補間部は、 前記実音波形記憶部から選択した実音波形データの周波
数特性分布を算出する周波数特性分布算出手段と、 前記周波数特性分布から周波数強調成分である特徴成分
を抽出する特徴成分抽出手段と、 複数の前記特徴成分を補間して前記指定した時間情報に
おける擬似的な特徴成分を算出する特徴成分補間手段
と、 前記特徴成分を除いた実音波形データを生成し出力する
特徴成分除去手段と、 前記特徴成分除去手段から出力された実音波形データに
前記疑似的な特徴成分を付加して前記疑似音波形データ
を出力する特徴成分付加手段と、を備えてなる音の補間
処理装置。
12. The sound interpolation processing apparatus according to claim 9, wherein the actual sound waveform interpolation unit calculates a frequency characteristic distribution of the actual sound waveform data selected from the actual sound waveform storage unit. A feature component extraction unit that extracts a feature component that is a frequency emphasis component from the frequency characteristic distribution, and a feature component interpolation unit that interpolates a plurality of the feature components to calculate a pseudo feature component in the designated time information. A feature component removing unit that generates and outputs real sound waveform data excluding the feature component; and adding the pseudo feature component to the real sound waveform data output from the feature component removing unit to generate the pseudo sound waveform data. And a feature component adding means for outputting.
【請求項13】 請求項12記載の音の補間処理装置で
あって、前記特徴成分を補正する補正データを格納する
補正データ記憶部をさらに備え、 前記特徴成分補間手段は、前記補正規則記憶部を参照し
て当該音源の音質に相応する補正データを取得し、当該
補正データに則って前記特徴成分を補正する音の補間処
理装置。
13. The sound interpolation processing device according to claim 12, further comprising: a correction data storage unit that stores correction data for correcting the characteristic component, wherein the characteristic component interpolation unit stores the correction rule. , A correction data corresponding to the sound quality of the sound source, and a sound interpolation processing device for correcting the characteristic component based on the correction data.
【請求項14】 請求項9〜13の何れか1項に記載の
音の補間処理装置であって、請求項1〜4の何れか1項
に記載の画像の補間処理装置で生成した疑似画像に前記
擬音波形データを同期させる機能を備える音の補間処理
装置。
14. A sound interpolation processing apparatus according to claim 9, wherein the pseudo-image is generated by the image interpolation processing apparatus according to any one of claims 1 to 4. A sound interpolation processing device having a function of synchronizing the pseudo-sound waveform data.
【請求項15】 音源から取得した複数の実音波形デー
タを用いて当該音源の疑似音を生成する音の補間処理方
法であって、(d)複数の時間帯に同一音源から取得し
た複数の実音波形データを記録するステップと、(e)
前記ステップ(d)で記録された実音波形データに基づ
き、指定した時間情報における疑似音波形データを補間
で算出するステップと、を備えることを特徴とする音の
補間処理方法。
15. A sound interpolation method for generating a pseudo sound of a sound source using a plurality of real sound waveform data obtained from a sound source, wherein (d) a plurality of real sounds obtained from the same sound source in a plurality of time zones. Recording waveform data; (e)
Calculating the pseudo sound waveform data at the designated time information by interpolation based on the actual sound wave data recorded in the step (d).
【請求項16】 請求項15記載の音の補間処理方法で
あって、前記ステップ(e)において、前記ステップ
(d)で記録された実音波形データを重み付け平均し、
前記指定した時間情報における疑似音波形データを補間
で算出する音の補間処理方法。
16. The sound interpolation processing method according to claim 15, wherein, in the step (e), the actual sound waveform data recorded in the step (d) is weighted and averaged.
A sound interpolation method for calculating pseudo sound waveform data at the designated time information by interpolation.
【請求項17】 請求項15記載の音の補間処理方法で
あって、前記ステップ(e)は、(e−1)前記実音波
形データの時間情報を独立変数とし、当該実音波形の強
さをその従属変数とした補間を実行して補間曲線を算出
するステップと、(e−2)前記補間曲線を用いて前記
指定した時間情報における疑似音波形データを算出する
ステップと、をさらに備える音の補間処理方法。
17. The sound interpolation processing method according to claim 15, wherein in the step (e), (e-1) the time information of the actual sound waveform data is set as an independent variable, and the intensity of the actual sound waveform is determined. Performing interpolation using the dependent variable to calculate an interpolation curve; and (e-2) calculating pseudo sound waveform data at the designated time information using the interpolation curve. Interpolation processing method.
【請求項18】 請求項15記載の音の補間処理方法で
あって、前記ステップ(e)は、(e−3)前記実音波
形データの周波数特性分布を算出するステップと、(e
−4)前記周波数特性分布から周波数強調成分である特
徴成分を抽出するステップと、(e−5)前記複数の特
徴成分を補間して前記指定した時間情報における擬似的
な特徴成分を算出するステップと、(e−6)前記特徴
成分を除いた実音波形データを生成し出力するステップ
と、(e−7)前記ステップ(e−6)で出力された実
音波形データに、前記ステップ(e−5)で算出された
擬似的な特徴成分を付加して前記疑似音波形データを算
出するステップと、をさらに備える音の補間処理方法。
18. The sound interpolation method according to claim 15, wherein said step (e) comprises: (e-3) calculating a frequency characteristic distribution of said actual sound waveform data;
-4) extracting a feature component that is a frequency emphasis component from the frequency characteristic distribution, and (e-5) calculating a pseudo feature component in the designated time information by interpolating the plurality of feature components. (E-6) generating and outputting actual sound waveform data excluding the characteristic component; and (e-7) adding the actual sound waveform data output in step (e-6) to the step (e- 5) calculating the pseudo sound waveform data by adding the pseudo feature component calculated in 5).
【請求項19】 請求項18記載の音の補間処理方法で
あって、(f)前記ステップ(e−4)または(e−
7)の特徴成分を、当該音源の音質に相応する補正デー
タに則って補正するステップ、をさらに備える音の補間
処理方法。
19. The sound interpolation method according to claim 18, wherein (f) said step (e-4) or (e-
And 7) correcting the characteristic component according to correction data corresponding to the sound quality of the sound source.
【請求項20】 請求項15〜19の何れか1項に記載
の音の補間処理方法であって、請求項5〜8の何れか1
項に記載の画像の補間処理方法で生成した疑似画像に前
記疑似音波形データを同期させる音の補間処理方法。
20. The sound interpolation processing method according to claim 15, wherein the sound interpolation processing method comprises the steps of:
A sound interpolation processing method for synchronizing the pseudo sound waveform data with a pseudo image generated by the image interpolation processing method described in the section.
JP2000279864A 2000-09-14 2000-09-14 Picture and sound interpolation processor and its method Pending JP2002094881A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000279864A JP2002094881A (en) 2000-09-14 2000-09-14 Picture and sound interpolation processor and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000279864A JP2002094881A (en) 2000-09-14 2000-09-14 Picture and sound interpolation processor and its method

Publications (1)

Publication Number Publication Date
JP2002094881A true JP2002094881A (en) 2002-03-29

Family

ID=18764805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000279864A Pending JP2002094881A (en) 2000-09-14 2000-09-14 Picture and sound interpolation processor and its method

Country Status (1)

Country Link
JP (1) JP2002094881A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178052A (en) * 2004-12-21 2006-07-06 Advanced Telecommunication Research Institute International Voice generator and computer program therefor
JP2006330136A (en) * 2005-05-24 2006-12-07 Advanced Telecommunication Research Institute International Expression attachment speech generator
JP2007219230A (en) * 2006-02-17 2007-08-30 Kyushu Univ Medium concealment apparatus
JP2008116551A (en) * 2006-11-01 2008-05-22 Advanced Telecommunication Research Institute International Expression attaching voice generator
JP2008541656A (en) * 2005-05-25 2008-11-20 ソニー エリクソン モバイル コミュニケーションズ, エービー Method, system and computer program for displaying video content over time

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006178052A (en) * 2004-12-21 2006-07-06 Advanced Telecommunication Research Institute International Voice generator and computer program therefor
JP4720974B2 (en) * 2004-12-21 2011-07-13 株式会社国際電気通信基礎技術研究所 Audio generator and computer program therefor
JP2006330136A (en) * 2005-05-24 2006-12-07 Advanced Telecommunication Research Institute International Expression attachment speech generator
JP4677543B2 (en) * 2005-05-24 2011-04-27 株式会社国際電気通信基礎技術研究所 Facial expression voice generator
JP2008541656A (en) * 2005-05-25 2008-11-20 ソニー エリクソン モバイル コミュニケーションズ, エービー Method, system and computer program for displaying video content over time
US7945866B2 (en) 2005-05-25 2011-05-17 Sony Ericsson Mobile Communications Ab Methods, systems and computer program products for displaying video content with aging
JP4927826B2 (en) * 2005-05-25 2012-05-09 ソニー エリクソン モバイル コミュニケーションズ, エービー Method, system and computer program for displaying video content over time
JP2007219230A (en) * 2006-02-17 2007-08-30 Kyushu Univ Medium concealment apparatus
JP2008116551A (en) * 2006-11-01 2008-05-22 Advanced Telecommunication Research Institute International Expression attaching voice generator

Similar Documents

Publication Publication Date Title
US11410637B2 (en) Voice synthesis method, voice synthesis device, and storage medium
JP5275612B2 (en) Periodic signal processing method, periodic signal conversion method, periodic signal processing apparatus, and periodic signal analysis method
JP3266819B2 (en) Periodic signal conversion method, sound conversion method, and signal analysis method
CA2375350C (en) Method of animating a synthesised model of a human face driven by an acoustic signal
JP3975772B2 (en) Waveform generating apparatus and method
CN108053814B (en) Speech synthesis system and method for simulating singing voice of user
CN108766408A (en) A kind of electronic musical instrument ensemble system and method
CN108766409A (en) A kind of opera synthetic method, device and computer readable storage medium
WO2020171033A1 (en) Sound signal synthesis method, generative model training method, sound signal synthesis system, and program
GB2422755A (en) Audio signal processing
Chien et al. Evaluation of glottal inverse filtering algorithms using a physiologically based articulatory speech synthesizer
CN108810436A (en) A kind of video recording method and system based on the He Zou of full-automatic musical instrument
CN116801043A (en) Video synthesis method, related device and storage medium
JP2002094881A (en) Picture and sound interpolation processor and its method
JP2018077283A (en) Speech synthesis method
JP2798003B2 (en) Voice band expansion device and voice band expansion method
CN114845160B (en) Voice-driven video processing method, related device and storage medium
TW201027514A (en) Singing synthesis systems and related synthesis methods
WO2024087337A1 (en) Method for directly synthesizing speech from tongue ultrasonic images
JP2006243215A (en) Data generating device for articulatory parameter interpolation, speech synthesizing device, and computer program
KR20070094207A (en) Method and apparatus for converting image into sound
CN113241054A (en) Speech smoothing model generation method, speech smoothing method and device
CN117115318B (en) Method and device for synthesizing mouth-shaped animation and electronic equipment
Maestre Analysis/synthesis of bowing control applied to violin sound rendering via physical models
JP2005134685A (en) Vocal tract shaped parameter estimation device, speech synthesis device and computer program