JPH04240900A - Speech converter - Google Patents

Speech converter

Info

Publication number
JPH04240900A
JPH04240900A JP3025496A JP2549691A JPH04240900A JP H04240900 A JPH04240900 A JP H04240900A JP 3025496 A JP3025496 A JP 3025496A JP 2549691 A JP2549691 A JP 2549691A JP H04240900 A JPH04240900 A JP H04240900A
Authority
JP
Japan
Prior art keywords
voice
parameter
input
feature analysis
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3025496A
Other languages
Japanese (ja)
Inventor
Akira Sakamoto
明 坂本
Taro Nakagami
仲上 太郎
Kazuki Sakai
和樹 酒井
Tetsunori Itabashi
徹徳 板橋
Kenji Nakano
健司 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP3025496A priority Critical patent/JPH04240900A/en
Publication of JPH04240900A publication Critical patent/JPH04240900A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To convert an input voice into the voice of a character by a converter of simple constitution in a video system wherein a person who view a drama stands in for the characteristic of the drama. CONSTITUTION:The voice of a specific speaker is stored in a parameter A storage part 1 in advance. A voice analysis part 7 analyzes the voice parameter B of a voice inputted from an input terminal 5. A matching decision part 4 compares the parameters A and voice parameter B with each other. The time base is so adjusted according to the comparison result and a voice is synthesized by a voice synthesis part 3 by using the parameter A.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】この発明は、特に、ドラマの登場
人物の吹替えを行なえるビデオシステムに用いて好適な
音声変換装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention particularly relates to a voice conversion device suitable for use in a video system capable of dubbing characters appearing in dramas.

【0002】0002

【従来の技術】ドラマの登場人物のセリフを、その登場
人物を演じている役者になり代わり、ドラマを見ている
人が自由に吹替えられ、ドラマに参加する楽しみを味わ
えるようにしたビデオシステムが考えられている。すな
わち、このようなビデオシステムでは、例えば所定の登
場人物のセリフの場面で、その登場人物を演じている役
者の音声がミュートされると共に、この時のセリフがテ
ロップで表示される。このテロップを見ながら、ドラマ
を見ている人がそのセリフを入力すると、入力された音
声に基づいて、登場人物のセリフが出力される。このよ
うな機能を有するビデオシステムでは、ドラマを見てい
る人がドラマに積極的に参加する楽しみを味わうことが
できる。
[Prior Art] There is a video system in which the lines of the characters in a drama are dubbed in place of the actors playing the characters, so that people watching the drama can freely dub the lines and enjoy the fun of participating in the drama. It is considered. That is, in such a video system, for example, in a scene where a predetermined character is speaking, the voice of the actor playing the character is muted, and the dialogue at that time is displayed as a telop. When a person watching the drama enters the lines while looking at this caption, the character's lines are output based on the input audio. In a video system having such a function, people watching a drama can enjoy the pleasure of actively participating in the drama.

【0003】このようなビデオシステムでは、入力した
セリフの声が登場人物の音声に応じた音質に変換される
ことが望まれる。つまり、例えば男性が女性の登場人物
の吹替えを行う時には、女性の声に変換されて吹替えが
行われ、女性が男性の登場人物の吹替えを行う時には、
男性の声に変換されて吹替えが行われることが望まれる
。更に、入力したセリフの声が、登場人物の声と略同じ
声質に変換されれば、ドラマの登場人物になりきった気
分を味わうことができる。そこで、このようなビデオシ
ステムに、音声変換器を搭載することが考えられる。
[0003] In such a video system, it is desired that the voice of the input dialogue be converted into a sound quality that corresponds to the voice of the character. In other words, for example, when a man dubs a female character, the voice is converted into a female voice, and when a woman dubs a male character,
It is hoped that the voice will be converted into a male voice and dubbed. Furthermore, if the voice of the input dialogue is converted into a voice quality that is approximately the same as the character's voice, the user can enjoy the feeling of becoming a character in the drama. Therefore, it is conceivable to incorporate an audio converter into such a video system.

【0004】男性の声を女性の声に変換したり、女性の
声を男性の声に変換したりする音声変換器としては、従
来、入力された音声をメモリに書込み、このメモリに蓄
えられた音声を、変換する声の高さに応じた速度で読み
出すようにしたものが知られている。
[0004] Conventionally, voice converters that convert a male voice into a female voice or a female voice into a male voice write the inputted voice to a memory and store the voice in this memory. A device is known in which audio is read out at a speed that corresponds to the pitch of the voice being converted.

【0005】つまり、図6は、従来の音声変換器の一例
である。図6において、入力端子51に音声信号が供給
される。この音声信号がA/Dコンバータ52でディジ
タル化され、メモリ53に供給される。メモリ53には
、アドレス発生回路54から書込みアドレスAW が供
給される。このアドレス発生回路54には、書込みクロ
ックWCKが供給される。入力音声信号は、この書込み
クロックWCKの速度でメモリ53に蓄えられる。また
、メモリ53には、アドレス発生回路55から読み出し
アドレスAR が供給される。アドレス発生回路55に
は、読み出しクロックRCKが供給される。メモリ53
に蓄えられた音声信号は、この読み出しクロックRCK
の速度で読み出される。メモリ53から読み出された音
声信号は、D/Aコンバータ56を介して出力端子57
から出力される。図6に示すような音声変換器では、書
込みクロックWCKの速度に比べて読み出しクロックR
CKの速度を速くすれば、入力された音声を高音に変換
することができ、書込みクロックWCKの速度に比べて
読み出しクロックRCKの速度を遅くすれば、入力され
た音声を低音に変換することができる。したがって、男
性の声を女性の声に近づけたり、女性の声を男性の声に
近づけたりすることが可能である。
That is, FIG. 6 is an example of a conventional audio converter. In FIG. 6, an audio signal is supplied to the input terminal 51. This audio signal is digitized by the A/D converter 52 and supplied to the memory 53. A write address AW is supplied to the memory 53 from an address generation circuit 54. This address generation circuit 54 is supplied with a write clock WCK. The input audio signal is stored in the memory 53 at the speed of this write clock WCK. Further, the memory 53 is supplied with a read address AR from an address generation circuit 55. The address generation circuit 55 is supplied with a read clock RCK. memory 53
The audio signal stored in the readout clock RCK
is read at a speed of The audio signal read from the memory 53 is sent to the output terminal 57 via the D/A converter 56.
is output from. In the audio converter as shown in FIG. 6, the read clock R is faster than the write clock WCK.
If the speed of CK is made faster, the input audio can be converted to high-pitched sounds, and if the speed of read clock RCK is slower than the speed of write clock WCK, the input audio can be converted to low-pitched sounds. can. Therefore, it is possible to make a male voice closer to a female voice, or to make a female voice closer to a male voice.

【0006】[0006]

【発明が解決しようとする課題】ところが、上述の音声
変換器は、周波数軸上の全ての成分の高さを定比率で変
換するものであるため、入力されたセリフの声を登場人
物の声と同じ声質に変換することは不可能である。また
、上述の音声変換器では、変換された声が不自然になる
という問題がある。
[Problem to be solved by the invention] However, since the above-mentioned audio converter converts the height of all components on the frequency axis at a fixed ratio, it is difficult to convert the voice of the input dialogue into the voice of the character. It is impossible to convert to the same voice quality. Furthermore, the above-mentioned voice converter has a problem in that the converted voice becomes unnatural.

【0007】また、入力された声の特徴を判別し、この
声から対応する登場人物の声を合成して出力させること
が考えられる。ところが、このような処理は複雑であり
、実現が難しい。また、このような処理を行う音声変換
器が実現できても、このような音声変換器は、回路規模
が増大すると共に、コストアップになる。
[0007] It is also conceivable to determine the characteristics of the input voice, synthesize the voice of the corresponding character from this voice, and output the synthesized voice. However, such processing is complex and difficult to implement. Further, even if an audio converter that performs such processing can be realized, such an audio converter will increase the circuit scale and cost.

【0008】したがって、この発明の目的は、簡単な構
成で、入力された声を登場人物の声と同じ声に変換でき
る音声変換装置を提供することにある。
[0008] Accordingly, an object of the present invention is to provide a voice converting device that can convert an input voice into the same voice as a character's voice with a simple configuration.

【0009】[0009]

【課題を解決するための手段】この発明は、予め特定話
者の音声情報を音声分析し、特定話者の音声情報及び特
定話者の音声パラメータを記録しておき、入力された音
声情報を音声分析し、入力された音声の音声パラメータ
と特定話者の音声パラメータとを比較し、少なくとも時
間軸を入力された音声情報の時間軸に合わせて、特定話
者の音声パラメータに応じて音声を出力させるようにし
た音声変換装置である。
[Means for Solving the Problems] This invention analyzes the voice information of a specific speaker in advance, records the voice information of the specific speaker and the voice parameters of the specific speaker, and analyzes the input voice information. Analyze the voice, compare the voice parameters of the input voice with the voice parameters of a specific speaker, and adjust the time axis at least to the time axis of the input voice information to adjust the voice according to the voice parameters of the specific speaker. This is a voice conversion device that outputs.

【0010】0010

【作用】このようなビデオシステムで用いる音声変換で
は、音声変換の条件が以下のように特定されている。 (a).セリフが予め決められている。 (b).登場人物の声に変換するのであるから、変換後
の声の特徴が予め分かっている。
[Operation] In the audio conversion used in such a video system, the conditions for audio conversion are specified as follows. (a). The lines are predetermined. (b). Since the voice is converted into the voice of a character, the characteristics of the voice after conversion are known in advance.

【0011】このことから、登場人物の音声の音声特徴
分析パラメータAを予めパラメータ記憶部1に蓄えてお
き、予めパラメータ記憶部1に蓄えられている音声特徴
分析パラメータAと、入力された声の音声特徴パラメー
タBとのマッチングを判断し、入力された声と時間軸が
合うように、パラメータ記憶部1に蓄えられている音声
特徴分析パラメータAから音声を合成することで、恰も
、この声が登場人物の声に変換されたような音声出力が
得られる。
[0011] From this, the voice feature analysis parameter A of the voice of the character is stored in the parameter storage section 1 in advance, and the voice feature analysis parameter A stored in the parameter storage section 1 in advance is combined with the voice feature analysis parameter A of the input voice. By determining the matching with the voice feature parameter B and synthesizing the voice from the voice feature analysis parameters A stored in the parameter storage unit 1 so that the time axis matches the input voice, this voice can be You can obtain audio output that sounds like it has been converted into the voice of a character.

【0012】0012

【実施例】以下、この発明の一実施例について図面を参
照して説明する。図1は、この発明の一実施例を示すも
のである。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows an embodiment of the invention.

【0013】図1において、1はパラメータ記憶部であ
る。パラメータ記憶部1には、予め、ドラマの登場の人
物のセリフの声の時系列の音声特徴分析パラメータA(
図3)が格納されている。この音声特徴分析パラメータ
Aは、例えば、線形予測分析法(LPC)を用いてフレ
ーム周期で分析して求められる。音声特徴分析パラメー
タAのうち、マッチングし易い部分、例えば、複数フレ
ームにまたがる各有声音韻に対して夫々安定なフレーム
に、図3に示すように、マークMが付される。なお、こ
のパラメータ記憶部1は、例えばビデオディスクの所定
の領域に用意することができる。
In FIG. 1, 1 is a parameter storage section. The parameter storage unit 1 stores in advance a time-series voice feature analysis parameter A (
Figure 3) is stored. This voice feature analysis parameter A is obtained by analyzing the frame period using, for example, linear predictive analysis (LPC). As shown in FIG. 3, marks M are attached to portions of the speech feature analysis parameters A that are easy to match, for example, frames that are stable for each voiced phoneme spanning multiple frames. Note that this parameter storage section 1 can be prepared, for example, in a predetermined area of a video disc.

【0014】つまり、このようなシステムにおけるビデ
オディスクの作成時に、図2に示すように、入力端子2
1に予め登場人物のセリフが音声信号として入力される
。この音声信号がA/Dコンバータ22を介して音声分
析部23に供給される。音声分析部23により、LPC
を用いて音声特徴分析パラメータAが求められる。この
音声特徴分析パラメータAがビデオディスクの所定領域
にあるパラメータ記憶部1に予め記録される。
That is, when creating a video disc in such a system, as shown in FIG.
1, the characters' lines are input in advance as audio signals. This audio signal is supplied to the audio analysis section 23 via the A/D converter 22. The voice analysis unit 23 performs LPC
The speech feature analysis parameter A is determined using the following. This audio feature analysis parameter A is recorded in advance in the parameter storage section 1 in a predetermined area of the video disc.

【0015】なお、この音声特徴分析パラメータAは、
マッチングがとりやすいように、必要に応じて変更する
ようにしても良い。
[0015] This speech feature analysis parameter A is
It may be changed as necessary to facilitate matching.

【0016】図1において、音声変換を行う場合には、
パラメータ記憶部1からの音声特徴分析パラメータAが
音声合成部3に供給されると共に、マッチング判定部4
に供給される。
In FIG. 1, when performing voice conversion,
The speech feature analysis parameter A from the parameter storage section 1 is supplied to the speech synthesis section 3, and the matching judgment section 4
supplied to

【0017】そして、入力端子5に、再生画面に見なが
ら、セリフの音声が入力される。この音声信号がA/D
コンバータ6を介して音声分析部7に供給される。音声
分析部7は、入力された話者の音声特徴分析パラメータ
Bを、前述のLPCを用いて分析するものである。
Then, the voice of the dialogue is input to the input terminal 5 while being viewed on the playback screen. This audio signal is A/D
The signal is supplied to the speech analysis section 7 via the converter 6. The speech analysis section 7 analyzes the input speaker's speech feature analysis parameter B using the aforementioned LPC.

【0018】パラメータ記憶部1からの音声特徴分析パ
ラメータAと、音声分析部7からの音声特徴分析パラメ
ータBとがマッチング判定部4に供給される。マッチン
グ判定部4は、音声特徴分析パラメータAのうちマーク
Mが付されたフレームの先頭から1フレーム(図3参照
)若しくは2フレーム分の情報と、音声特徴分析パラメ
ータBの情報とを比較し、音声特徴分析パラメータBの
情報が音声特徴分析パラメータAのマーカMの位置に「
未通過」、「通過中」、「通過後」の判断を行うもので
ある。予め蓄えられている音声特徴分析パラメータAと
、入力された音声から分析された音声特徴分析パラメー
タBとは、同じセリフであるから、このように、「未通
過」、「通過中」、「通過後」の判断を容易に行うこと
ができる。
The speech feature analysis parameter A from the parameter storage section 1 and the speech feature analysis parameter B from the speech analysis section 7 are supplied to the matching determination section 4 . The matching determination unit 4 compares the information of one frame (see FIG. 3) or two frames from the beginning of the frame marked with the mark M among the audio feature analysis parameters A with the information of the audio feature analysis parameters B, The information of voice feature analysis parameter B is placed at the position of marker M of voice feature analysis parameter A with "
It determines whether the vehicle has passed, whether it has passed, whether it has passed, whether it has passed, or whether it has passed. Since the voice feature analysis parameter A stored in advance and the voice feature analysis parameter B analyzed from the input voice are the same lines, they can be interpreted as "not passed,""passing," or "passing." It is possible to easily make a judgment regarding "after".

【0019】マッチング判定部4の判定出力が調整部5
に供給される。調整部9は、入力された音声の時間軸に
基づき、出力される音声の時間軸を調整するものである
。また、調整部9で、入力された音声のアクセント、イ
ントネーション等に基づき、パラメータ記憶部1の音声
特徴分析パラメータAが変更される。
The judgment output of the matching judgment section 4 is transmitted to the adjustment section 5.
supplied to The adjustment unit 9 adjusts the time axis of the output audio based on the time axis of the input audio. Further, the adjustment unit 9 changes the voice feature analysis parameter A in the parameter storage unit 1 based on the accent, intonation, etc. of the input voice.

【0020】パラメータ記憶部1からの音声特徴分析パ
ラメータAが音声合成部3に送られ、音声合成部3によ
り、調整部5の出力に応じて、時間軸が圧縮又は伸長さ
れながら、音声が合成される。この合成された音声がD
/Aコンバータ8を介して、出力端子9から出力される
The speech feature analysis parameter A from the parameter storage section 1 is sent to the speech synthesis section 3, and the speech synthesis section 3 synthesizes speech while compressing or expanding the time axis according to the output of the adjustment section 5. be done. This synthesized voice is D
/A converter 8 and is output from output terminal 9.

【0021】このように、この発明の一実施例では、入
力端子5に声が入力されると、予めパラメータ記憶部1
に蓄えられている音声特徴分析パラメータAと、入力さ
れた声の音声特徴パラメータBとのマッチングが判断さ
れ、入力された声と時間軸が合うように、パラメータ記
憶部1に蓄えられている音声特徴分析パラメータAから
音声が合成される。したがって、入力端子5に声が入力
されると、恰も、この声が変換されたような音声が出力
端子12から得られる。そして、入力された声のアクセ
ント、イントネーション等に基づき、パラメータ記憶部
1の音声特徴分析パラメータAを変更されるので、入力
された声の調子を、変換後の音声に保持することができ
る。
As described above, in one embodiment of the present invention, when a voice is input to the input terminal 5, the parameter storage section 1
The voice feature analysis parameter A stored in the parameter storage unit 1 is matched with the voice feature parameter B of the input voice. Speech is synthesized from the feature analysis parameters A. Therefore, when a voice is input to the input terminal 5, the output terminal 12 outputs a voice that appears to be a converted voice. Then, the voice feature analysis parameter A in the parameter storage section 1 is changed based on the accent, intonation, etc. of the input voice, so that the tone of the input voice can be retained in the converted voice.

【0022】時間軸の圧縮・伸長を行うには、以下のよ
うな方法が考えられる。 (a).図4Aに示すように、音声特徴分析パラメータ
A中の同一フレーム(図4AではフレームF2を繰り返
している)を繰り返すことにより時間軸が伸長され、図
4Bに示すように、音声特徴分析パラメータA中のフレ
ームを間引く(図4BではフレームF2を間引いている
)ことにより、時間軸が圧縮される。 (b).図5に示すように、音声特徴分析パラメータA
中のフレームの間に補間フレーム(図5ではフレームF
1とフレームF2との間にフレームF2aを補間する)
を設けることにより、時間軸が伸長される。 (c).音声特徴分析パラメータA中のフレーム周期の
速度を可変させることにより、時間軸が伸長或いは圧縮
される。
The following methods can be considered for compressing and expanding the time axis. (a). As shown in FIG. 4A, the time axis is extended by repeating the same frame in the voice feature analysis parameter A (frame F2 is repeated in FIG. 4A), and as shown in FIG. 4B, the time axis is extended in the voice feature analysis parameter A. By thinning out the frames (frame F2 is thinned out in FIG. 4B), the time axis is compressed. (b). As shown in FIG. 5, the voice feature analysis parameter A
An interpolated frame (frame F in Figure 5) is inserted between the frames in
1 and frame F2)
By providing , the time axis is extended. (c). By varying the speed of the frame period in the audio feature analysis parameter A, the time axis is expanded or compressed.

【0023】[0023]

【発明の効果】この発明によれば、登場人物の音声の音
声特徴分析パラメータAが予め蓄えられ、入力端子5に
声が入力されると、予めパラメータ記憶部1に蓄えられ
ている音声特徴分析パラメータAと、入力された声の音
声特徴パラメータBとのマッチングが判断され、入力さ
れた声と時間軸が合うように、パラメータ記憶部1に蓄
えられている音声特徴分析パラメータAから音声が合成
される。したがって、入力端子5に声が入力されると、
恰も、この声が登場人物の声に変換されたような音声出
力が得られる。
According to the present invention, the voice characteristic analysis parameter A of the voice of the character is stored in advance, and when the voice is input to the input terminal 5, the voice characteristic analysis parameter A stored in the parameter storage section 1 in advance is stored. Matching between parameter A and voice feature parameter B of the input voice is determined, and voice is synthesized from the voice feature analysis parameter A stored in the parameter storage unit 1 so that the time axis matches the input voice. be done. Therefore, when voice is input to input terminal 5,
The result is an audio output that sounds like this voice has been converted into the character's voice.

【0024】そして、この発明によれば、複雑な音声信
号処理や演算を必要としないので、構成が複雑にならず
、コストアップにならない。
According to the present invention, complicated audio signal processing and calculations are not required, so the configuration does not become complicated and costs do not increase.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】この発明の一実施例のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】この発明の一実施例における音声特徴分析パラ
メータAの記憶の説明に用いるブロック図である。
FIG. 2 is a block diagram used to explain storage of voice feature analysis parameters A in an embodiment of the present invention.

【図3】この発明の一実施例の説明に用いる略線図であ
る。
FIG. 3 is a schematic diagram used to explain one embodiment of the present invention.

【図4】この発明の一実施例の説明に用いる略線図であ
る。
FIG. 4 is a schematic diagram used to explain one embodiment of the present invention.

【図5】この発明の一実施例の説明に用いる略線図であ
る。
FIG. 5 is a schematic diagram used to explain one embodiment of the present invention.

【図6】従来の音声変換器の一例のブロック図である。FIG. 6 is a block diagram of an example of a conventional audio converter.

【符号の説明】[Explanation of symbols]

1  パラメータ記憶部 4  マッチング判定部 3  音声合成部 5  調整部 7  音声分析部 1 Parameter storage section 4 Matching judgment section 3 Speech synthesis section 5 Adjustment section 7 Speech analysis section

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】予め特定話者の音声情報を音声分析し、上
記特定話者の音声情報及び上記特定話者の音声パラメー
タを記録しておき、入力された音声情報を音声分析し、
上記入力された音声の音声パラメータと上記特定話者の
音声パラメータとを比較し、少なくとも時間軸を上記入
力された音声情報の時間軸に合わせて、上記特定話者の
音声パラメータに応じて音声を出力させるようにした音
声変換装置。
Claim 1: Speech-analyzing the voice information of a specific speaker, recording the voice information of the specific speaker and the voice parameters of the specific speaker, and voice-analyzing the input voice information;
The voice parameters of the input voice are compared with the voice parameters of the specific speaker, and at least the time axis is aligned with the time axis of the input voice information, and the voice is adjusted according to the voice parameters of the specific speaker. A voice conversion device that outputs.
JP3025496A 1991-01-25 1991-01-25 Speech converter Pending JPH04240900A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3025496A JPH04240900A (en) 1991-01-25 1991-01-25 Speech converter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3025496A JPH04240900A (en) 1991-01-25 1991-01-25 Speech converter

Publications (1)

Publication Number Publication Date
JPH04240900A true JPH04240900A (en) 1992-08-28

Family

ID=12167675

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3025496A Pending JPH04240900A (en) 1991-01-25 1991-01-25 Speech converter

Country Status (1)

Country Link
JP (1) JPH04240900A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007192931A (en) * 2006-01-17 2007-08-02 Asahi Kasei Corp Voice pattern conversion/dubbing system, and program
KR100813947B1 (en) * 2001-09-08 2008-03-14 삼성전자주식회사 System for changing a name called in program for a name corresponding to requirement of user and method thereof
JP2009060326A (en) * 2007-08-31 2009-03-19 Sony Corp Photographing apparatus, photographing method, information processing apparatus, information processing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100813947B1 (en) * 2001-09-08 2008-03-14 삼성전자주식회사 System for changing a name called in program for a name corresponding to requirement of user and method thereof
JP2007192931A (en) * 2006-01-17 2007-08-02 Asahi Kasei Corp Voice pattern conversion/dubbing system, and program
JP2009060326A (en) * 2007-08-31 2009-03-19 Sony Corp Photographing apparatus, photographing method, information processing apparatus, information processing method and program
US8059167B2 (en) 2007-08-31 2011-11-15 Sony Corporation Shooting apparatus and shooting method, and program

Similar Documents

Publication Publication Date Title
US6226605B1 (en) Digital voice processing apparatus providing frequency characteristic processing and/or time scale expansion
US7925509B2 (en) Closed caption control apparatus and method therefor
KR950035447A (en) Video Signal Processing System Using Speech Analysis Automation and Its Method
JP2000511651A (en) Non-uniform time scaling of recorded audio signals
JP2011250100A (en) Image processing system and method, and program
GB2293741A (en) Speed-variable audio play-back apparatus
JPH10243351A (en) Video reproducing device
JPH04240900A (en) Speech converter
JPH11259081A (en) Singing score display karaoke device
JP2001184100A (en) Speaking speed converting device
JP7069386B1 (en) Audio converters, audio conversion methods, programs, and recording media
KR100251497B1 (en) Audio signal reproducing method and the apparatus
JP3426957B2 (en) Method and apparatus for supporting and displaying audio recording in video and recording medium recording this method
KR100359988B1 (en) real-time speaking rate conversion system
JP2000358202A (en) Video audio recording and reproducing device and method for generating and recording sub audio data for the device
JP2006154531A (en) Device, method, and program for speech speed conversion
JP2945047B2 (en) Teletext receiver
JPH08328575A (en) Voice synthesizer
JP2947184B2 (en) Karaoke system
JP2008244888A (en) Communication device, communication method, and program
JP2004071013A (en) Method, device and program for recording audio data with video
JP2709198B2 (en) Voice synthesis method
JPH10282996A (en) Speech reproducing device and method therefor
JPH1188844A (en) Speech speed/picture speed simultaneous conversion system, method therefor and storage medium recorded with speech speed/picture speed simultaneous conversion control program
JP2823673B2 (en) Video disc player