JPH0934483A - Method and device for voice output - Google Patents

Method and device for voice output

Info

Publication number
JPH0934483A
JPH0934483A JP7180129A JP18012995A JPH0934483A JP H0934483 A JPH0934483 A JP H0934483A JP 7180129 A JP7180129 A JP 7180129A JP 18012995 A JP18012995 A JP 18012995A JP H0934483 A JPH0934483 A JP H0934483A
Authority
JP
Japan
Prior art keywords
image
voice
area
volume
instruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7180129A
Other languages
Japanese (ja)
Other versions
JP3585190B2 (en
Inventor
Toshiyuki Noguchi
利之 野口
Yasunori Ohora
恭則 大洞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP18012995A priority Critical patent/JP3585190B2/en
Publication of JPH0934483A publication Critical patent/JPH0934483A/en
Application granted granted Critical
Publication of JP3585190B2 publication Critical patent/JP3585190B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide easy adjustability for the volume of voice output by furnishing a voice output means which outputs a voice having a volume corresponding to the area of image factors as part of a synthesized picture displayed. SOLUTION: An image database 4 stores a plurality of image factors, and a voice synthesizing means 6 synthesizes the image factors read out of the database 4. A display means 3 displays a synthesized picture obtained, and an input means 1 enters an instruction to change the area of image factors as part of the displayed image. A changing means changes the area based on the instruction, and a speaker 8 as a voice output means outputs a voice having a volume corresponding to the area of part of the picture factors. This configuration attains changing the area of part of the picture factors based on the given instruction, outputting the voice of volume corresponding to the changed area, and making the volume of the outputted voice in correspondence to the area of the image, so that the user is easy to understand the control of the volume to lead to achievement of easy controllability.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、グラフィカルユー
ザインタフェースを用いて音声出力の音量を制御する音
声出力装置および方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio output device and method for controlling the volume of audio output using a graphical user interface.

【0002】[0002]

【従来の技術】従来、コンピュータで音声を出力する場
合に、機械的なボリュームスイッチや、キーボードから
入力する音量調整コマンドや、画面に表示したスライド
バーなどにより、音量を調整している。
2. Description of the Related Art Conventionally, when outputting sound from a computer, the volume is adjusted by a mechanical volume switch, a volume adjustment command input from a keyboard, a slide bar displayed on the screen, or the like.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、機械的
なボリュームスイッチを設けるた場合は、装置の価格が
高くなる。音量調節コマンドを用いた場合は、操作者が
そのコマンドを覚えなくてはならない。スライドバーも
操作者に対して直感的でなく、特に小児にとっては、操
作方法が理解しにくいという課題があった。
However, when a mechanical volume switch is provided, the cost of the device increases. When using the volume control command, the operator must remember the command. The slide bar is also not intuitive to the operator, and there is a problem that the operation method is difficult to understand, especially for children.

【0004】そこで本発明は、このような課題を解決
し、音声出力の音量を容易に調整することのできる音声
出力装置および方法を提供することを目的とする。
SUMMARY OF THE INVENTION It is therefore an object of the present invention to solve the above problems and provide an audio output device and method capable of easily adjusting the volume of audio output.

【0005】[0005]

【課題を解決するための手段】このような目的を達成す
るために、請求項1に記載の発明は、複数の画像要素を
格納する画像データベースと、当該画像データベースか
ら読み出した前記画像要素を合成する手段と、合成して
得られたた合成画像を表示する手段と、表示された画像
の中の一部の画像要素の面積を変更する指示を入力する
入力手段と、前記指示に基づいて前記面積を変更する変
更手段と、前記一部の画像要素の面積に対応づけた音量
の音声を出力する音声出力手段とを備えたことを特徴と
する。
In order to achieve such an object, the invention described in claim 1 combines an image database storing a plurality of image elements with the image element read from the image database. Means, a means for displaying a composite image obtained by combining, an input means for inputting an instruction to change the area of a part of the image elements in the displayed image, and the above-mentioned means based on the instruction. It is characterized by comprising a changing means for changing the area and a sound outputting means for outputting a sound of a volume corresponding to the area of the part of the image elements.

【0006】請求項2に記載の発明は、前記画像データ
ベースは、前記一部の画像要素の、音量がゼロであるこ
とを示す第1の形態と、音量が最大であることを示す第
2の形態とを格納し、前記変更手段は、前記入力手段か
ら入力された指示に基づいて、前記第1の形態、前記第
2の形態、または前記第1及び第2の形態を補間して得
られた中間形態を表示することを特徴とする。
According to a second aspect of the present invention, the image database has a first form indicating that the volume of the part of the image elements is zero and a second form indicating that the volume is maximum. And a form is stored, and the change unit is obtained by interpolating the first form, the second form, or the first and second forms based on an instruction input from the input unit. It is characterized by displaying an intermediate form.

【0007】請求項3に記載の発明は、前記画像データ
ベースは前記一部の画像要素の複数の形態を格納し、前
記変更手段は、前記複数の形態から現在表示している形
態とは異なる形態を選択して表示することを特徴とす
る。
According to a third aspect of the present invention, the image database stores a plurality of forms of the part of the image elements, and the changing means is a form different from the form currently displayed from the plurality of forms. Is selected and displayed.

【0008】請求項4に記載の発明は、前記合成画像が
顔の画像であり、前記一部の画像要素が口の画像である
ことを特徴とする。
According to a fourth aspect of the invention, the composite image is a face image and the part of the image elements is a mouth image.

【0009】請求項5に記載の発明は、テキストデータ
を格納するテキスト保持手段と、前記テキスト保持手段
から読み出した前記テキストを音声に変換する変換手段
を更に備え、前記音声出力手段は、当該変換手段により
変換された音声を出力することを特徴とする。
According to a fifth aspect of the present invention, there is further provided text holding means for storing text data, and conversion means for converting the text read from the text holding means into voice, and the voice output means has the conversion. It is characterized in that the voice converted by the means is output.

【0010】請求項6に記載の発明は、複数の画像要素
を予め格納する画像データベースから読み出した、前記
複数の画像要素を合成する合成ステップと、合成して得
られた合成画像を表示する表示ステップと、表示した画
像の中の一部の画像要素の面積を変更する指示を入力す
る入力ステップと、前記指示に基づいて前記面積を変更
する変更ステップと、前記一部の画像要素の面積に対応
づけた音量の音声を出力する出力ステップとを備えたこ
とを特徴とする。
According to a sixth aspect of the present invention, a synthesizing step of synthesizing the plurality of image elements, which is read from an image database storing a plurality of image elements in advance, and a display for displaying a synthesized image obtained by the synthesizing. A step, an input step of inputting an instruction to change the area of some image elements in the displayed image, a changing step of changing the area based on the instruction, and an area of some of the image elements And an output step of outputting a voice of a corresponding volume.

【0011】請求項7に記載の発明は、前記画像データ
ベースは、前記一部の画像要素の、音量がゼロであるこ
とを示す第1の形態と、音量が最大であることを示す第
2の形態とを格納しており、前記変更ステップは、前記
入力ステップで入力された前記指示に基づいて、前記第
1の形態、前記第2の形態、または前記第1及び第2の
形態を補間して得られた中間形態のいずれかを表示する
ことを特徴とする。
According to a seventh aspect of the present invention, in the image database, the first form indicating that the volume of the part of the image elements is zero and the second form indicating that the volume is maximum. The form is stored, and the changing step interpolates the first form, the second form, or the first and second forms based on the instruction input in the input step. It is characterized by displaying any of the obtained intermediate forms.

【0012】請求項8に記載の発明は、前記画像データ
ベースは前記一部の画像要素の複数の形態を予め格納し
てており、前記変更ステップは、前記複数の形態から現
在表示している形態とは異なる形態を選択して表示する
ことを特徴とする。
According to an eighth aspect of the present invention, the image database stores a plurality of forms of the part of the image elements in advance, and the changing step includes a form currently displayed from the plurality of forms. It is characterized by selecting and displaying a different form.

【0013】請求項9に記載の発明は、前記合成画像が
顔の画像であり、前記一部の画像要素が口の画像である
ことを特徴とする。
According to a ninth aspect of the invention, the composite image is a face image and the part of the image elements is a mouth image.

【0014】請求項10に記載の発明は、テキストデー
タを予めテキスト保持手段に格納しており、前記テキス
ト保持手段から読み出した前記テキストを音声に変換す
る変換ステップを更に備え、前記出力ステップは、当該
変換ステップにより変換された音声を出力することを特
徴とする。
According to a tenth aspect of the present invention, text data is stored in advance in the text holding means, and the method further comprises a conversion step of converting the text read from the text holding means into voice, and the outputting step. It is characterized in that the voice converted by the converting step is output.

【0015】請求項1又は請求項6に記載の発明によれ
ば、画像データベースから読み出した複数の画像要素を
合成して表示し、表示した画像の中の一部の画像要素の
面積を変更する指示を入力し、指示に基づいてその一部
の画像要素の面積を変更すると共に、変更された面積に
対応づけた音量の音声を出力する。
According to the first or sixth aspect of the present invention, a plurality of image elements read from the image database are combined and displayed, and the area of some image elements in the displayed image is changed. An instruction is input, the area of some of the image elements is changed based on the instruction, and a sound of a volume corresponding to the changed area is output.

【0016】請求項2又は請求項7に記載の発明によれ
ば、画像データベースは、一部の画像要素の、音量がゼ
ロであることを示す第1の形態と、音量が最大であるこ
とを示す第2の形態とを格納しており、入力された指示
に基づいて、第1の形態、第2の形態、または第1及び
第2の形態を補間して得られた中間形態のいずれかを表
示すると共に、表示された一部の画像の面積に対応づけ
た音量の音声を出力する。
According to the second or seventh aspect of the present invention, the image database has the first form indicating that the volume of some image elements is zero, and that the volume is maximum. The second form shown in FIG. 2 is stored, and either the first form, the second form, or the intermediate form obtained by interpolating the first and second forms based on the input instruction. Is displayed, and a sound of a volume corresponding to the area of a part of the displayed image is output.

【0017】請求項3又は請求項8に記載の発明によれ
ば、画像データベースは一部の画像要素の複数の形態を
予め格納しており、入力された指示に基づいて、現在表
示している形態とは異なる形態を選択して表示すると共
に、表示された一部の画像の面積に対応づけた音量の音
声を出力する。
According to the third or eighth aspect of the present invention, the image database stores in advance a plurality of forms of some image elements, and the images are currently displayed based on the input instruction. A form different from the form is selected and displayed, and a sound with a volume corresponding to the area of a part of the displayed image is output.

【0018】請求項4又は請求項9に記載の発明によれ
ば、合成画像として顔の画像が表示され、その中の口の
画像の面積が変更されると共に、変更された口の画像の
面積に対応づけられた音量の音声が出力される。
According to the invention of claim 4 or claim 9, a face image is displayed as a composite image, the area of the mouth image therein is changed, and the area of the changed mouth image is changed. The sound of the volume associated with is output.

【0019】請求項5又は請求項10に記載の発明によ
れば、テキスト保持手段から読み出したテキストを音声
に変換し、変更された面積に対応づけた音量で出力され
る。
According to the fifth or tenth aspect of the present invention, the text read out from the text holding means is converted into a voice, and the voice is output at a volume corresponding to the changed area.

【0020】[0020]

【発明の実施の形態】以下、図面を参照して本発明の実
施例を詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0021】図1は、本発明の実施例に係る音声出力装
置の構成を示すブロック図である。同図において、1は
ユーザからコマンド及びデータを入力する入力手段であ
り、例えば、キーボードおよびマウス等のポインティン
グデバイスから構成される。2は入力手段1からの入力
に対応して画像の表示を制御する表示制御手段、3は表
示制御手段2から出力された画像を表示する表示手段で
ある。4は表示手段に表示する顔などの画像の要素を格
納する画像データベースである。
FIG. 1 is a block diagram showing the configuration of an audio output device according to an embodiment of the present invention. In the figure, reference numeral 1 denotes an input means for inputting a command and data from a user, which is composed of a keyboard and a pointing device such as a mouse. Reference numeral 2 is a display control means for controlling the display of an image in response to the input from the input means 1, and 3 is a display means for displaying the image output from the display control means 2. An image database 4 stores image elements such as faces displayed on the display means.

【0022】図2に、画像データベース4に格納した画
像要素の一例を示す。画像データベース4は、人の顔の
画像の各構成要素としての「目」、「鼻」、「口」、
「輪郭」、「髪」の、画像要素ファイルを有する。各画
像要素ファイルには、図2に示すように各構成要素のデ
フォルト画像の形態およびデフォルト画像を変形した変
形画像の形態が格納されている。デフォルト画像および
変形画像はスケーラブルであり、入力手段1からの入力
等に基づいて拡大または縮小することができる。
FIG. 2 shows an example of the image elements stored in the image database 4. The image database 4 includes “eyes”, “nose”, “mouths”, which are constituent elements of human face images.
It has image element files of "contour" and "hair". As shown in FIG. 2, each image element file stores the form of a default image of each component and the form of a modified image obtained by modifying the default image. The default image and the deformed image are scalable and can be enlarged or reduced based on the input from the input means 1 or the like.

【0023】表示制御手段2は、各画像要素ファイルか
ら必要な画像を取り出し、必要に応じて大きさを変更
し、各画像を合成して表示手段3に表示する。また表示
制御手段2は、1つの画像ファイルに格納された1つの
画像要素の、複数の形態を補間することにより、複数の
形態の中間的な画像を形成することができる。
The display control means 2 takes out a required image from each image element file, changes the size as necessary, synthesizes the images, and displays them on the display means 3. Further, the display control means 2 can form an intermediate image of a plurality of forms by interpolating a plurality of forms of one image element stored in one image file.

【0024】テキスト保持手段5は、音声合成を行う対
象となる入力テキストを保存する。入力手段1から音声
合成開始コマンドが入力されると、中央制御手段10
は、入力テキスト保持手段6からテキストを読みだし、
音声合成手段6に転送する。すると音声合成手段6は、
転送されたテキストに基づいて音声を合成する。
The text holding means 5 saves the input text to be the target of speech synthesis. When a voice synthesis start command is input from the input means 1, the central control means 10
Reads the text from the input text holding means 6,
Transfer to the voice synthesizer 6. Then, the voice synthesizing means 6
Synthesize speech based on the transferred text.

【0025】中央制御手段10は、入力手段1から入力
された音量指示に従って音量制御手段7を制御する。音
量制御手段7は、音声合成手段6から入力された音声
を、中央制御手段10からの制御に従って拡大し、スピ
ーカ8に出力する。
The central control means 10 controls the volume control means 7 according to the volume instruction input from the input means 1. The volume control means 7 expands the voice input from the voice synthesis means 6 under the control of the central control means 10 and outputs it to the speaker 8.

【0026】図3は、図1の中央制御手段10の動作を
示すフローチャートである。また図4に、図3のフロー
チャートに示す動作に従って、表示手段3に表示される
顔の画像の例を表す。両図を用いて本音声出力装置の動
作を説明する。ステップ(Sと略記する)101(図
3)では、表示制御手段2を介して、画像データベース
4に格納された画像ファイルから「目」、「鼻」、
「口」、「輪郭」および「髪」の各画像データ要素のデ
フォルト画像を読み出し、読み出したデフォルト画像を
合成して、画像41(図4)を表示手段3に表示する。
FIG. 3 is a flow chart showing the operation of the central control means 10 of FIG. Further, FIG. 4 shows an example of a face image displayed on the display means 3 in accordance with the operation shown in the flowchart of FIG. The operation of the audio output device will be described with reference to FIGS. In step (abbreviated as S) 101 (FIG. 3), “eyes”, “nose”, from the image files stored in the image database 4 are displayed via the display control means 2.
The default images of the image data elements “mouth”, “outline” and “hair” are read out, the read out default images are combined, and the image 41 (FIG. 4) is displayed on the display means 3.

【0027】S102では、表示した顔画像の中の「一
部の画像要素」の一例としての、口の部分がポインティ
ングデバイスにより指定されているかどうかを判断す
る。口の部分は、例えば画像42(図4)に示すように
マウスのポインタを口の上に移動してマウスのボタンを
押すことにより指定することができる。
In S102, it is determined whether or not the mouth portion, which is an example of "a part of image elements" in the displayed face image, is designated by the pointing device. The mouth portion can be designated by, for example, moving the mouse pointer over the mouth and pressing the mouse button as shown in the image 42 (FIG. 4).

【0028】中央制御装置10は、ポインタが口の部分
にあることおよびマウスボタンが押されていることを条
件に、口が指定されたと判断することができる。口の部
分が指定されていない場合はS102に戻る。口の部分
が指定されていた場合はS103に進み、口が中程度に
開いた画像を画像データベース4から読み出して、口の
デフォルト画像に換えて表示手段に表示する。S103
で表示される画像の一例を画像43(図4)に示す。
The central control unit 10 can determine that the mouth has been designated on the condition that the pointer is located at the mouth and the mouse button is pressed. When the mouth part is not designated, the process returns to S102. If the mouth portion has been designated, the process proceeds to S103, the image in which the mouth is opened moderately is read from the image database 4, and is displayed on the display unit in place of the default image of the mouth. S103
An image 43 (FIG. 4) shows an example of the image displayed in.

【0029】S104では、音声を中程度に拡大するよ
うに音量制御手段7を設定する。またテキスト保持手段
からテキストを読みだし、音声合成手段6に転送する。
すると音声合成手段6が音声を合成し、音量制御手段7
が音声を中程度に拡大し、スピーカ8から音声が出力さ
れる。S105では、音声合成手段6が音声の出力が終
了したか否かを判断する。音声の出力が終了していなけ
ればS106に進み、音声の出力が終了していればS1
15に進む。
In S104, the volume control means 7 is set so as to expand the voice to a medium level. Further, the text is read from the text holding means and transferred to the voice synthesizing means 6.
Then, the voice synthesizing unit 6 synthesizes the voice, and the volume control unit 7
Expands the sound to a medium level, and the sound is output from the speaker 8. In S105, the voice synthesizing means 6 determines whether or not the voice output is completed. If the voice output has not ended, the process proceeds to S106, and if the voice output has ended, S1
Proceed to 15.

【0030】S106では、口の部分がポインティング
デバイスにより指定されているか否かを検出する。口の
部分が指定されていない場合は、S105に戻る。S1
06で口の部分が指定されていると、口の画像を大きく
する指示が入力されているか否かを判断する(S10
7)。口の画像は、マウスボタンを押したままポインタ
を口の中心から遠ざけることにより拡大できる。S10
7で口の画像を大きくする操作でなかった場合はS11
0に進む。
In S106, it is detected whether or not the mouth portion is designated by the pointing device. When the mouth part is not designated, the process returns to S105. S1
If the mouth portion is designated in 06, it is determined whether or not an instruction to enlarge the mouth image is input (S10).
7). The mouth image can be magnified by holding the mouse button and moving the pointer away from the center of the mouth. S10
If it is not the operation of enlarging the mouth image in step 7, S11
Go to 0.

【0031】S107で口の画像を大きくする操作であ
った場合は、マウスの移動量に応じて、音量制御手段7
を用いて音声の増幅率を高める(S108)。S109
では、中程度に口が開いた画像と、口が大きく開いた画
像とを補間することにより、マウスの移動量に応じて開
かれた口の画像を形成して表示手段3に表示する。但
し、多様な大きさに開いた口の画像を予め用意し、マウ
スの移動量に応じて適切な画像を読み出して表示手段3
に表示しても良い。S109により表示される画像の一
例を画像44(図4)に示す。
If the operation is to enlarge the image of the mouth in S107, the volume control means 7 is operated according to the amount of movement of the mouse.
Is used to increase the amplification factor of voice (S108). S109
Then, by interpolating the image with the mouth wide open and the image with the mouth wide open, an image of the mouth open according to the amount of movement of the mouse is formed and displayed on the display unit 3. However, the image of the mouth opened in various sizes is prepared in advance, and an appropriate image is read according to the amount of movement of the mouse to display the image on the display unit 3.
May be displayed. An image 44 (FIG. 4) shows an example of the image displayed in S109.

【0032】S110では、口の画像を小さくする指示
が入力されたか否かを判断する。口の画像は、マウスボ
タンを押したままポインタを口の中心へ近づける方向に
移動させることにより縮小することができる。口を小さ
くする指示が入力された場合は、音声制御手段による音
量の増幅率を、マウスの移動量に応じて小さくする(S
111)。また表示制御手段2を介して画像データベー
ス4から、小さな口の画像を読み出し、表示手段3に表
示して(S112)、S105に戻る。
In S110, it is determined whether or not an instruction to reduce the size of the mouth image has been input. The mouth image can be reduced by holding the mouse button down and moving the pointer toward the center of the mouth. When an instruction to make the mouth smaller is input, the amplification factor of the volume by the voice control means is made smaller according to the amount of movement of the mouse (S
111). Further, the image of the small mouth is read from the image database 4 via the display control unit 2, displayed on the display unit 3 (S112), and the process returns to S105.

【0033】例えば画像45(図4)のようにポインタ
が口画像から離れており、S110で口を小さくする指
示が入力されていなかった場合は、音声の出力を停止す
る指示が入力されたか否かを判断する(S113)。音
声は、例えば表示手段3に表示した顔画像の中の口画像
をクリックすることにより停止できる。この場合中央制
御手段10は、S113で、ポインタが口画像の上にあ
って、かつマウスのボタンが押されたことを条件とし
て、音声の出力を停止する指示が入力されたと判断す
る。
For example, when the pointer is away from the mouth image as in the image 45 (FIG. 4) and the instruction to reduce the mouth is not input in S110, it is determined whether or not the instruction to stop the voice output is input. It is determined (S113). The voice can be stopped by, for example, clicking the mouth image in the face image displayed on the display unit 3. In this case, the central control means 10 determines in S113 that an instruction to stop the sound output is input on condition that the pointer is on the mouth image and the mouse button is pressed.

【0034】S113で出力の停止が指示されていなけ
ればS105に戻る。S113で出力を停止する指示が
入力されていれば音声合成手段6による音声の合成を停
止し(S114)、口画像ファイルの中からの閉じたデ
フォルト画像を画像データベース4の「口」画像ファイ
ルから読み出し、既に表示している顔画像の口の部分と
置き換えて表示する(S115)。S115により表示
される画像を画像46(図4)に示す。S115の後
に、S102に戻る。
If it is not instructed to stop the output in S113, the process returns to S105. If the instruction to stop the output is input in S113, the speech synthesis by the speech synthesis unit 6 is stopped (S114), and the closed default image from the mouth image file is extracted from the "mouth" image file in the image database 4. It is read out and replaced with the mouth portion of the face image that has already been displayed and displayed (S115). The image displayed in S115 is shown in the image 46 (FIG. 4). It returns to S102 after S115.

【0035】(その他)実施例1では、ポインテインゲ
デバイスであるマウスを用いて口の画像を指示したが、
画像の「指定手段」は、表示手段に表示された口の画像
を指定できるものであれば足り、例えばペン、デジタイ
ザなどの他の入力デバイスであってもよい。
(Others) In the first embodiment, a mouse as a pointing device is used to indicate the image of the mouth.
The "designating means" for the image is sufficient as long as it can designate the image of the mouth displayed on the display means, and may be another input device such as a pen or a digitizer.

【0036】図4ではポインタの一例として矢印を表示
したが、ポインタは表示手段に表示された口が指定され
ていることを表示できれば足り、例えば図5に示す様な
マイクの形のポインタを用いても良い。
In FIG. 4, an arrow is displayed as an example of the pointer, but it is sufficient if the pointer can display that the mouth displayed on the display means is designated. For example, a pointer in the shape of a microphone as shown in FIG. 5 is used. May be.

【0037】実施例1では、音声を出力し始めると口が
開いた画像に切り替えたが、口の画像の変化の方法は、
これに限定されるものではない。例えば、口の部分をア
ニメーションのように動画として動かしてもよい。この
場合、音声の大きさに応じて口の部分の動きを大きくし
ても良い。
In the first embodiment, the image is switched to an image in which the mouth is opened when the sound is started to be output.
It is not limited to this. For example, the mouth part may be moved as a moving image like an animation. In this case, the movement of the mouth may be increased according to the volume of the voice.

【0038】実施例1では、ポインタで口の画像をクリ
ックすることにより音声の合成を開始したが、音声とし
て出力したいテキストを表わすアイコンを、口の部分に
移動することにより音声の出力を開始してもよい。
In the first embodiment, the voice synthesis is started by clicking the mouth image with the pointer, but the voice output is started by moving the icon representing the text to be output as voice to the mouth portion. May be.

【0039】実施例1では、音声をスピーカに出力した
が、音声の「出力手段」はスピーカに限定されるもので
はなく、例えは音声記録デッキに出力することにより、
記録テープに録昔させてもよい。
In the first embodiment, the sound is output to the speaker, but the "output means" of the sound is not limited to the speaker, and for example, by outputting to the sound recording deck,
It may be recorded on a recording tape for a long time.

【0040】実施例1では、ポインティングデバイスを
用いて「口」の画像を指定し、拡大し、または縮小した
が、ポインティングデバイスに換えて、キーボードによ
り拡大又は縮小しても良い。
In the first embodiment, the image of the "mouth" is designated by using the pointing device and enlarged or reduced, but it may be enlarged or reduced by the keyboard instead of the pointing device.

【0041】実施例1では口の画像をクリックすること
により音声を停止したが、例えば画面に表示した「停
止」ボタンをクリックすることにより音声を停止しても
良い。
Although the voice is stopped by clicking the image of the mouth in the first embodiment, the voice may be stopped by clicking the "stop" button displayed on the screen, for example.

【0042】本発明は、複数の装置から構成されるシス
テムにも単体の装置にも適用できる。また、本発明はシ
ステム或は装置にプログラムを読み込むことによっても
実施できる。そのようなプログラムを記載した記録媒体
に、本出願による特許権の特許法第101条の効力が及
ぶことは言うまでもない。
The present invention can be applied to a system composed of a plurality of devices or a single device. The present invention can also be implemented by loading a program into a system or device. It goes without saying that the recording medium in which such a program is written is subject to the effect of Article 101 of the Patent Law of the present patent application.

【0043】[0043]

【発明の効果】以上の説明から明らかなように、請求項
1又は請求項6に記載の発明によれば、画像データベー
スから読み出した複数の画像要素を合成して表示し、表
示した画像の中の一部の画像要素の面積を変更する指示
を入力し、指示に基づいてその一部の画像要素の面積を
変更すると共に、変更された面積に対応づけた音量の音
声を出力する。このように、出力する音声の音量を画像
の面積に対応づけたので、ユーザにとって音量の制御が
理解しやすく、制御が容易になる。
As is apparent from the above description, according to the invention described in claim 1 or 6, the plurality of image elements read from the image database are combined and displayed, and the image is displayed. An instruction to change the area of some of the image elements is input, the area of some of the image elements is changed based on the instruction, and a sound with a volume corresponding to the changed area is output. In this way, since the volume of the output voice is associated with the area of the image, the control of the volume is easy for the user to understand, and the control is easy.

【0044】請求項2又は請求項7に記載の発明によれ
ば、入力された指示に基づいて、画像要素の第1の形
態、第2の形態、または第1及び第2の形態を補間して
得られた中間形態のいずれかを表示すると共に、表示さ
れた一部の画像の面積に対応づけた音量の音声を出力す
る。表示する全ての画像の形態を予め格納するのではな
く、第1の形態と第2の形態との中間形態を補間して出
力するので、全ての形態を予め格納した場合と比較し
て、必要なデータの格納容量を小さくすることができ
る。
According to the second or seventh aspect of the invention, the first form, the second form, or the first and second forms of the image element are interpolated based on the input instruction. One of the obtained intermediate forms is displayed, and a sound of a volume corresponding to the area of a part of the displayed image is output. It is necessary to compare with the case where all the forms are stored in advance, because the forms of all the images to be displayed are not stored in advance and the intermediate form between the first form and the second form is interpolated and output. Storage capacity of various data can be reduced.

【0045】請求項3又は請求項8に記載の発明によれ
ば、画像データベースは一部の画像要素の複数の形態を
予め格納しており、入力された指示に基づいて、現在表
示している形態とは異なる形態を選択して表示すると共
に、表示された一部の画像の面積に対応づけた音量の音
声を出力する。表示すべき複数の形態を予め格納してい
るので、表示する画像の面積を容易に変更することがで
きる。
According to the invention described in claim 3 or claim 8, the image database stores a plurality of forms of some image elements in advance and is currently displayed based on the input instruction. A form different from the form is selected and displayed, and a sound with a volume corresponding to the area of a part of the displayed image is output. Since a plurality of forms to be displayed are stored in advance, the area of the displayed image can be easily changed.

【0046】請求項4又は請求項9に記載の発明によれ
ば、合成画像として顔の画像が表示され、その中の口の
画像の面積が変更されると共に、変更された口の画像の
面積に対応づけられた音量の音声が出力される。口の形
をしたグラフィカルインターフェースに対する指示によ
り音量を制御するので、ユーザにとって音量の制御直感
的に理解しやすく、音量の制御が容易になる。特に、面
積が最小の場合に音声の出力を停止することにより、音
声出力の開始及び停止も容易に制御することができる。
According to the fourth or ninth aspect of the invention, a face image is displayed as a composite image, the area of the mouth image therein is changed, and the changed area of the mouth image is changed. The sound of the volume associated with is output. Since the volume is controlled by an instruction to the mouth-shaped graphical interface, it is easy for the user to intuitively understand the volume control and the volume control becomes easy. Particularly, by stopping the sound output when the area is the minimum, the start and stop of the sound output can be easily controlled.

【0047】請求項5又は請求項10に記載の発明によ
れば、テキスト保持手段から読み出したテキストを音声
に変換し、変更した面積に対応づけた音量で音声を出力
する。このため、テキストの読み出し時の音量を、理解
しやすいインタフェースで容易に制御することができ
る。
According to the fifth or tenth aspect of the invention, the text read from the text holding means is converted into a voice, and the voice is output at a volume corresponding to the changed area. Therefore, it is possible to easily control the volume at the time of reading the text with an interface that is easy to understand.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例にかかる音声出力装置の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an audio output device according to an embodiment of the present invention.

【図2】画像データベースに格納された各データファイ
ルの画像の例を示す説明図である。
FIG. 2 is an explanatory diagram showing an example of an image of each data file stored in an image database.

【図3】本発明の一実施例にかかる音声出力装置の処理
手順を示すフローチャートである。
FIG. 3 is a flowchart showing a processing procedure of the audio output device according to the embodiment of the present invention.

【図4】図3のフローチャートに示す動作により表示さ
れる画像を説明する説明図である。
FIG. 4 is an explanatory diagram illustrating an image displayed by the operation shown in the flowchart of FIG.

【図5】本発明の一実施例により表示される画像を説明
する説明図である。
FIG. 5 is an explanatory diagram illustrating an image displayed according to an embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 入力手段 2 表示制御手段 3 表示手段 4 画像データベース 5 テキスト保持手段 6 音声合成手段 7 音量制御手段 8 スピーカ 10 中央制御手段 1 Input Means 2 Display Control Means 3 Display Means 4 Image Database 5 Text Holding Means 6 Voice Synthesizing Means 7 Volume Control Means 8 Speakers 10 Central Control Means

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 複数の画像要素を格納する画像データベ
ースと、 当該画像データベースから読み出した前記画像要素を合
成する手段と、 合成して得られたた合成画像を表示する手段と、 表示された画像の中の一部の画像要素の面積を変更する
指示を入力する入力手段と、 前記指示に基づいて前記面積を変更する変更手段と、 前記一部の画像要素の面積に対応づけた音量の音声を出
力する音声出力手段とを備えたことを特徴とする音声出
力装置。
1. An image database storing a plurality of image elements, a means for synthesizing the image elements read from the image database, a means for displaying a synthesized image obtained by synthesizing, and a displayed image. Input means for inputting an instruction to change the area of some of the image elements, changing means for changing the area based on the instruction, and a sound volume corresponding to the area of the some image element. An audio output device comprising: an audio output unit for outputting
【請求項2】 前記画像データベースは、前記一部の画
像要素の、音量がゼロであることを示す第1の形態と、
音量が最大であることを示す第2の形態とを格納し、 前記変更手段は、前記入力手段から入力された指示に基
づいて、前記第1の形態、前記第2の形態、または前記
第1及び第2の形態を補間して得られた中間形態を表示
することを特徴とする請求項1に記載の音声出力装置。
2. The image database includes a first form indicating that the volume of the some image elements is zero,
A second form indicating that the volume is maximum, and the changing unit stores the first form, the second form, or the first form based on an instruction input from the input unit. And the intermediate form obtained by interpolating the second form and the second form are displayed.
【請求項3】 前記画像データベースは前記一部の画像
要素の複数の形態を格納し、 前記変更手段は、前記複数の形態から現在表示している
形態とは異なる形態を選択して表示することを特徴とす
る請求項1または2に記載の音声出力装置。
3. The image database stores a plurality of forms of the partial image element, and the changing unit selects and displays a form different from the form currently displayed from the plurality of forms. The audio output device according to claim 1 or 2.
【請求項4】 前記合成画像が顔の画像であり、 前記一部の画像要素が口の画像であることを特徴とする
請求項1から3のいずれかに記載の音声出力装置。
4. The audio output device according to claim 1, wherein the composite image is a face image, and the part of the image elements is a mouth image.
【請求項5】 テキストデータを格納するテキスト保持
手段と、 前記テキスト保持手段から読み出した前記テキストを音
声に変換する変換手段を更に備え、 前記音声出力手段は、当該変換手段により変換された音
声を出力することを特徴とする請求項1から4のいずれ
かに記載の音声出力装置。
5. A text holding unit for storing text data, and a conversion unit for converting the text read from the text holding unit into voice, wherein the voice output unit outputs the voice converted by the conversion unit. The audio output device according to claim 1, wherein the audio output device outputs.
【請求項6】 複数の画像要素を予め格納する画像デー
タベースから読み出した、前記複数の画像要素を合成す
る合成ステップと、 合成して得られた合成画像を表示する表示ステップと、 表示した画像の中の一部の画像要素の面積を変更する指
示を入力する入力ステップと、 前記指示に基づいて前記面積を変更する変更ステップ
と、 前記一部の画像要素の面積に対応づけた音量の音声を出
力する出力ステップとを備えたことを特徴とする音声出
力方法。
6. A synthesizing step of synthesizing the plurality of image elements read from an image database storing a plurality of image elements in advance, a display step of displaying a synthesized image obtained by the synthesizing, and a displaying step of displaying the image. An input step of inputting an instruction to change the area of a part of the image elements, a changing step of changing the area based on the instruction, and a sound volume corresponding to the area of the part of the image element. An audio output method comprising: an output step of outputting.
【請求項7】 前記画像データベースは、前記一部の画
像要素の、音量がゼロであることを示す第1の形態と、
音量が最大であることを示す第2の形態とを格納してお
り、 前記変更ステップは、前記入力ステップで入力された前
記指示に基づいて、前記第1の形態、前記第2の形態、
または前記第1及び第2の形態を補間して得られた中間
形態のいずれかを表示することを特徴とする請求項6に
記載の音声出力方法。
7. The first form, wherein the image database indicates that the volume of the some image elements is zero,
And a second form indicating that the volume is maximum, the changing step is based on the instruction input in the input step, and the first form, the second form,
7. The voice output method according to claim 6, further comprising displaying one of intermediate forms obtained by interpolating the first and second forms.
【請求項8】 前記画像データベースは前記一部の画像
要素の複数の形態を予め格納してており、 前記変更ステップは、前記複数の形態から現在表示して
いる形態とは異なる形態を選択して表示することを特徴
とする請求項6又は7に記載の音声出力方法。
8. The image database stores a plurality of forms of the part of the image elements in advance, and the changing step selects a form different from the form currently displayed from the plurality of forms. The audio output method according to claim 6 or 7, characterized in that
【請求項9】 前記合成画像が顔の画像であり、 前記一部の画像要素が口の画像であることを特徴とする
請求項6から8のいずれかに記載の音声出力方法。
9. The audio output method according to claim 6, wherein the composite image is a face image, and the part of the image elements is a mouth image.
【請求項10】 テキストデータを予めテキスト保持手
段に格納しており、 前記テキスト保持手段から読み出した前記テキストを音
声に変換する変換ステップを更に備え、 前記出力ステップは、当該変換ステップにより変換され
た音声を出力することを特徴とする請求項6から9のい
ずれかに記載の音声出力方法。
10. The text data is stored in advance in the text holding means, and the method further comprises a conversion step of converting the text read from the text holding means into voice, and the output step is converted by the conversion step. The voice output method according to claim 6, wherein voice is output.
JP18012995A 1995-07-17 1995-07-17 Audio output device and method Expired - Fee Related JP3585190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18012995A JP3585190B2 (en) 1995-07-17 1995-07-17 Audio output device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18012995A JP3585190B2 (en) 1995-07-17 1995-07-17 Audio output device and method

Publications (2)

Publication Number Publication Date
JPH0934483A true JPH0934483A (en) 1997-02-07
JP3585190B2 JP3585190B2 (en) 2004-11-04

Family

ID=16077930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18012995A Expired - Fee Related JP3585190B2 (en) 1995-07-17 1995-07-17 Audio output device and method

Country Status (1)

Country Link
JP (1) JP3585190B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311192B2 (en) 2007-12-18 2012-11-13 Brother Kogyo Kabushiki Kaisha Communication device, communication system and computer readable medium for communication
US8310687B2 (en) 2007-12-27 2012-11-13 Brother Kogyo Kabushiki Kaisha Device, system, and computer-readable record medium storing program for using information associated with images
US8379230B2 (en) 2007-12-12 2013-02-19 Brother Kogyo Kabushiki Kaisha Storage device storing image data in association with registration information representing a communication device
US8468450B2 (en) 2007-12-14 2013-06-18 Brother Kogyo Kabushiki Kaisha Output control device, computer readable medium for the same, and output control system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8379230B2 (en) 2007-12-12 2013-02-19 Brother Kogyo Kabushiki Kaisha Storage device storing image data in association with registration information representing a communication device
US8468450B2 (en) 2007-12-14 2013-06-18 Brother Kogyo Kabushiki Kaisha Output control device, computer readable medium for the same, and output control system
US8311192B2 (en) 2007-12-18 2012-11-13 Brother Kogyo Kabushiki Kaisha Communication device, communication system and computer readable medium for communication
US8310687B2 (en) 2007-12-27 2012-11-13 Brother Kogyo Kabushiki Kaisha Device, system, and computer-readable record medium storing program for using information associated with images

Also Published As

Publication number Publication date
JP3585190B2 (en) 2004-11-04

Similar Documents

Publication Publication Date Title
US5359712A (en) Method and apparatus for transitioning between sequences of digital information
JP6991283B2 (en) Avatar creation user interface
US20220093132A1 (en) Method for acquiring video and electronic device
US7682893B2 (en) Method and apparatus for providing an instrument playing service
JPWO2008111113A1 (en) Effect device, AV processing device, and program
WO2007125649A1 (en) Multimedia reproducing apparatus and menu screen display method
WO2001093207A1 (en) Animation producing method and device, and recorded medium on which program is recorded
JP2001197366A (en) Picture synthesis method and recording medium recording picture synthesis program
JP2003044046A (en) Device and method for processing information and recording medium
JPH08328795A (en) Method for setting tool button and editing device
JP2022546080A (en) Information input method, device and terminal
JPWO2014203960A1 (en) Vibration data generation program and vibration data generation device
JP4615702B2 (en) Output data control device
JPH0934483A (en) Method and device for voice output
JP5420081B2 (en) Navigation device
JP4245206B2 (en) Recording medium and display device for recording display data and information for scroll display
JP4240314B2 (en) Editing apparatus, editing method, and editing program
JP4282690B2 (en) Display device
JP4720974B2 (en) Audio generator and computer program therefor
JP2008158435A (en) Parameter setting device for electronic musical instrument, and program
JPH07303209A (en) Special effect editing device
JPH0991114A (en) Multiwindow display device and multiwindow control method
JP4314527B2 (en) Editing apparatus, editing method, and editing program
JP2003114678A (en) Apparatus and method for information processing and storage medium
JPH08179923A (en) Method and device for voice synthesization output

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040802

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070813

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080813

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080813

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090813

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090813

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100813

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110813

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees