JPH1021048A - Method and device for speech output - Google Patents

Method and device for speech output

Info

Publication number
JPH1021048A
JPH1021048A JP18686796A JP18686796A JPH1021048A JP H1021048 A JPH1021048 A JP H1021048A JP 18686796 A JP18686796 A JP 18686796A JP 18686796 A JP18686796 A JP 18686796A JP H1021048 A JPH1021048 A JP H1021048A
Authority
JP
Japan
Prior art keywords
audio
data
output
diagram
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP18686796A
Other languages
Japanese (ja)
Inventor
Ryoji Fukuda
亮治 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP18686796A priority Critical patent/JPH1021048A/en
Publication of JPH1021048A publication Critical patent/JPH1021048A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and device for speech output which can easily adjust output characteristics of intended speech data without requiring complicated operation. SOLUTION: Adjustment contents of output characteristics of speech data are specified by operator's drawing. Recognized drawing data (including the size of the line drawing) are acquired (step S401) and when it is decided (step S402) from the direction of the drawing of the drawing data that an object that the operator is trying to adjust this time is speech data to a left-side speaker, a sound volume data coefficient K is acquired (step S403) from the curve shape of the line drawing and a sound volume setting table, so that sound volume data V is set (step S404) according to the size of the line drawing. Then the found sound volume data V are set by frequency bands in a synthesizer to set the sound volume of the speaker, i.e., speech output level.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声データの出力
特性を調整し、該調整された音声データを出力する音声
出力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an audio output device for adjusting output characteristics of audio data and outputting the adjusted audio data.

【0002】[0002]

【従来の技術】従来より、コンピュータ等に搭載され、
外部の音源から受容した音声データのほか、ファイルさ
れた音声データまたはメモリに記憶された音声データを
出力する音声出力装置が知られている。この音声出力装
置における音声データの音量、音質、再生速度等の音声
データの出力特性の調整には、グラフィカルインターフ
ェイス(GUI)が広く利用されている。一般に市販さ
れている音楽関係のハードウェア及びソフトウェアで
は、音声データの出力特性の調整は、例えば、画面上に
表示されたボタン、スライダ、スクロールバー等をマウ
ス等を用いて操作することによって行われるように構成
されている。
2. Description of the Related Art Conventionally, it is mounted on a computer or the like,
2. Description of the Related Art There is known an audio output device that outputs filed audio data or audio data stored in a memory in addition to audio data received from an external sound source. A graphical interface (GUI) is widely used for adjusting output characteristics of audio data such as volume, sound quality, and reproduction speed of the audio data in the audio output device. With generally-related music-related hardware and software, adjustment of output characteristics of audio data is performed, for example, by operating buttons, sliders, scroll bars, and the like displayed on the screen using a mouse or the like. It is configured as follows.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
ように、マウス等の入力デバイスを用いた操作は、音声
データの出力特性の調整には必ずしも適していない。
However, the operation using an input device such as a mouse as in the prior art is not always suitable for adjusting the output characteristics of audio data.

【0004】すなわち、上記従来の音声出力装置では、
マウスカーソルの移動、マウスボタンのクリックまたは
マウスボタンのドラッグ等の、音声データの出力特性の
イメージとは無関係な操作を操作者に強要するばかりで
なく、音声特性に関する種々の設定を行う上で、ボタ
ン、スライドバー等のマウスの操作対象が画面上に多数
氾濫することになり、画面表示が繁雑化する。かかる状
況では、的確な操作が困難となり、操作者の精神的、肉
体的疲労が増大すると共に操作時間も長期化する。この
ように、意図する音声データの出力特性のイメージを実
現するための操作性が、著しく悪いという問題があっ
た。
That is, in the above-mentioned conventional audio output device,
In addition to forcing the operator to perform operations unrelated to the image of the output characteristics of the audio data, such as moving the mouse cursor, clicking the mouse button, or dragging the mouse button, the user performs various settings related to the audio characteristics. Many objects to be operated by the mouse, such as buttons and slide bars, flood the screen, and the screen display becomes complicated. In such a situation, accurate operation becomes difficult, and the mental and physical fatigue of the operator increases, and the operation time is prolonged. As described above, there is a problem that the operability for realizing an image of the intended output characteristics of the audio data is extremely poor.

【0005】また、上記マウス等による操作では、画面
上の操作対象に対する操作等の、視覚に依存する作業が
主となるため、視覚障害者等にとっては特に重大な問題
であった。
[0005] In addition, the operation with the mouse or the like is a serious problem for visually impaired persons and the like, because the operation mainly depends on the sight, such as the operation on the operation target on the screen.

【0006】本発明は上記従来技術の問題を解決するた
めになされたものであり、その目的は、煩雑な操作を必
要とすることなく、意図する音声データの出力特性の調
整を容易に実現することができる音声出力方法及び音声
出力装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems of the prior art, and an object of the present invention is to easily adjust the output characteristics of intended audio data without requiring complicated operations. It is an object of the present invention to provide a voice output method and a voice output device capable of performing the above.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に本発明の請求項1の音声出力方法は、音声データを出
力する音声出力方法において、描画データを受容する受
容工程と、該受容工程において受容された描画データに
基づいて前記音声データの出力特性を調整する調整工程
とを含むことを特徴とする。
According to a first aspect of the present invention, there is provided an audio output method for outputting audio data, comprising: a receiving step of receiving drawing data; And adjusting an output characteristic of the audio data based on the drawing data received in (1).

【0008】同じ目的を達成するために本発明の請求項
2の音声出力方法は、上記請求項1記載の構成におい
て、前記音声データの出力特性は、音量及び周波数の少
なくとも一方を含むことを特徴とする。
In order to achieve the same object, according to a second aspect of the present invention, in the audio output method according to the first aspect, the output characteristic of the audio data includes at least one of a volume and a frequency. And

【0009】同じ目的を達成するために本発明の請求項
3の音声出力方法は、上記請求項2記載の構成におい
て、前記受容工程において受容された描画データに係る
線図を認識する認識工程を備え、前記調整工程は、前記
認識工程において認識された線図の形状に応じて前記音
量を所定の周波数帯域毎に増減する音量増減工程を含む
ことを特徴とする。
According to a third aspect of the present invention, there is provided a voice output method according to the second aspect, further comprising a recognition step of recognizing a diagram relating to the drawing data received in the receiving step. The adjusting step includes a volume increasing / decreasing step of increasing / decreasing the volume for each predetermined frequency band according to the shape of the diagram recognized in the recognition step.

【0010】同じ目的を達成するために本発明の請求項
4の音声出力方法は、上記請求項2記載の構成におい
て、前記受容工程において受容された描画データに係る
線図を認識する認識工程を備え、前記調整工程は、前記
認識工程において認識された線図の大きさに応じて前記
音声データの周波数全体を昇降させる周波数昇降工程を
含むことを特徴とする。
In order to achieve the same object, according to a fourth aspect of the present invention, there is provided the voice output method according to the second aspect, further comprising a recognition step of recognizing a diagram relating to the drawing data received in the receiving step. The adjusting step includes a frequency raising / lowering step of raising / lowering the entire frequency of the audio data in accordance with the size of the diagram recognized in the recognition step.

【0011】同じ目的を達成するために本発明の請求項
5の音声出力方法は、上記請求項1〜4のいずれか1項
に記載の構成において、前記音声データを複数のスピー
カにそれぞれ出力する出力工程と、前記受容工程におい
て受容された描画データに係る線図の描画方向を認識す
る描画方向認識工程を備え、前記調整工程は、前記描画
方向認識工程において認識された線図の描画方向に応じ
て前記複数のスピーカに出力される音声データの出力特
性をそれぞれ個別に調整する個別調整工程を含むことを
特徴とする。
In order to achieve the same object, according to a fifth aspect of the present invention, in the audio output method according to the first aspect, the audio data is output to a plurality of speakers. An output step, and a drawing direction recognition step of recognizing a drawing direction of a diagram according to the drawing data received in the receiving step, wherein the adjusting step is performed in a drawing direction of the diagram recognized in the drawing direction recognition step. And an individual adjustment step of individually adjusting the output characteristics of the audio data output to the plurality of speakers in response thereto.

【0012】同じ目的を達成するために本発明の請求項
6の音声出力装置は、音声データを出力する音声出力装
置において、描画データを受容する受容手段と、該受容
手段により受容された描画データに基づいて前記音声デ
ータの出力特性を調整する調整手段とを備えたことを特
徴とする。
According to another aspect of the present invention, there is provided an audio output apparatus for outputting audio data, comprising: receiving means for receiving drawing data; and drawing data received by the receiving means. Adjusting means for adjusting the output characteristics of the audio data based on the

【0013】同じ目的を達成するために本発明の請求項
7の音声出力装置は、上記請求項6記載の構成におい
て、前記音声データの出力特性は、音量及び周波数の少
なくとも一方を含むことを特徴とする。
According to a seventh aspect of the present invention, there is provided an audio output apparatus according to the sixth aspect, wherein the output characteristic of the audio data includes at least one of a volume and a frequency. And

【0014】同じ目的を達成するために本発明の請求項
8の音声出力装置は、上記請求項7記載の構成におい
て、前記受容手段により受容された描画データに係る線
図を認識する認識手段を備え、前記調整手段は、前記認
識手段により認識された線図の形状に応じて前記音量を
所定の周波数帯域毎に増減する音量増減手段を備えたこ
とを特徴とする。
According to another aspect of the present invention, there is provided an audio output device according to the present invention, further comprising a recognition unit for recognizing a diagram relating to the drawing data received by the reception unit. Wherein the adjusting means includes a volume increasing / decreasing means for increasing / decreasing the volume for each predetermined frequency band in accordance with the shape of the diagram recognized by the recognizing means.

【0015】同じ目的を達成するために本発明の請求項
9の音声出力装置は、上記請求項7記載の構成におい
て、前記受容手段により受容された描画データに係る線
図を認識する認識手段を備え、前記調整手段は、前記認
識手段により認識された線図の大きさに応じて前記音声
データの周波数全体を昇降させる周波数昇降手段を備え
たことを特徴とする。
According to a ninth aspect of the present invention, there is provided an audio output apparatus according to the seventh aspect, further comprising a recognition unit for recognizing a diagram relating to the drawing data received by the reception unit. The adjustment means includes frequency raising / lowering means for raising / lowering the entire frequency of the audio data in accordance with the size of the diagram recognized by the recognition means.

【0016】同じ目的を達成するために本発明の請求項
10の音声出力装置は、上記請求項6〜9のいずれか1
項に記載の構成において、前記音声データを複数のスピ
ーカにそれぞれ出力する出力手段と、前記受容手段によ
り受容された描画データに係る線図の描画方向を認識す
る描画方向認識手段を備え、前記調整手段は、前記描画
方向認識手段により認識された線図の描画方向に応じて
前記複数のスピーカに出力される音声データの出力特性
をそれぞれ個別に調整する個別調整手段を備えたことを
特徴とする。
According to a tenth aspect of the present invention, there is provided an audio output apparatus according to any one of the sixth to ninth aspects.
In the configuration described in the paragraph, output means for respectively outputting the audio data to a plurality of speakers, and drawing direction recognition means for recognizing a drawing direction of a diagram related to the drawing data received by the receiving means, wherein the adjustment The means includes individual adjustment means for individually adjusting output characteristics of audio data output to the plurality of speakers according to the drawing direction of the diagram recognized by the drawing direction recognition means. .

【0017】[0017]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0018】(実施の第1形態)以下に、本発明の実施
の第1形態に係る音声出力装置を説明する。
(First Embodiment) An audio output device according to a first embodiment of the present invention will be described below.

【0019】図1は、本発明の実施の第1形態に係る音
声出力装置の全体構成を示すブロック図である。
FIG. 1 is a block diagram showing the overall configuration of the audio output device according to the first embodiment of the present invention.

【0020】CPU1には、入力インターフェイス4、
ディスプレイコントローラ5、シンセサイザ8、音声発
生部10及び記憶部12がCPUバス11を介して接続
されている。入力インターフェイス4には、入力ペン2
及び透明デジタイザ3が接続されている。ディスプレイ
コントローラ5には、VRAM(ビデオRAM)6及び
液晶ディスプレイ7が直列に接続されている。シンセサ
イザ8には、スピーカ9L及びスピーカ9Rが接続され
ている。
The CPU 1 has an input interface 4,
The display controller 5, the synthesizer 8, the audio generator 10 and the storage 12 are connected via the CPU bus 11. The input interface 4 includes an input pen 2
And the transparent digitizer 3 are connected. A VRAM (video RAM) 6 and a liquid crystal display 7 are connected in series to the display controller 5. A speaker 9L and a speaker 9R are connected to the synthesizer 8.

【0021】記憶部12には、描画データバッファ13
及びRAM14が備えられている。RAM14には、後
述するCPU1による音声データの出力特性の調整処
理、音声出力処理等の実行のための制御プログラムのほ
か、これらの処理で使用されるマップ、音声データファ
イル等の種々のデータが格納されている。
The storage unit 12 has a drawing data buffer 13
And a RAM 14. The RAM 14 stores a control program for executing an audio data output characteristic adjustment process, an audio output process, and the like by the CPU 1, which will be described later, as well as various data such as a map and an audio data file used in these processes. Have been.

【0022】CPU1には、音声データを格納する音声
データバッファ15が備えられている。以下に、各構成
要素の機能及び動作を説明する。
The CPU 1 is provided with an audio data buffer 15 for storing audio data. Hereinafter, the function and operation of each component will be described.

【0023】操作者は、入力ペン2を用いて透明デジタ
イザ3に描画する。透明デジタイザ3は、入力ペン2が
透明デジタイザ3に接触した軌跡の座標値を入力インタ
ーフェイス4に出力し、入力インターフェイス4はこの
座標値を描画データとしてディスプレイコントローラ5
及びCPU1に出力する。
The operator draws on the transparent digitizer 3 using the input pen 2. The transparent digitizer 3 outputs to the input interface 4 coordinate values of the trajectory of the input pen 2 touching the transparent digitizer 3, and the input interface 4 uses the coordinate values as drawing data as a display controller 5.
And outputs it to the CPU 1.

【0024】ディスプレイコントローラ5は、入力イン
ターフェイス4から入力された描画データに基づき画像
を形成し、それをVRAM6に出力する。VRAM6
は、ディスプレイコントローラ5から入力された画像を
液晶ディスプレイ7に転送し、液晶ディスプレイ7はこ
の転送された画像を表示する。操作者は、自己が描画し
た線図をこの画面表示により確認することができる。
The display controller 5 forms an image based on the drawing data input from the input interface 4 and outputs the image to the VRAM 6. VRAM6
Transfers the image input from the display controller 5 to the liquid crystal display 7, and the liquid crystal display 7 displays the transferred image. The operator can check the diagram drawn by the operator on this screen display.

【0025】CPU1は、入力インターフェイス4から
入力された描画データを後述するように認識し、その認
識結果(以下「認識描画データ」と称する)を記憶部1
2に出力する。記憶部12は、入力された認識描画デー
タを描画データバッファ13に入力順に登録する。
The CPU 1 recognizes the drawing data input from the input interface 4 as described later, and stores the recognition result (hereinafter referred to as “recognized drawing data”) in the storage unit 1.
Output to 2. The storage unit 12 registers the input recognized drawing data in the drawing data buffer 13 in the order of input.

【0026】CPU1は、後述する音声出力処理の際に
は、音声発生部10がCD−ROM等の外部装置から受
容した音声データを読み込むか、またはRAM14内に
格納されている音声データファイルから音声データを読
み込み、音声データバッファ15に格納する。そして、
この格納された音声データの出力特性を、描画データバ
ッファ13に登録された認識描画データに基づいて、C
PU1及びシンセサイザ8が調整する。その処理の詳細
は後述する。
The CPU 1 reads audio data received from an external device such as a CD-ROM by the audio generation unit 10 or executes audio data from an audio data file stored in the RAM 14 during audio output processing described later. The data is read and stored in the audio data buffer 15. And
Based on the recognized drawing data registered in the drawing data buffer 13,
The PU 1 and the synthesizer 8 adjust. Details of the processing will be described later.

【0027】シンセサイザ8は、スピーカ9L及びスピ
ーカ9Rのそれぞれ出力する音声信号をCPU1から入
力される音声データから生成する。その際、シンセサイ
ザ8は、各スピーカに出力される音声データ毎に、その
出力特性をCPU1の制御に従って個別に調整し、音声
信号を生成する。そして、生成された音声信号をスピー
カ9L及びスピーカ9Rにそれぞれ出力する。スピーカ
9L及びスピーカ9Rは、入力された音声信号を外部に
出力(発音)する。
The synthesizer 8 generates audio signals output from the speakers 9L and 9R from the audio data input from the CPU 1. At that time, the synthesizer 8 individually adjusts the output characteristics of each audio data output to each speaker according to the control of the CPU 1 to generate an audio signal. Then, the generated audio signals are output to the speakers 9L and 9R, respectively. The speakers 9L and 9R output (sound) the input audio signal to the outside.

【0028】図2は、本実施の第1形態に係る音声出力
装置による描画データの認識処理の手順を示すフローチ
ャートである。本処理はCPU1により実行される。
FIG. 2 is a flowchart showing the procedure of the drawing data recognition process by the audio output device according to the first embodiment. This process is executed by the CPU 1.

【0029】まず、入力ペン2が透明デジタイザ3に接
触した座標値を調べることにより、まず、描画されたか
否か、すなわち描画データが入力インターフェイス4に
あるか否かを判別し(ステップS201)、描画データ
がある場合は、現在が「書き始め」の状態であるか否か
を判別する(ステップS202)。その際、直前に描画
された描画データがない場合は現在が「書き始め」の状
態であると判別する一方、直前に描画された描画データ
がある場合は、描画中、すなわち現在が「書き始め」の
状態でないと判別する。この判別の結果、現在が「書き
始め」の状態である場合は、ペンダウン処理として描画
データバッファ13を初期化し(ステップS203)、
描画処理を実行、すなわち現在描画されている描画デー
タを順次入力して(ステップS204)、前記ステップ
S201へ戻る。一方、前記ステップS202の判別の
結果、現在が「書き始め」の状態でない場合は、直ちに
ステップS204へ進む。
First, by examining the coordinate value at which the input pen 2 touches the transparent digitizer 3, it is first determined whether or not drawing has been performed, that is, whether or not drawing data is present on the input interface 4 (step S201). If there is drawing data, it is determined whether or not the current state is “start writing” (step S202). At this time, if there is no drawing data drawn immediately before, it is determined that the current state is “writing start”, while if there is drawing data drawn immediately before, the drawing is being performed, that is, the current state is “writing start”. It is determined that the state is not "." If the result of this determination is that the current state is "start writing", the drawing data buffer 13 is initialized as pen-down processing (step S203).
The drawing process is executed, that is, the drawing data currently drawn is sequentially input (step S204), and the process returns to step S201. On the other hand, if the result of determination in step S202 is that the current state is not "writing started", the process immediately proceeds to step S204.

【0030】前記ステップS201の判別の結果、描画
データが入力インターフェイス4にない場合は、現在が
「書き終わり」の状態であるか否かを判別する(ステッ
プS205)。その際、直前に描画された描画データが
ある場合は現在が「書き終わり」の状態であると判別す
る一方、直前に描画された描画データがない場合は、描
画データの入力を入力インターフェイス4が待機してい
る状態、すなわち現在が「書き終わり」の状態でないと
判別する。この判別の結果、現在が「書き終わり」の状
態でない場合は前記ステップS201に戻る一方、現在
が「書き終わり」の状態である場合は、ペンアップ処理
として、描画された描画データを入力インターフェイス
4から受容し(ステップS206)、描画データ認識処
理を実行すると共に、その認識結果(認識描画データ)
を描画データバッファ13に登録させて(ステップS2
07)、本処理を終了する。
If the result of determination in step S201 is that there is no drawing data in the input interface 4, it is determined whether or not the current state is "writing completed" (step S205). At this time, if there is drawing data drawn immediately before, it is determined that the current state is “end of writing”. On the other hand, if there is no drawing data drawn just before, the input interface 4 inputs the drawing data. It is determined that it is not in the waiting state, that is, the current state is the state of “writing end”. As a result of this determination, if the current state is not the “end of writing”, the process returns to the step S201. On the other hand, if the current state is the “end of the writing”, the drawn interface (Step S206), the drawing data recognition process is executed, and the recognition result (recognition drawing data)
Is registered in the drawing data buffer 13 (step S2).
07), this process ends.

【0031】この描画データの認識は、いわゆるジェス
チャ認識とも呼ばれ、公知の手法(例えば、特公平6−
67988号公報、特公平5−84540号公報等)に
より行うことができる。この手法によれば、例えば、描
画された曲線の軌跡、線図の描画方向、線図の形状、線
図の大きさ(ジェスチャの大きさ)等が認識される。こ
こで、線図の大きさは、1ストロークのジェスチャが含
まれる最小の矩形の面積である。上記認識描画データに
は、線図の大きさも含まれるものとする。
The recognition of the drawing data is also called so-called gesture recognition, and is performed by a known method (for example, Japanese Patent Publication No.
67988, Japanese Patent Publication No. 5-84540, etc.). According to this method, for example, the locus of the drawn curve, the drawing direction of the diagram, the shape of the diagram, the size of the diagram (the size of the gesture), and the like are recognized. Here, the size of the diagram is the area of the smallest rectangle that includes a one-stroke gesture. It is assumed that the recognition drawing data includes the size of the diagram.

【0032】なお、本処理が、ウィンドウシステム等に
おける1つのアプリケーションのプロセスとして実行さ
れるようにした場合にも、前記ステップS207の実行
後は他のアプリケーションを実行し、その後再び前記ス
テップS201からの処理を繰り返すようにすること
で、本処理の実行が継続される。
Note that, even when this processing is executed as a process of one application in a window system or the like, another application is executed after the execution of the step S207, and thereafter, the processing from the step S201 is repeated again. By repeating the processing, the execution of this processing is continued.

【0033】図3は、本実施の第1形態に係る音声出力
装置による音声出力処理の手順を示すフローチャートで
ある。本処理はCPU1により実行される。なお、本処
理は前述した描画データ認識処理とは非同期に実行する
ようにしてもよい。
FIG. 3 is a flowchart showing the procedure of the audio output processing by the audio output device according to the first embodiment. This process is executed by the CPU 1. This process may be executed asynchronously with the above-described drawing data recognition process.

【0034】まず、音声データが音声データバッファ1
5に存在するか否かを判別し(ステップS301)、存
在する場合は直ちにステップS303へ進む一方、音声
データが音声データバッファ15に存在しない場合は、
RAM14内の音声データファイルから音声データを読
み込んでから(ステップS302)、ステップS303
へ進む。ここで、テレビ会議システム等を通じてリアル
タイムに送られてくる音声データを読み込むようにして
もよい。また、上述したように、音声発生部10から音
声データを読み込むようにしてもよい。
First, the audio data is stored in the audio data buffer 1.
5 (step S301), and if it exists, the process immediately proceeds to step S303. On the other hand, if the audio data does not exist in the audio data buffer 15,
After reading the audio data from the audio data file in the RAM 14 (step S302), step S303 is performed.
Proceed to. Here, audio data transmitted in real time through a video conference system or the like may be read. Further, as described above, the audio data may be read from the audio generation unit 10.

【0035】続くステップS303では、本音声出力装
置が再生モードになっているか否かをチェックする。再
生モードとは、例えば液晶ディスプレイ7に表示された
再生ボタン等がオンに設定されている状態を指し、音声
出力中または音声出力が可能な状態であることを意味す
る。
In the following step S303, it is checked whether or not the present audio output device is in the reproduction mode. The reproduction mode refers to a state in which, for example, a reproduction button or the like displayed on the liquid crystal display 7 is set to ON, and means that a sound is being output or a state in which sound can be output.

【0036】次に、前記ステップS303におけるチェ
ックの結果に基づき、本音声出力装置が再生モードにな
っているか否かを判別し(ステップS304)、その判
別の結果、再生モードである場合は、後述する音声デー
タの出力特性の調整処理を実行し(ステップS30
5)、音声出力処理を実行する(ステップS306)。
この音声出力処理は、現在音声出力中でなければ音声出
力を開始する一方、現在音声出力中であればその出力を
継続する処理のことである。
Next, based on the result of the check in the step S303, it is determined whether or not the present audio output device is in the reproduction mode (step S304). The output characteristic of the audio data to be output is adjusted (step S30).
5) Execute the audio output processing (step S306).
This audio output process is a process in which audio output is started if audio output is not currently being performed, while output is continued if audio output is currently being performed.

【0037】次に、出力すべき音声データがなくなった
か否かを判別し(ステップS307)、出力すべき音声
データがなくなった場合は本処理を終了する。一方、出
力すべき音声データが残っている場合は、前記ステップ
S301へ戻る。
Next, it is determined whether or not there is no more audio data to be output (step S307). If there is no more audio data to be output, the process is terminated. On the other hand, if there is audio data to be output, the process returns to step S301.

【0038】前記ステップS304の判別の結果、本音
声出力装置が再生モードになってない場合は、直ちに本
処理を終了する。
If the result of the determination in step S304 is that the audio output device is not in the reproduction mode, the processing is immediately terminated.

【0039】図4は、図3のステップS305で実行さ
れる音声データ出力特性の調整処理の手順を示すフロー
チャートである。
FIG. 4 is a flowchart showing the procedure of the audio data output characteristic adjustment processing executed in step S305 of FIG.

【0040】まず、図2のステップS207において描
画データバッファ13に登録された認識描画データ(線
図の大きさを含む)を取得し(ステップS401)、操
作者が今回調整を行おうとしている対象が、スピーカ9
Lに対する音声データであるか否かを判別する(ステッ
プS402)。この判別は、以下のように描画の方向に
基づき行う。
First, the recognition drawing data (including the size of the diagram) registered in the drawing data buffer 13 in step S207 of FIG. 2 is obtained (step S401), and the object for which the operator is to perform the adjustment this time But the speaker 9
It is determined whether the data is audio data for L (step S402). This determination is made based on the drawing direction as described below.

【0041】図5は、図2のステップS207で認識さ
れた認識描画データの一例を示す図である。
FIG. 5 is a diagram showing an example of the recognition drawing data recognized in step S207 of FIG.

【0042】描画データの認識を簡素化するために、描
画する線図のパターンは、1ストロークのジェスチャと
する。すなわち、操作者によるいわゆる一筆書きの描画
動作によるものとする。また、横軸に周波数を、縦軸に
出力レベルを執った音声出力のパワースペクトラムのグ
ラフから容易に想像できる線図のパターン、すなわちジ
ェスチャを予め定め、これを操作者に描画させるように
する。これらのジェスチャには、描画された曲線の軌
跡、線図の描画方向、線図の形状、線図の大きさの情報
が少なくとも含まれるようにする。
In order to simplify the recognition of the drawing data, the pattern of the drawing to be drawn is a one-stroke gesture. That is, the drawing operation is performed by a so-called single-stroke drawing operation by the operator. Further, a pattern of a line diagram, that is, a gesture that can be easily imagined from a graph of the power spectrum of the audio output with the horizontal axis representing the frequency and the vertical axis representing the output level is determined in advance, and this is drawn by the operator. These gestures include at least information on the locus of the drawn curve, the drawing direction of the diagram, the shape of the diagram, and the size of the diagram.

【0043】このような条件にて描画された描画データ
は、図5のように始点から終点までの連続曲線の線図と
して認識される。各線図の意味は、次のように解釈す
る。
The drawing data drawn under such conditions is recognized as a diagram of a continuous curve from the start point to the end point as shown in FIG. The meaning of each diagram is interpreted as follows.

【0044】まず、操作者が今回、左右いずれのスピー
カに対する音声データを調整するかは、認識描画データ
の始点から左右いずれの方向に向かって描画するかによ
って指定する。従って、操作者が今回調整を行おうとし
ている対象が、左右いずれのスピーカに対する音声デー
タであるかは、認識描画データの始点から左右いずれの
方向に向かって描画されたかを座標値の入力順序に基づ
き認識することによって判別される。例えば認識描画デ
ータが、同図に示された2列の線図のうち左列の線図で
ある場合は、いずれもスピーカ9Lに対する音声データ
を調整対象としたものであると判別される。
First, whether the operator adjusts the voice data for the left or right speaker this time is designated by drawing in the left or right direction from the start point of the recognition drawing data. Therefore, whether the object that the operator is trying to adjust this time is the sound data for the left or right speaker depends on the input direction of the coordinate values based on whether the drawing is performed in the left or right direction from the start point of the recognition drawing data. It is determined by recognizing based on this. For example, when the recognition drawing data is the left-row diagram of the two-row diagram shown in the figure, it is determined that the audio data for the speaker 9L is to be adjusted.

【0045】全体音量の調整は、線図の大小により指定
する。全体音量の調整を指定するときの線図の形状は、
例えば同図(a)〜(d)に示す形状とする。従って、
例えば同図(a)に示すように、線図が大きい場合は全
体音量を大きく、同図(c)に示すように、線図が小さ
い場合は全体音量を小さく調整するものであると認識さ
れる。
The adjustment of the overall volume is designated by the magnitude of the diagram. The shape of the diagram when specifying the overall volume adjustment is
For example, the shapes shown in FIGS. Therefore,
For example, as shown in FIG. 7A, it is recognized that when the diagram is large, the whole sound volume is increased, and as shown in FIG. 7C, when the diagram is small, the whole sound volume is adjusted to be small. You.

【0046】各周波数成分毎の音量調整(部分強調)
は、線図の形状、例えば曲線の波形によって指定する。
例えば横軸に周波数を、縦軸に出力レベルを執った音声
出力のパワースペクトラムのグラフに対応させて描画す
る。同図(e)を例に揚げると、音声データのうち、同
図(e)の左側が低音部の出力レベル、右側が高音部の
出力レベルに対応する。従って、同図(e)に示すよう
な左下がりの曲線は、高音部の強調(音量増加調整)を
指定するものであると認識される。また同様に、同図
(g)は低音部の強調、同図(i)は高低音部の強調、
同図(k)は中間部の強調を指定するものであると認識
される。なお、前述したように、同図(e)(g)、
(i)及び(k)はいずれも、スピーカ9Lに対する音
声データについて指定するものであると認識される。
Volume adjustment for each frequency component (partial emphasis)
Is specified by the shape of a diagram, for example, the waveform of a curve.
For example, the horizontal axis represents the frequency, and the vertical axis represents the output level. Taking FIG. 3E as an example, of the audio data, the left side of FIG. 4E corresponds to the output level of the low-pitched portion and the right side corresponds to the output level of the high-pitched portion. Therefore, it is recognized that the downward-sloping curve as shown in FIG. 11E designates emphasis of a treble part (volume increase adjustment). Similarly, (g) in FIG. 7 emphasizes bass, and (i) emphasizes treble.
It is recognized that FIG. 9 (k) designates the emphasis of the middle part. As described above, FIG.
It is recognized that both (i) and (k) specify audio data for the speaker 9L.

【0047】なお、同図の右列に示された線図は、左列
に示された線図と同様の指定をスピーカ9Rについて行
った場合の描画データを示す図である。
The diagram shown in the right column of the figure is a diagram showing the drawing data when the same designation as the diagram shown in the left column is made for the speaker 9R.

【0048】図4に戻り、前記ステップS402の判別
の結果、操作者が今回調整を行おうとしている対象が、
スピーカ9Lに対する音声データである場合は、スピー
カ9Lに対する音声データについて、以下のステップS
403〜S405の処理を実行する。
Returning to FIG. 4, as a result of the determination in the step S402, the object that the operator is going to adjust this time is as follows.
If the audio data is for the speaker 9L, the following step S is performed for the audio data for the speaker 9L.
The processing of 403 to S405 is executed.

【0049】まず、ステップS403では、音量設定表
から音量の増減調整の比率を示す音量データ係数Kを取
得する。
First, in step S403, a volume data coefficient K indicating the ratio of volume increase / decrease adjustment is obtained from the volume setting table.

【0050】図6は、この音量設定表の一例を示す図で
あり、音量設定表に係るデータはRAM14に予め格納
されている。音量設定表は、音声データを5つの周波数
帯域(28(Hz)、148(Hz)、784(H
z)、4148(Hz)、2195(Hz))に分け、
各周波数帯域毎に音量データ係数Kを定めたものであ
る。また、音量データ係数Kは、認識結果として得られ
た認識描画データによって指定された音声データの出力
特性の調整内容(音量増加、音量減少、高音部強調等、
図5の認識描画データに対応する内容)に応じて定めら
れている。
FIG. 6 is a diagram showing an example of the volume setting table. Data relating to the volume setting table is stored in the RAM 14 in advance. The volume setting table shows that the audio data is divided into five frequency bands (28 (Hz), 148 (Hz), and 784 (H).
z), 4148 (Hz), 2195 (Hz))
The volume data coefficient K is determined for each frequency band. Further, the volume data coefficient K is used to adjust the output characteristics of the audio data specified by the recognition drawing data obtained as the recognition result (volume increase, volume decrease, treble enhancement, etc.
The content corresponding to the recognition drawing data in FIG. 5).

【0051】例えば、図5(e)に対応する高音部強調
の場合は、図6に示すように、784(Hz)における
音量データ係数Kを「0」として、これより低周波側に
なるほどマイナス傾向の大きい数値に設定し、これより
高周波側になるほどプラス傾向の大きい数値に設定す
る。
For example, in the case of treble emphasis corresponding to FIG. 5 (e), as shown in FIG. 6, the volume data coefficient K at 784 (Hz) is set to “0”, and the lower the frequency becomes, the lower the value becomes. The value is set to a numerical value having a large tendency, and is set to a numerical value having a positive tendency as the frequency becomes higher.

【0052】この音量設定表に定める数値は例示であ
り、操作者が自由に設定するほか、シンセサイザ8に予
め設定されたサンプリング周波数によって定めるように
してもよい。
The numerical values defined in the volume setting table are merely examples, and may be set freely by the operator, or may be determined based on a sampling frequency preset in the synthesizer 8.

【0053】図4に戻り、続くステップS404では、
線図の大きさ(ジェスチャの大きさ)から音量データV
を設定する。具体的には、認識された線図の大きさを
L、各ジェスチャ毎に予め設定された標準的な大きさを
M、実験により求められる適当な定数をTとすると、音
量データVは、V=(L−M)+T×Kにより各周波数
帯域毎に求めることができる。
Returning to FIG. 4, in the following step S404,
From the size of the diagram (the size of the gesture) to the volume data V
Set. Specifically, assuming that the size of the recognized diagram is L, the standard size set in advance for each gesture is M, and an appropriate constant obtained by experiment is T, the volume data V is V = (LM) + T × K for each frequency band.

【0054】続くステップS405では、上記求めた音
量データVをシンセサイザ8に各周波数帯域毎に設定す
ることにより、スピーカ9Lの音量、すなわち音声出力
レベルを設定し、本処理を終了する。
In the following step S405, the sound volume data V thus obtained is set in the synthesizer 8 for each frequency band, thereby setting the sound volume of the speaker 9L, that is, the sound output level, and this processing ends.

【0055】一方、前記ステップS402の判別の結
果、操作者が今回調整を行おうとしている対象が、スピ
ーカ9Rに対する音声データである場合は、スピーカ9
Rに対する音声データについて、ステップS406〜S
408の処理を実行する。この処理は、前記ステップS
403〜S405の処理と同様である。
On the other hand, if the result of the determination in step S402 is that the operator intends to make adjustments this time is audio data for the speaker 9R, the speaker 9
Steps S406 to S
408 is executed. This processing is performed in step S
This is the same as the processing of 403 to S405.

【0056】図2、図3及び図4の処理によれば、マウ
ス操作等の音声データの出力特性のイメージとは無関係
で煩雑な操作を必要とすることなく、意図する音声デー
タの出力特性の調整を簡単な操作で的確且つ容易に実現
することができる。
According to the processing shown in FIGS. 2, 3, and 4, the output characteristic of the intended audio data is not required without complicated operation irrespective of the image of the output characteristic of the audio data such as mouse operation. The adjustment can be accurately and easily realized by a simple operation.

【0057】また、スピーカの左右の選択、音量の周波
数帯域毎の設定、全体音量の設定等、複数の出力特性の
調整を最小限の描画にて同時に指定することができるの
で、操作性を著しく向上することができる。
Further, since adjustment of a plurality of output characteristics such as selection of left and right of a speaker, setting of each sound frequency band, and setting of the whole sound volume can be simultaneously designated with minimum drawing, operability is remarkably improved. Can be improved.

【0058】さらに、画面上の操作等の、視覚に依存す
る作業を最小減に抑えることができるので、操作による
疲労を低減することができ、視覚障害者等にとっては特
に有用である。
Further, since work that depends on vision, such as operation on the screen, can be minimized, fatigue due to operation can be reduced, which is particularly useful for visually impaired persons and the like.

【0059】(実施の第2形態)以下に、本発明の実施
の2形態に係る音声出力装置を説明する。
(Second Embodiment) Hereinafter, an audio output device according to a second embodiment of the present invention will be described.

【0060】本実施の第2形態に係る音声出力装置は、
実施の第1形態に係る音声出力装置とその構成が基本的
同一であり、図1に示す通りである。なお、実施の第1
形態に係る音声出力装置と同一の構成要素には同一の符
号を付してその説明を省略する。
The audio output device according to the second embodiment is
The configuration of the audio output device according to the first embodiment is basically the same as that of the audio output device according to the first embodiment, and is as shown in FIG. The first of the implementation
The same components as those of the audio output device according to the embodiment are denoted by the same reference numerals, and description thereof will be omitted.

【0061】本実施の第2形態では、認識描画データに
基づき調整する対象を、音声データの周波数全体(音声
データの再生速度)に限定した点のみが実施の第1形態
と異なる。従って、音声データ出力特性の調整処理は、
図4に代えて図7に示し、認識描画データの一例は、図
5に代えて図8に示す。
The second embodiment differs from the first embodiment only in that the adjustment target based on the recognition drawing data is limited to the entire frequency of the audio data (the reproduction speed of the audio data). Therefore, the adjustment processing of the audio data output characteristics
FIG. 7 replaces FIG. 4 and an example of the recognition drawing data is illustrated in FIG. 8 instead of FIG.

【0062】図7は、図3のステップS305で実行さ
れる音声データ出力特性の調整処理の手順を示すフロー
チャートである。
FIG. 7 is a flowchart showing the procedure of the audio data output characteristic adjustment processing executed in step S305 of FIG.

【0063】まず、図2のステップS207において描
画データバッファ13に登録された認識描画データを取
得し(ステップS701)、取得された線図の大きさ
が、音声データの周波数を上昇させるべきことを意味す
るものであるか否かを判別する(ステップS702)。
First, in step S207 in FIG. 2, the recognition drawing data registered in the drawing data buffer 13 is obtained (step S701), and it is determined that the size of the obtained diagram should increase the frequency of the audio data. It is determined whether or not it means (step S702).

【0064】図8は、図2のステップS207で認識さ
れた認識描画データの一例を示す図である。本実施の第
2形態では調整対象が音声データの周波数全体のみであ
るので、描画データは線図の大きさのみで足りる。
FIG. 8 is a diagram showing an example of the recognized drawing data recognized in step S207 of FIG. In the second embodiment, since the adjustment target is only the entire frequency of the audio data, the drawing data only needs to be the size of the diagram.

【0065】周波数全体の調整を指定するときの線図の
形状は、例えば同図(a)〜(d)に示すような直観的
に判り易い形状とし、周波数全体の上昇/低下の選択は
線図の大/小で指定し、上昇または低下の度合いは線図
の上下の向きで指定する。従って、同図(a)は周波数
全体を上昇、同図(b)は少し上昇、同図(c)は低
下、同図(d)は少し低下させるように調整するもので
あると認識される。
When the adjustment of the whole frequency is designated, the shape of the diagram should be intuitively understandable, for example, as shown in FIGS. The size is designated by the size of the figure, and the degree of ascending or descending is designated by the vertical direction of the diagram. Therefore, it is recognized that the adjustment is performed so that the entire frequency is increased in FIG. 11A, the frequency is slightly increased in FIG. 11B, the frequency is decreased in FIG. 11C, and the frequency is slightly decreased in FIG. .

【0066】図7に戻り、ステップS702の判別の結
果、取得された線図の大きさが、音声データの周波数を
上昇させるべきことを意味するものである場合は、認識
された線図の大きさに応じて音声データの再生速度を増
加させるべく、再生速度データV2を求める(ステップ
S703)。具体的には、認識された線図の大きさをL
2、実験により求められる適当な定数をT2、現在の再
生速度データをV0とすると、再生速度データV2は、
V2=V0+L2×T2により求められる。
Returning to FIG. 7, if the size of the acquired diagram indicates that the frequency of the audio data should be increased as a result of the determination in step S702, the size of the recognized diagram is determined. The reproduction speed data V2 is obtained in order to increase the reproduction speed of the audio data accordingly (step S703). Specifically, the size of the recognized diagram is represented by L
2. Assuming that an appropriate constant obtained by experiment is T2 and the current reproduction speed data is V0, the reproduction speed data V2 is
V2 = V0 + L2 × T2.

【0067】続くステップS705では、求められた再
生速度データV2をシンセサイザ8に設定することによ
り、音声データの周波数全体を調整(この場合は上昇さ
せる)して本処理を終了する。
In the following step S705, by setting the obtained reproduction speed data V2 in the synthesizer 8, the entire frequency of the audio data is adjusted (in this case, increased), and this processing is ended.

【0068】一方前記ステップS702の判別の結果、
取得された線図の大きさが、音声データの周波数を上昇
させるべきことを意味するものでない場合は、認識され
た線図の大きさに応じて音声データの再生速度を減少さ
せるべく、再生速度データV3を求める(ステップS7
04)。具体的には、再生速度データV3は、V3=V
0−L2×T2により求められる。続くステップS70
5では、求められた再生速度データV3をシンセサイザ
8に設定することにより、音声データの周波数全体を調
整(この場合は低下させる)して本処理を終了する。
On the other hand, as a result of the determination in step S702,
If the size of the obtained diagram does not mean that the frequency of the audio data should be increased, the playback speed should be reduced to reduce the playback speed of the audio data according to the size of the recognized diagram. Find data V3 (step S7)
04). Specifically, the reproduction speed data V3 is V3 = V
It is determined by 0−L2 × T2. Subsequent step S70
In step 5, the obtained reproduction speed data V3 is set in the synthesizer 8, thereby adjusting (in this case, lowering) the entire frequency of the audio data, and terminating the present process.

【0069】本処理によれば、音声データの周波数全体
の調整に関して、実施の第1形態と同様の効果を得るこ
とができる。
According to this processing, the same effect as in the first embodiment can be obtained with respect to adjustment of the entire frequency of audio data.

【0070】なお、実施の第1形態と実施の第2形態と
を別々の形態として説明したが、両者を合体させた形態
としてもよい。すなわち、実施の第1形態に係るスピー
カの左右の選択、音量の周波数帯域毎の設定及び全体音
量の設定等の調整処理のモードと、実施の第2形態に係
る音声データの周波数全体の調整処理のモードの双方を
設定できるように構成するようにしてもよい。
Although the first embodiment and the second embodiment have been described as separate forms, they may be combined. That is, the mode of the adjustment processing such as the selection of the left and right of the speaker, the setting of each sound frequency band, and the setting of the whole sound volume according to the first embodiment, and the adjustment processing of the entire frequency of the audio data according to the second embodiment. May be configured so that both modes can be set.

【0071】なお、描画データや調整対象となる音声デ
ータの出力特性は、実施の形態で例示したものに限るも
のではない。
The output characteristics of drawing data and audio data to be adjusted are not limited to those exemplified in the embodiment.

【0072】[0072]

【発明の効果】以上説明したように、本発明の請求項1
に係る音声出力方法または請求項6に係る音声出力装置
によれば、描画データが受容され、該受容された描画デ
ータに基づいて音声データの出力特性が調整されるの
で、煩雑な操作を必要とすることなく、意図する音声デ
ータの出力特性の調整を容易に実現することができる。
特に、視覚に依存する作業を最小減に抑えることができ
るので、操作による疲労を低減することができる。
As described above, according to the first aspect of the present invention,
According to the audio output method according to the first aspect or the audio output device according to the sixth aspect, since the drawing data is received and the output characteristics of the audio data are adjusted based on the received drawing data, a complicated operation is required. Therefore, the adjustment of the output characteristics of the intended audio data can be easily realized without performing.
In particular, work that depends on vision can be minimized, so that fatigue due to operation can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の第1形態に係る音声出力装置の
全体構成を示すブロック図である。
FIG. 1 is a block diagram showing an overall configuration of an audio output device according to a first embodiment of the present invention.

【図2】同装置による描画データの認識処理の手順を示
すフローチャートである。
FIG. 2 is a flowchart illustrating a procedure of a drawing data recognition process performed by the apparatus.

【図3】同装置による音声出力処理の手順を示すフロー
チャートである。
FIG. 3 is a flowchart showing a procedure of a sound output process by the device.

【図4】同装置による音声データ出力特性の調整処理の
手順を示すフローチャートである。
FIG. 4 is a flowchart showing a procedure of audio data output characteristic adjustment processing by the device.

【図5】同装置による描画データの認識処理により認識
された認識描画データの一例を示す図である。
FIG. 5 is a diagram illustrating an example of recognized drawing data recognized by the drawing data recognition process performed by the apparatus.

【図6】同装置における音量設定表の一例を示す図であ
る。
FIG. 6 is a diagram showing an example of a volume setting table in the device.

【図7】本発明の実施の第2形態に係る音声出力装置に
よる音声データ出力特性の調整処理の手順を示すフロー
チャートである。
FIG. 7 is a flowchart illustrating a procedure of an audio data output characteristic adjustment process performed by the audio output device according to the second embodiment of the present invention.

【図8】同装置による描画データの認識処理により認識
された認識描画データの一例を示す図である。
FIG. 8 is a diagram showing an example of recognized drawing data recognized by a drawing data recognition process performed by the apparatus.

【符号の説明】[Explanation of symbols]

1 CPU 2 入力ペン 3 透明デジタイザ 4 入力インターフェイス 8 シンセサイザ 9L スピーカ 9R スピーカ 10 音声発生部 12 記憶部 13 描画データバッファ 14 RAM 15 音声データバッファ Reference Signs List 1 CPU 2 input pen 3 transparent digitizer 4 input interface 8 synthesizer 9L speaker 9R speaker 10 sound generator 12 storage unit 13 drawing data buffer 14 RAM 15 sound data buffer

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 音声データを出力する音声出力方法にお
いて、描画データを受容する受容工程と、該受容工程に
おいて受容された描画データに基づいて前記音声データ
の出力特性を調整する調整工程とを含むことを特徴とす
る音声出力方法。
1. An audio output method for outputting audio data, comprising: a receiving step of receiving drawing data; and an adjusting step of adjusting an output characteristic of the audio data based on the drawing data received in the receiving step. An audio output method characterized by the following.
【請求項2】 前記音声データの出力特性は、音量及び
周波数の少なくとも一方を含むことを特徴とする請求項
1記載の音声出力方法。
2. The audio output method according to claim 1, wherein the output characteristics of the audio data include at least one of a volume and a frequency.
【請求項3】 前記受容工程において受容された描画デ
ータに係る線図を認識する認識工程を含み、前記調整工
程は、前記認識工程において認識された線図の形状に応
じて前記音量を所定の周波数帯域毎に増減する音量増減
工程を含むことを特徴とする請求項2記載の音声出力方
法。
3. A recognition step of recognizing a diagram related to the drawing data received in the receiving step, wherein the adjusting step includes adjusting the sound volume according to a shape of the diagram recognized in the recognition step. 3. The audio output method according to claim 2, further comprising a sound volume increasing / decreasing step of increasing / decreasing for each frequency band.
【請求項4】 前記受容工程において受容された描画デ
ータに係る線図を認識する認識工程を含み、前記調整工
程は、前記認識工程において認識された線図の大きさに
応じて前記音声データの周波数全体を昇降させる周波数
昇降工程を含むことを特徴とする請求項2記載の音声出
力方法。
4. A recognition step for recognizing a diagram relating to the drawing data received in the receiving step, wherein the adjusting step includes the step of recognizing the voice data in accordance with the size of the diagram recognized in the recognition step. 3. The audio output method according to claim 2, further comprising a frequency raising / lowering step of raising / lowering the entire frequency.
【請求項5】 前記音声データを複数のスピーカにそれ
ぞれ出力する出力工程と、前記受容工程において受容さ
れた描画データに係る線図の描画方向を認識する描画方
向認識工程を含み、前記調整工程は、前記描画方向認識
工程において認識された線図の描画方向に応じて前記複
数のスピーカに出力される音声データの出力特性をそれ
ぞれ個別に調整する個別調整工程を含むことを特徴とす
る請求項1〜4のいずれか1項に記載の音声出力方法。
5. An output step of outputting the audio data to a plurality of speakers, and a drawing direction recognition step of recognizing a drawing direction of a diagram related to the drawing data received in the receiving step, wherein the adjusting step is And an individual adjustment step of individually adjusting output characteristics of audio data output to the plurality of speakers according to the drawing direction of the diagram recognized in the drawing direction recognition step. The audio output method according to any one of claims 1 to 4.
【請求項6】 音声データを出力する音声出力装置にお
いて、描画データを受容する受容手段と、該受容手段に
より受容された描画データに基づいて前記音声データの
出力特性を調整する調整手段とを備えたことを特徴とす
る音声出力装置。
6. An audio output device for outputting audio data, comprising: receiving means for receiving drawing data; and adjusting means for adjusting an output characteristic of the audio data based on the drawing data received by the receiving means. An audio output device characterized by the following.
【請求項7】 前記音声データの出力特性は、音量及び
周波数の少なくとも一方を含むことを特徴とする請求項
6記載の音声出力装置。
7. The audio output device according to claim 6, wherein the output characteristics of the audio data include at least one of a volume and a frequency.
【請求項8】 前記受容手段により受容された描画デー
タに係る線図を認識する認識手段を備え、前記調整手段
は、前記認識手段により認識された線図の形状に応じて
前記音量を所定の周波数帯域毎に増減する音量増減手段
を備えたことを特徴とする請求項7記載の音声出力装
置。
8. A recognizing device for recognizing a diagram related to drawing data received by the receiving device, wherein the adjusting device adjusts the volume according to a shape of the diagram recognized by the recognizing device. 8. The audio output device according to claim 7, further comprising a volume increasing / decreasing unit that increases / decreases for each frequency band.
【請求項9】 前記受容手段により受容された描画デー
タに係る線図を認識する認識手段を備え、前記調整手段
は、前記認識手段により認識された線図の大きさに応じ
て前記音声データの周波数全体を昇降させる周波数昇降
手段を備えたことを特徴とする請求項7記載の音声出力
装置。
9. An image processing apparatus comprising: a recognition unit configured to recognize a diagram related to drawing data received by the reception unit; and the adjustment unit configured to generate the voice data according to a size of the diagram recognized by the recognition unit. 8. The audio output device according to claim 7, further comprising frequency raising / lowering means for raising / lowering the entire frequency.
【請求項10】 前記音声データを複数のスピーカにそ
れぞれ出力する出力手段と、前記受容手段により受容さ
れた描画データに係る線図の描画方向を認識する描画方
向認識手段を備え、前記調整手段は、前記描画方向認識
手段により認識された線図の描画方向に応じて前記複数
のスピーカに出力される音声データの出力特性をそれぞ
れ個別に調整する個別調整手段を備えたことを特徴とす
る請求項6〜9のいずれか1項に記載の音声出力装置。
10. An output unit for outputting the audio data to a plurality of speakers, and a drawing direction recognizing unit for recognizing a drawing direction of a diagram related to the drawing data received by the receiving unit. And an individual adjusting unit for individually adjusting output characteristics of audio data output to the plurality of speakers in accordance with the drawing direction of the diagram recognized by the drawing direction recognizing unit. The audio output device according to any one of claims 6 to 9.
JP18686796A 1996-06-28 1996-06-28 Method and device for speech output Pending JPH1021048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18686796A JPH1021048A (en) 1996-06-28 1996-06-28 Method and device for speech output

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18686796A JPH1021048A (en) 1996-06-28 1996-06-28 Method and device for speech output

Publications (1)

Publication Number Publication Date
JPH1021048A true JPH1021048A (en) 1998-01-23

Family

ID=16196067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18686796A Pending JPH1021048A (en) 1996-06-28 1996-06-28 Method and device for speech output

Country Status (1)

Country Link
JP (1) JPH1021048A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317159A (en) * 2006-05-26 2007-12-06 Uniwill Computer Corp Input apparatus of electronic device and input method thereof
JP2011039845A (en) * 2009-08-12 2011-02-24 Jvc Kenwood Holdings Inc Display, setting device, program and display method
JP2012043107A (en) * 2010-08-17 2012-03-01 Nippon Telegr & Teleph Corp <Ntt> Information input device
JP2013205953A (en) * 2012-03-27 2013-10-07 Nippon Telegr & Teleph Corp <Ntt> Single-stroke graphic direction detection device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317159A (en) * 2006-05-26 2007-12-06 Uniwill Computer Corp Input apparatus of electronic device and input method thereof
JP2011039845A (en) * 2009-08-12 2011-02-24 Jvc Kenwood Holdings Inc Display, setting device, program and display method
JP2012043107A (en) * 2010-08-17 2012-03-01 Nippon Telegr & Teleph Corp <Ntt> Information input device
JP2013205953A (en) * 2012-03-27 2013-10-07 Nippon Telegr & Teleph Corp <Ntt> Single-stroke graphic direction detection device

Similar Documents

Publication Publication Date Title
US20230185447A1 (en) Information Processing Device, Operation Input Method And Operation Input Program
CN110275664B (en) Apparatus, method and graphical user interface for providing audiovisual feedback
EP2917824B1 (en) Information processing apparatus, information processing method, and program
JPH10269022A (en) Portable information processor with communication function
JP2007317159A (en) Input apparatus of electronic device and input method thereof
JPWO2011034097A1 (en) Electronic device using touch panel and method for changing set value
WO2023207120A1 (en) Information processing method and apparatus, readable medium, electronic device, and program product
JPH09231006A (en) Portable information processor
US20230054717A1 (en) Ui control generation and trigger methods, and terminal
WO2013024530A1 (en) Mobile electronic device and key display program
KR101909540B1 (en) Method of user input of portable device using virtual input area
EP2497005A2 (en) Method and medium for inputting korean characters for touch screen
CN110109730B (en) Apparatus, method and graphical user interface for providing audiovisual feedback
US20190179474A1 (en) Control method, electronic device, and non-transitory computer readable recording medium
JPH1021048A (en) Method and device for speech output
KR20170015039A (en) Terminal apparatus, audio system and method for controlling sound volume of external speaker thereof
US20150185988A1 (en) Method, apparatus and recording medium for guiding text editing position
CN113900758B (en) Content display method, apparatus, computer device, and computer-readable storage medium
JP2018195180A (en) Electronic apparatus, method for controlling the same, and control program
JP2982815B2 (en) Data processing device
WO2007064080A1 (en) Key input apparatus and method using direction-selector, and character input method using the same
KR20150014139A (en) Method and apparatus for providing display information
JP2002366294A (en) Data input device and program thereof
KR20240050224A (en) Electronic device and method for improving force touch operation thereof
CN114296599A (en) Interface interaction method, device, terminal and storage medium