JP2015014829A - Electronic device, program for realizing electronic device control method, and method for controlling electronic device - Google Patents

Electronic device, program for realizing electronic device control method, and method for controlling electronic device Download PDF

Info

Publication number
JP2015014829A
JP2015014829A JP2013139689A JP2013139689A JP2015014829A JP 2015014829 A JP2015014829 A JP 2015014829A JP 2013139689 A JP2013139689 A JP 2013139689A JP 2013139689 A JP2013139689 A JP 2013139689A JP 2015014829 A JP2015014829 A JP 2015014829A
Authority
JP
Japan
Prior art keywords
sound
function
electronic device
generated
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013139689A
Other languages
Japanese (ja)
Other versions
JP6186955B2 (en
Inventor
敦史 深田
Atsushi Fukada
敦史 深田
浩平 鈴木
Kohei Suzuki
浩平 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2013139689A priority Critical patent/JP6186955B2/en
Publication of JP2015014829A publication Critical patent/JP2015014829A/en
Application granted granted Critical
Publication of JP6186955B2 publication Critical patent/JP6186955B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic device for conveniently recording sound used for functional guide and capable of improving the discriminability of a user about a guide content, a program for realizing a control method for the electronic device, and a method for controlling the electronic device.SOLUTION: For example, a case may be assumed in which a "Sound" tab 10a1 in a voice edit screen 10a is designated, sounds "re, fa, la" generated by the user by playing the same on a keyboard are recorded and correlated with a "Sound" function as a sign sound, and further "reproduction in order of (c) sound guide → sign sound" is set from a sign sound reproduction setting screen 10b as a method for reproducing the sign sound. In this case, when the user selects the "Sound" tab 10a1, a sound guide "Sound" is produced from a sound system and then the sounds "re, fa, la" are produced once, and the display screen on a touch panel is transitioned from the voice edit screen 10a to a screen, being the same as the voice edit screen, which is brought up when a "Sound" item is selected.

Description

本発明は、複数の機能からユーザが選択した機能をガイドする電子機器、当該電子機器の制御方法を実現するためのプログラムおよび当該電子機器の制御方法に関する。   The present invention relates to an electronic device that guides a function selected by a user from a plurality of functions, a program for realizing a control method for the electronic device, and a control method for the electronic device.

ユーザ操作により選択された機能を、音声によってガイドする電子機器は、従来から知られている。   2. Description of the Related Art Conventionally, an electronic device that guides a function selected by a user operation by voice is known.

このような電子機器として、音声ガイド用の音声ファイルが各種記憶されたメモリカードが挿入されると、その記憶された各種音声ファイルのうち、ユーザが指示した機能に対応する音声ファイルを再生して音声ガイドを行うようにした複合機がある(たとえば、特許文献1参照)。そして特許文献1には、メモリカードに記憶された音声ファイルを簡単にカスタマイズでき、さらに既製の音声ファイルだけでなく、ユーザが発した音声に基づいて作成された音声ファイルもメモリカードに保存できるようにした情報処理装置も記載されている。   As such an electronic device, when a memory card in which various voice guide voice files are stored is inserted, a voice file corresponding to a function instructed by the user is reproduced from the stored voice files. There is a multi-function machine that performs voice guidance (for example, see Patent Document 1). In Patent Document 1, an audio file stored in a memory card can be easily customized, and not only an off-the-shelf audio file but also an audio file created based on user-generated audio can be stored in the memory card. An information processing apparatus is also described.

特開2009−87135号公報JP 2009-87135 A

しかし、上記従来の電子機器では、当該機器の機能が多機能であればあるほど、音声ガイドの必要性は高まるものの、多機能な機器ほど、音声ファイルのカスタマイズ作業や録音作業が大変になる上、音声ガイドを聞く際にもガイド内容の識別が困難になる。   However, in the above-mentioned conventional electronic device, the more the functions of the device are, the higher the necessity of voice guidance is. However, the more functional devices are, the more difficult the task of customizing and recording audio files. When listening to a voice guide, it becomes difficult to identify the content of the guide.

特に視覚障害を持つユーザにとって、音声ガイドは機器の設定状態や操作方法を知る上でなくてはならないものであるが、多機能な機器の音声ガイドでは、次のような問題が起こる。すなわち、
A.似たような機能が多くなることで、説明的な(長い文章での)音声ガイドが必要になり、その結果、音声ファイルを作成する際の録音作業が大変になる一方で、このようにして作成された音声ファイルを再生しても、長いガイド内容を最後まで聞きたくないために、ガイド内容の識別性が低下する;
B.単にメニュー名だけを知らせる通常の音声ガイドでは、複雑なパラメータ構造や画面構造などを視覚的に把握できない視覚障害者のユーザにとっては、機器を操作することが困難である;
などである。
For users with visual impairments in particular, the voice guide is indispensable for knowing the setting state and operation method of the device, but the following problems occur in the voice guide of a multifunctional device. That is,
A. While many similar features require descriptive (long text) audio guidance, this can make recording work difficult when creating audio files, Even if the created audio file is played back, the guide content is less identifiable because the user does not want to listen to the long guide content until the end;
B. It is difficult for visually impaired users who cannot visually understand complicated parameter structures and screen structures to operate the device with the usual voice guidance that simply informs the menu name;
Etc.

本発明は、この点に着目してなされたものであり、機能ガイドに使用する音を手軽に録音し、かつガイド内容についてのユーザの識別性を向上させることが可能となる電子機器、当該電子機器の制御方法を実現するためのプログラムおよび当該電子機器の制御方法を提供することを目的とする。   The present invention has been made paying attention to this point, and can easily record the sound used for the function guide and improve the user's distinguishability with respect to the guide contents, the electronic device It is an object to provide a program for realizing a device control method and a method for controlling the electronic device.

上記目的を達成するため、請求項1に記載の電子機器は、複数の機能を備えた電子機器であって、前記複数の機能から、ユーザの指示に応じた機能を選択する選択手段と、複数種類の音を発生可能な発音手段と、前記発音手段から発生された音または当該発生音の基礎となる音情報を記録する録音手段と、前記録音手段によって記録された発生音または音情報と、前記複数の機能のうちのいずれかとの対応付けを記憶する記憶手段と、前記選択手段によっていずれかの機能が選択されたときに、前記記憶手段に記憶された対応付けによって当該機能に対応付けられた発生音または音情報に基づく音を再生する再生手段とを有することを特徴とする。   In order to achieve the above object, an electronic device according to claim 1 is an electronic device having a plurality of functions, and a selection unit that selects a function according to a user instruction from the plurality of functions, and a plurality of functions Sound generation means capable of generating a kind of sound, sound recording means for recording sound generated from the sound generation means or sound information that is the basis of the generated sound, generated sound or sound information recorded by the recording means, The storage unit that stores the association with any one of the plurality of functions, and when any function is selected by the selection unit, the association is associated with the function by the association stored in the storage unit. And reproducing means for reproducing a sound based on the generated sound or sound information.

請求項2に記載の電子機器は、請求項1の電子機器において、前記選択手段によっていずれかの機能が選択されたときに、当該機能に対応するガイド音声を発生するガイド手段をさらに有することを特徴とする。   The electronic device according to claim 2 further includes guide means for generating a guide sound corresponding to the function when any function is selected by the selection means in the electronic device according to claim 1. Features.

請求項3に記載の電子機器は、請求項2の電子機器において、前記選択手段によっていずれかの機能が選択されたときに、前記再生手段に対して前記発生音または音情報に基づく音の再生を行わせるとともに、前記ガイド手段に対して当該機能に対応するガイド音声を発生させるように制御する制御手段をさらに有することを特徴とする。   According to a third aspect of the present invention, in the electronic device according to the second aspect, when any function is selected by the selection unit, the reproduction unit reproduces sound based on the generated sound or sound information. And a control means for controlling the guide means to generate a guide sound corresponding to the function.

請求項4に記載の電子機器は、請求項2の電子機器において、前記選択手段によっていずれかの機能が選択されたときに、前記ガイド手段に対しては当該機能に対応するガイド音声を発生させず、前記再生手段に対して前記発生音または音情報に基づく音の再生を行わせるように制御する制御手段をさらに有することを特徴とする。   According to a fourth aspect of the present invention, in the electronic device according to the second aspect, when any function is selected by the selection unit, the guide unit generates a guide voice corresponding to the function. And further comprising control means for controlling the reproduction means to reproduce the sound based on the generated sound or the sound information.

請求項5に記載の電子機器は、請求項1〜4のいずれかの電子機器において、前記発音手段は、前記複数種類の音を、その音高および/または音色を変えることによって発生することを特徴とする。   The electronic device according to claim 5 is the electronic device according to any one of claims 1 to 4, wherein the sound generation unit generates the plurality of types of sounds by changing a pitch and / or a timbre. Features.

上記目的を達成するため、請求項請求項6および7にそれぞれ記載のプログラムおよび制御方法は、請求項1と同様の技術的思想によって実現できる。   In order to achieve the above object, the program and the control method described in claims 6 and 7 can be realized by the same technical idea as in claim 1.

請求項1,6または7に記載の発明によれば、複数種類の音を発生可能な発音手段から発生された音または当該発生音の基礎となる音情報が記録され、当該発生音または音情報と複数の機能のうちのいずれかとの対応付けが記憶手段に記憶され、前記複数の機能のうちのいずれかが選択されたときに、前記記憶手段に記憶された対応付けによって当該機能に対応付けられた発生音または音情報に基づく音が再生されるので、つまり、再生対象の発生音または音情報は、自身の発音手段から発生された音または当該発生音の基礎となる音情報を記録したものであるので、機能ガイドに使用する音を手軽に作成することができる。また機能ガイドは、音によって行うので、つまり複雑な内容の音声によっては行わないので、ガイド内容についてのユーザの識別性も向上する。   According to the invention described in claim 1, 6 or 7, the sound generated from the sound generating means capable of generating a plurality of types of sound or the sound information as the basis of the generated sound is recorded, and the generated sound or sound information is recorded. Is stored in the storage means, and when any of the plurality of functions is selected, it is associated with the function by the association stored in the storage means Sound generated based on the generated sound or sound information is reproduced, that is, the generated sound or sound information to be reproduced is recorded sound generated from its own sound generation means or sound information that is the basis of the generated sound. Since it is a thing, the sound used for a function guide can be created easily. In addition, since the function guide is performed by sound, that is, not performed by sound having complicated contents, the user's distinguishability about the guide contents is improved.

請求項3に記載の発明によれば、前記複数の機能のうちのいずれかが選択されたときに、当該機能に対応付けられた発生音または音情報に基づく音の再生に加えて、当該機能に対応するガイド音声も発生するので、既存の音声ガイドを活用しつつも、音声ガイドによるガイド内容の識別性を向上させることができる。   According to the third aspect of the present invention, when any one of the plurality of functions is selected, in addition to the sound reproduction based on the generated sound or the sound information associated with the function, the function Since the guide voice corresponding to is also generated, the discriminability of the guide content by the voice guide can be improved while using the existing voice guide.

請求項4に記載の発明によれば、前記複数の機能のうちのいずれかが選択されたときに、当該機能に対応するガイド音声は発生せずに、当該機能に対応付けられた発生音または音情報に基づく音の再生のみがなされるので、音声ガイドを必要としないユーザの要望に応えることができる。   According to a fourth aspect of the present invention, when any one of the plurality of functions is selected, a guide sound corresponding to the function is not generated, and a generated sound associated with the function or Since only the sound reproduction based on the sound information is performed, it is possible to meet the demand of the user who does not need an audio guide.

請求項5に記載の発明によれば、前記複数種類の音はその音高および/または音色を変えることによって発生するので、つまり、様々な機能に様々な種類の音を対応付けて再生するようにしたので、ユーザは、当該電子機器の複雑な機能構造や画面構造までも簡単に識別することができる。   According to the fifth aspect of the present invention, the plurality of types of sounds are generated by changing their pitches and / or timbres, that is, various types of sounds are associated with various functions and reproduced. Therefore, the user can easily identify even the complicated functional structure and screen structure of the electronic device.

本発明の一実施の形態に係る電子機器の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the electronic device which concerns on one embodiment of this invention. 図1中の表示器のタッチパネル上に表示された画面の一例を示す図である。It is a figure which shows an example of the screen displayed on the touchscreen of the indicator in FIG. 図1の電子機器、特にCPUが実行するサイン音の録音および対応付け処理の手順を示すフローチャートである。3 is a flowchart showing a procedure of recording and associating a signature sound executed by the electronic device of FIG. 1, particularly a CPU. サイン音データと音声ガイドデータの対応付けの一例((a))と、サイン音データの内容の一例((b))を示す図である。It is a figure which shows an example ((a)) of matching of signature sound data and audio | voice guide data, and an example ((b)) of the content of signature sound data. 図1の電子機器、特にCPUが実行する音声ガイドの再生処理の手順を示すフローチャートである。2 is a flowchart showing a procedure of audio guide reproduction processing executed by the electronic device of FIG. 1, particularly a CPU.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る電子機器100の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of an electronic device 100 according to an embodiment of the present invention.

同図に示すように、本実施の形態の電子機器100は、音高情報を含む演奏データを入力するための鍵盤を含む演奏操作子1と、各種情報を入力するための複数のスイッチ、ノブ、スライダおよびダイヤルを含む設定操作子2と、周囲の音声を集音して音声信号に変換するマイクロフォン(以下「マイク」と略して言う)3と、演奏操作子1の操作状態を検出する検出回路4と、設定操作子2の操作状態を検出する検出回路5と、マイク3から出力された音声信号を入力する音声入力インターフェース(I/F)6と、装置全体の制御を司るCPU7と、該CPU7が実行する制御プログラムや各種テーブルデータ等を記憶するROM8と、演奏データ、各種入力情報および演算結果等を一時的に記憶するRAM9と、各種情報等を表示する、たとえばタッチパネル形式の液晶ディスプレイ(LCD)(以下「タッチパネル」と略す)および発光ダイオード(LED)等を備えた表示器10と、前記制御プログラムを含む各種アプリケーションプログラムや各種楽曲データ、音声ガイド用の音声データ、各種データ等を記憶する記憶装置11と、図示しない外部機器を接続し、この外部機器とデータの送受信を行う通信インターフェース(I/F)12と、演奏操作子1から入力された演奏データや、前記記憶装置11に記憶されたいずれかの楽曲データを再生して得られた演奏データ等を楽音信号に変換するとともに、その楽音信号に各種効果を付与するための音源・効果回路13と、該音源・効果回路13からの楽音信号を音響に変換する、たとえば、DAC(digital-to-analog converter)やアンプ、スピーカ等のサウンドシステム14とにより構成されている。   As shown in the figure, an electronic device 100 according to the present embodiment includes a performance operator 1 including a keyboard for inputting performance data including pitch information, and a plurality of switches and knobs for inputting various information. , A setting operator 2 including a slider and a dial, a microphone 3 that collects ambient sounds and converts them into audio signals (hereinafter referred to as “microphone”), and a detection that detects the operation state of the performance operator 1 A circuit 4, a detection circuit 5 for detecting the operation state of the setting operator 2, a voice input interface (I / F) 6 for inputting a voice signal output from the microphone 3, a CPU 7 for controlling the entire apparatus, A ROM 8 that stores a control program executed by the CPU 7 and various table data, a RAM 9 that temporarily stores performance data, various input information, calculation results, and the like, and displays various information. For example, a display 10 having a touch panel type liquid crystal display (LCD) (hereinafter abbreviated as “touch panel”), a light emitting diode (LED), and the like, various application programs including the control program, various music data, and voice for voice guidance. A storage device 11 for storing data, various data, and the like, an external device (not shown), a communication interface (I / F) 12 for transmitting / receiving data to / from the external device, and performance data input from the performance operator 1 And a sound source / effect circuit 13 for converting performance data obtained by reproducing any of the music data stored in the storage device 11 into a musical sound signal and for applying various effects to the musical sound signal; The musical sound signal from the sound source / effect circuit 13 is converted into sound, for example, a DAC (digital-to-analog conve rter), a sound system 14 such as an amplifier and a speaker.

上記構成要素4〜13は、バス15を介して相互に接続され、音源・効果回路13にはサウンドシステム14が接続されている。   The components 4 to 13 are connected to each other via a bus 15, and a sound system 14 is connected to the sound source / effect circuit 13.

音声入力I/F6は、マイク3を介して入力された周囲のアナログ音声信号をデジタル音声信号(音声データ)に変換し、バッファ(図示せず)に記憶する。   The audio input I / F 6 converts the surrounding analog audio signal input via the microphone 3 into a digital audio signal (audio data) and stores it in a buffer (not shown).

音声ガイド用の音声データは、本実施の形態では上述のように、記憶装置11に各種記憶されており、ユーザが電子機器100の操作をする度に、その操作に対応する音声データが記憶装置11から読み出されて再生され、サウンドシステム14からガイド音声として出力される。音声データのフォーマットは、WAV(RIFF waveform Audio Format)やMP3(MPEG Audio Layer-3)など、どのようなフォーマットでもよい。なお音声ガイド用の音声データは、予め記憶装置11に記憶されているものに限らず、ユーザ自身が発したガイド音声をマイク3で集音し、音声入力I/F6で音声データに変換した後、バッファに格納されたものを読み出して、新たな音声ガイド用の音声データとして記憶装置11に記憶するようにしてもよい。   In the present embodiment, as described above, various types of voice data for voice guidance are stored in the storage device 11, and each time the user operates the electronic device 100, the voice data corresponding to the operation is stored in the storage device. 11 is read out and reproduced, and output from the sound system 14 as a guide sound. The audio data format may be any format such as WAV (RIFF waveform Audio Format) or MP3 (MPEG Audio Layer-3). Note that the voice data for voice guidance is not limited to the data stored in the storage device 11 in advance, but after the guide voice uttered by the user is collected by the microphone 3 and converted into voice data by the voice input I / F 6. The data stored in the buffer may be read out and stored in the storage device 11 as new voice guide voice data.

また、音声ガイドの再生方法は上記方法に限らず、たとえばROM8あるいは記憶装置11に音声合成エンジンが搭載されており、この音声合成エンジンにより、タッチパネルに表示されたテキスト情報を音声信号に変換して音源・効果回路13に供給することで、サウンドシステム14からガイド音声を発生させるようにしてもよい。   In addition, the voice guide reproduction method is not limited to the above method. For example, a voice synthesis engine is mounted in the ROM 8 or the storage device 11. The voice synthesis engine converts text information displayed on the touch panel into a voice signal. By supplying the sound source / effect circuit 13, a guide sound may be generated from the sound system 14.

記憶装置11は、たとえば、フレキシブルディスク(FD)、ハードディスク(HD)、CD−ROM、DVD(digital versatile disc)、光磁気ディスク(MO)および半導体メモリなどの記憶媒体とその駆動装置である。記憶媒体は、駆動装置から着脱可能であってもよいし、記憶装置11自体が、電子機器100から着脱可能であってもよい。あるいは、記憶媒体も記憶装置11も着脱不可能であってもよい。なお記憶装置11(の記憶媒体)には、前述のようにCPU7が実行する制御プログラムも記憶でき、ROM8に制御プログラムが記憶されていない場合には、この記憶装置11に制御プログラムを記憶させておき、それをRAM9に読み込むことにより、ROM8に制御プログラムを記憶している場合と同様の動作をCPU7にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。   The storage device 11 is, for example, a storage medium such as a flexible disk (FD), a hard disk (HD), a CD-ROM, a DVD (digital versatile disc), a magneto-optical disk (MO), and a semiconductor memory, and its driving device. The storage medium may be detachable from the drive device, or the storage device 11 itself may be detachable from the electronic device 100. Alternatively, neither the storage medium nor the storage device 11 may be detachable. The storage device 11 (the storage medium) can also store the control program executed by the CPU 7 as described above. If the control program is not stored in the ROM 8, the control program is stored in the storage device 11. By reading it into the RAM 9, the CPU 7 can be operated in the same manner as when the control program is stored in the ROM 8. In this way, control programs can be easily added and upgraded.

通信I/F12としては、たとえば、MIDI(musical instrument digital interface)信号などの音楽信号を専用に送受信する音楽専用有線I/F、USB(universal serial bus)やIEEE1394などの汎用近距離有線I/F、Ethernet(登録商標)などの汎用ネットワークI/F、無線LAN(local area network)やBluetooth(登録商標)などの汎用近距離無線I/Fを挙げることができる。本実施の形態では、通信I/F12としてUSBを採用しているが、これに代えて他の種類のI/Fを採用してもよいし、これに他の種類のI/Fを加えるようにしてもよい。   As the communication I / F 12, for example, a music-only wired I / F that exclusively transmits and receives music signals such as a MIDI (musical instrument digital interface) signal, and a general-purpose short-distance wired I / F such as a USB (universal serial bus) and IEEE1394. And general-purpose network I / F such as Ethernet (registered trademark), and general-purpose short-range wireless I / F such as wireless local area network (LAN) and Bluetooth (registered trademark). In this embodiment, the USB is adopted as the communication I / F 12. However, instead of this, another type of I / F may be adopted, or another type of I / F may be added thereto. It may be.

なお本実施の形態では、電子機器100を電子鍵盤楽器上に構築するようにしたが、これに限らず、汎用的なPC(パーソナルコンピュータ)上に構築してもよい。本発明では鍵盤は必須の構成ではないので、この場合には鍵盤を削除してもよい。もちろん、この場合でも鍵盤を設けて、PCに外付けするようにしてもよい。   In the present embodiment, the electronic device 100 is constructed on the electronic keyboard instrument. However, the present invention is not limited to this, and it may be constructed on a general-purpose PC (personal computer). In the present invention, the keyboard is not an essential component. In this case, the keyboard may be deleted. Of course, in this case as well, a keyboard may be provided and externally attached to the PC.

図2は、前記表示器10のタッチパネル上に表示された画面の一例を示す図であり、同図(a)は、ボイスエディット画面10aの一部を示し、同図(b)は、サイン音の再生設定画面10bを示している。   FIG. 2 is a diagram showing an example of a screen displayed on the touch panel of the display device 10, where FIG. 2A shows a part of the voice edit screen 10 a, and FIG. The reproduction setting screen 10b is shown.

ボイスエディット画面10aは、前記設定操作子2に含まれる、物理的または仮想的な「ボイスエディット」スイッチ(図示せず)が押されたときに表示される。図示例は、「共通」の項目が選択された状態を示している。「共通」の項目では、「音量」、「深さ」、「オフセット」、「メイン/レイヤ」および「レフト」の各パラメータの値を変更することができる。パラメータ値の変更は、ユーザが変更対象のパラメータのスライダをタッチパネル上で直接操作することにより、または変更対象のパラメータ(の名称)にタッチして選択し、設定操作子2に含まれるダイアル等を操作することによりなされる。なお、「タッチ感度」と「パートオクターブ」は、パラメータのカテゴリ名を示し、その値を変更できない、単なる表示である。   The voice edit screen 10a is displayed when a physical or virtual “voice edit” switch (not shown) included in the setting operator 2 is pressed. The illustrated example shows a state in which the item “common” is selected. In the item “common”, the values of the parameters “volume”, “depth”, “offset”, “main / layer”, and “left” can be changed. The parameter value can be changed by directly operating the slider of the parameter to be changed on the touch panel or by touching the parameter (name) of the parameter to be changed and selecting a dial or the like included in the setting operator 2. Made by manipulating. “Touch sensitivity” and “Part octave” indicate parameter category names, and the values cannot be changed.

「共通」の項目の他の項目、つまり「サウンド」、「エフェクト」、「EQ」、「キーボードハーモニー」および「ペダル」の各項目への移行は、ユーザが移行先の項目の名称が記載されたタブ10a1をタッチすることによりなされる。さらに、メインメニューへは、設定操作子2に含まれる物理的な「ホーム」スイッチ(図示せず)が押されると、移行する。   The transition to the other items of the “common” item, that is, the “sound”, “effect”, “EQ”, “keyboard harmony”, and “pedal” items, the name of the destination item is written by the user. This is done by touching the tab 10a1. Furthermore, when the physical “home” switch (not shown) included in the setting operator 2 is pressed, the main menu is entered.

サイン音の再生設定画面10bは、後述する図3のステップS7の処理が実行されたときに表示される。サイン音とは、ユーザが、電子機器100に設けられた複数の機能のうちのいずれかを選択したときに、その機能が何であるかをユーザに知らせる音である。サイン音は、後述するように、ユーザが前記演奏操作子1に含まれる鍵盤を演奏することで発生した楽音を録音して作成される。そして、作成されたサイン音は、ユーザが選択した機能と対応付けることができる。各機能には、音声ガイドも対応付けられているので、機能が実際に選択されると、音声ガイドとともに、サイン音も再生することができる。このとき、サイン音と音声ガイドをどのようなタイミングで発生させるかを設定する画面が、サイン音の再生設定画面10bである。   The sign sound reproduction setting screen 10b is displayed when the process of step S7 in FIG. 3 to be described later is executed. The sign sound is a sound that informs the user what the function is when the user selects one of a plurality of functions provided in the electronic device 100. As will be described later, the sine sound is created by recording a musical sound generated by a user playing a keyboard included in the performance operator 1. Then, the created signature sound can be associated with the function selected by the user. Since each function is also associated with a voice guide, when the function is actually selected, a signature sound can be reproduced together with the voice guide. At this time, a screen for setting the timing at which the sine sound and the voice guide are generated is the sine sound reproduction setting screen 10b.

以上のように構成された電子機器100が実行する制御処理を、まず図2を参照してその概要を説明し、次に図3〜図5を参照して詳細に説明する。   The control process executed by the electronic device 100 configured as described above will be described first with reference to FIG. 2 and then in detail with reference to FIGS.

電子機器100は、前述のように音声ガイド機能を備えているので、その音声ガイド機能がオンになっているときに、ユーザが電子機器100の複数の機能のいずれかを選択すると、電子機器100は、その選択された機能の内容を音声でユーザに知らせる。なお本実施の形態では、「複数の機能」や「機能」は、電子機器100に備わったもののみを示し、それ以外は示さないので、以下、「電子機器100の」という限定を付けなくても、「電子機器100の」機能であるものとする。また「機能」とは、電子機器100の動作モード変更、パラメータ選択、パラメータ値の調整、処理の実行や中止など、ユーザの操作に応答して電子機器100が実行するあらゆる処理を示し、ユーザが何らかの操作を実行することを「機能を選択する」と表現する。   Since the electronic device 100 has the voice guide function as described above, when the voice guide function is turned on, when the user selects one of the plurality of functions of the electronic device 100, the electronic device 100 is provided. Informs the user of the contents of the selected function by voice. In the present embodiment, “plural functions” and “functions” indicate only those provided in electronic device 100, and the others are not illustrated. Therefore, hereinafter, there is no limitation of “electronic device 100”. Also, it is assumed that this is a function of “electronic device 100”. The “function” refers to any process executed by the electronic device 100 in response to a user operation, such as an operation mode change of the electronic device 100, parameter selection, parameter value adjustment, execution or cancellation of the process. Performing some operation is expressed as “selecting a function”.

たとえば前述のように、ユーザが「ボイスエディット」スイッチを押すと、電子機器100は、表示器10のタッチパネル上に、図2のボイスエディット画面10aを表示する。つまり、動作モードがボイスエディットモードに移行して、当該カテゴリに含まれる各種パラメータの値を変更可能な状態となる。このとき、音声ガイド機能がオンになっていれば、電子機器100は、ボイスエディットモードに移行して、各種パラメータの値を変更することができることをユーザに音声で知らせる。具体的には、画面名称(ボイスエディット)と、画面に表示されたパラメータ名称(共通、音量、タッチ感度、深さ、…)を続けて読み上げる。   For example, as described above, when the user presses the “voice edit” switch, the electronic device 100 displays the voice edit screen 10 a in FIG. 2 on the touch panel of the display device 10. That is, the operation mode shifts to the voice edit mode, and the values of various parameters included in the category can be changed. At this time, if the voice guide function is on, the electronic device 100 shifts to the voice edit mode and informs the user that the values of various parameters can be changed. Specifically, the screen name (voice edit) and the parameter names (common, volume, touch sensitivity, depth,...) Displayed on the screen are continuously read out.

このような音声ガイドでは、画面上に列挙されたパラメータ名称を続けて読み上げるため、音声で報知される内容が長くなってしまい、最後まで聞くことがユーザにとって負担になる。また、視覚障害を持つユーザは、読み上げられたパラメータ名称が画面名称なのか、操作対象となり得るパラメータ名なのか、操作対象でないただの表示情報なのか、などの属性まで理解することができず、ガイド内容の識別性が低くなっている。   In such a voice guide, the parameter names listed on the screen are continuously read out, so that the content notified by voice becomes long, and it is burdensome for the user to listen to the end. In addition, users with visual disabilities cannot understand attributes such as whether the parameter name read out is a screen name, a parameter name that can be an operation target, or just display information that is not an operation target, Guidance of guide contents is low.

そこで、本発明では、ユーザが演奏して、電子機器100自体から発生した音を録音してサイン音とし、このサイン音を、複数の機能のうち、ユーザによって指定されたいずれかの機能と対応付けて記憶しておき、ユーザがある機能を選択すると、当該機能の音声ガイドとともに、あるいは当該機能の音声ガイドに代えて、当該機能に対応付けられたサイン音を再生するようにしている。   Therefore, in the present invention, the user plays and records the sound generated from the electronic device 100 itself as a sine sound, and this sine sound corresponds to one of the functions specified by the user among a plurality of functions. In addition, when a user selects a certain function, a sign sound associated with the function is reproduced together with the voice guide of the function or instead of the voice guide of the function.

このように電子機器100では、機器自体が発生する音を録音してサイン音とするので、サイン音を簡単に作成することができる。   As described above, in the electronic device 100, since the sound generated by the device itself is recorded and used as a sine sound, the sine sound can be easily created.

また、サイン音を音声ガイドに組み合わせるようにしたので、既存の音声ガイドを活用しつつも、音声ガイドによるガイド内容の識別性を向上させることができる。   In addition, since the signature sound is combined with the voice guide, it is possible to improve the distinguishability of the guide content by the voice guide while utilizing the existing voice guide.

さらに、さまざまな音を組み合わせてサイン音を作成可能に構成した(その詳細は後述する)ので、ユーザは、電子機器100の複雑な機能構造や画面構造も、簡単に識別することができる。   Furthermore, since the signature sound can be created by combining various sounds (details will be described later), the user can easily identify the complicated functional structure and screen structure of the electronic device 100.

次に、この制御処理を詳細に説明する。   Next, this control process will be described in detail.

図3は、電子機器100、特にCPU7が実行するサイン音の録音および対応付け処理の手順を示すフローチャートである。   FIG. 3 is a flowchart showing the procedure of the recording and associating process of the sine sound executed by the electronic device 100, particularly the CPU 7.

本サイン音の録音および対応付け処理は、ユーザによる起動指示に応じて起動される。本処理が起動すると、まずCPU7は、ユーザによって複数の機能のいずれかが選択されるまで待ち(ステップS1)、いずれかの機能が選択されると、さらにCPU7は、ユーザによってサイン音の録音開始が指示されるまで待つ(ステップS2)。   The process of recording and associating the signature sound is activated in response to an activation instruction from the user. When this process is started, the CPU 7 first waits until one of a plurality of functions is selected by the user (step S1). When one of the functions is selected, the CPU 7 further starts recording of a signature sound by the user. (Step S2).

機能の選択は通常、設定操作子2に含まれる物理的なスイッチやタッチパネル上に表示されたソフトウェアボタンが操作されたことに応じてなされるので、ステップS1では、CPU7は、いずれかのスイッチまたはボタンが操作されるのを待つ。今、ユーザが前記「ボイスエディット」スイッチを押したとすると、CPU7は、処理をステップS1からステップS2に進める。   Since the selection of the function is normally performed in response to the operation of a physical switch included in the setting operator 2 or a software button displayed on the touch panel, in step S1, the CPU 7 Wait for the button to be operated. If the user presses the “voice edit” switch, the CPU 7 advances the process from step S1 to step S2.

サイン音の録音開始の指示は、本実施の形態では、本サイン音の録音および対応付け処理の起動中に、ユーザが前記演奏操作子1に含まれるフットスイッチ(図示せず)を踏み込んでオン状態にしたことに応じてなされる。そして、サイン音の録音終了の指示は、ユーザが当該フットスイッチの踏み込みを止め、元の状態に戻してオフ状態にしたことに応じてなされる。つまり、サイン音の録音は、フットスイッチをオンした時点からオフした時点までの期間なされる。したがってステップS2では、CPU7は、フットスイッチがオンされるのを待つ。今、ユーザがフットスイッチをオン状態にすると、CPU7は、処理をステップS2からステップS3に進める。   In the present embodiment, the sign sound recording start instruction is turned on by the user depressing a foot switch (not shown) included in the performance operator 1 while the sign sound recording and association processing is activated. It is done according to the state. An instruction to end the recording of the sine sound is made in response to the user stopping the foot switch, returning to the original state, and turning it off. In other words, the sine sound is recorded from the time when the foot switch is turned on to the time when it is turned off. Therefore, in step S2, the CPU 7 waits for the foot switch to be turned on. Now, when the user turns on the foot switch, the CPU 7 advances the process from step S2 to step S3.

ステップS3では、CPU7は、ステップS1で選択された機能の機能IDを取得する。「ボイスエディット」スイッチには、前述のように、動作モードをボイスエディットモードに移行する機能が割り当てられている。そして、ボイスエディットモードに移行したときには常に、前記ボイスエディット画面10aがタッチパネル上に表示されるとすると、つまり「共通」の項目が選択された状態の画面が表示されるとすると、「ボイスエディット」スイッチに割り当てられている機能は「共通」である。したがってこのとき、CPU7は、機能「共通」の機能IDを取得する。図4(a)は、サイン音データと音声ガイドデータの対応付けの一例を示す図である。同図(a)に示すように、機能「共通」の機能IDは“0001”であるので、上記ステップS3では、この機能ID“0001”が取得される。   In step S3, the CPU 7 acquires the function ID of the function selected in step S1. As described above, a function for shifting the operation mode to the voice edit mode is assigned to the “voice edit” switch. If the voice edit screen 10a is displayed on the touch panel whenever the mode is changed to the voice edit mode, that is, if a screen in which the “common” item is selected is displayed, the “voice edit” The function assigned to the switch is “common”. Therefore, at this time, the CPU 7 acquires the function ID of the function “common”. FIG. 4A is a diagram illustrating an example of association of sine sound data and voice guide data. As shown in FIG. 5A, the function ID of the function “common” is “0001”, and thus the function ID “0001” is acquired in step S3.

次にCPU7は、ユーザが前記鍵盤を用いて演奏したことに応じて発生した音をサイン音データとして録音する(ステップS4)。ユーザが鍵盤を押鍵すると、その押鍵に応じた演奏データ(典型的には、MIDIデータ)が前記検出回路4から出力され、音源・効果回路13に供給される。音源・効果回路13は、前述のように、この演奏データを楽音信号に変換するとともに、その楽音信号に各種効果を付与する。CPU7は、このようにして生成された(デジタル)楽音信号を、RAM9の所定位置に確保されたサイン音データ格納領域(図示せず)に格納する。これにより、サイン音データが録音される。   Next, the CPU 7 records a sound generated in response to the user performing with the keyboard as signature sound data (step S4). When the user depresses the keyboard, performance data (typically MIDI data) corresponding to the key depression is output from the detection circuit 4 and supplied to the sound source / effect circuit 13. As described above, the sound source / effect circuit 13 converts the performance data into a musical tone signal and gives various effects to the musical tone signal. The CPU 7 stores the (digital) musical tone signal thus generated in a sine sound data storage area (not shown) secured at a predetermined position in the RAM 9. Thereby, the signature sound data is recorded.

そしてCPU7は、ユーザによってサイン音の録音終了が指示されるまで待つ(ステップS5)。前述のように本実施の形態では、サイン音の録音終了の指示は、ユーザがフットスイッチをオン状態からオフ状態にしたことに応じてなされるので、ステップS5では、CPU7は、フットスイッチがオフされるのを待つ。今、ユーザがフットスイッチをオフにすると、CPU7は、サイン音の録音を停止し、録音されたサイン音データをファイル化して、自動的にファイル名を付与した後、処理をステップS6に進める。   Then, the CPU 7 waits until the user gives an instruction to end the recording of the signature sound (step S5). As described above, in the present embodiment, since the instruction to end the recording of the sine sound is made in response to the user changing the foot switch from the on state to the off state, in step S5, the CPU 7 turns off the foot switch. Wait for it. Now, when the user turns off the foot switch, the CPU 7 stops the recording of the signature sound, converts the recorded signature sound data into a file, automatically assigns a file name, and then advances the processing to step S6.

ステップS6では、CPU7は、録音したサイン音データを、ステップS3で取得された機能IDに対応付けて保存する。今、録音したサイン音データのファイル名称を“sound0001.wav”とすると、このサイン音データ“sound0001.wav”が、図4(a)に示すように、「共通」の機能ID“0001”に対応付けて保存される。   In step S6, the CPU 7 stores the recorded signature sound data in association with the function ID acquired in step S3. If the file name of the recorded sine sound data is “sound0001.wav”, the sine sound data “sound0001.wav” is assigned to the “common” function ID “0001” as shown in FIG. Correspondingly saved.

次にCPU7は、タッチパネル上に前記図2(b)のサイン音の再生設定画面10bを表示する(ステップS7)。そしてユーザが、サイン音の再生設定画面10bに表示されている、(a)〜(d)の4種類の「サイン音の再生方法」からいずれかを選択して設定する(選択された再生方法は“●”で表示される)と、CPU7は、その設定された「サイン音の再生方法」を保存した(ステップS8)後、本サイン音の録音および対応付け処理を終了する。今、(c)の再生方法が選択設定されたとする(ただし図2(b)の例では、(a)の再生方法が選択されている)と、“(c)”が、図4(a)に示すように、「共通」の機能ID“0001”に対応付けて保存される。   Next, the CPU 7 displays the sign sound reproduction setting screen 10b shown in FIG. 2B on the touch panel (step S7). Then, the user selects and sets one of the four types of “sine sound playback methods” (a) to (d) displayed on the sign sound playback setting screen 10b (the selected playback method). Is displayed as “●”), the CPU 7 stores the set “signature sound reproduction method” (step S8), and then ends the recording and association processing of the signature sound. Now, assuming that the reproduction method (c) is selected and set (however, in the example of FIG. 2B, the reproduction method (a) is selected), “(c)” is changed to FIG. ) And stored in association with the “common” function ID “0001”.

図4(b)は、録音されたサイン音データの内容の一例を示す図であり、同図(b)に示すように、サイン音データ“sound0001.wav”は、ユーザが鍵盤で「ド、ミ、ソ」を順に弾いて発生した音を録音したものであることを示している。なお同図(b)中、サイン音データ“sound0000.wav”は、コード(和音)“C”を2回弾いて発生した音を録音したものであることを示し、サイン音データ“sound0004.wav”は、コード“F”を1回弾いて発生した音を録音したものであることを示している。   FIG. 4B is a diagram showing an example of the contents of the recorded sine sound data. As shown in FIG. 4B, the sine sound data “sound0001.wav” is displayed on the keyboard by the user. It shows that the sound produced by playing “Mi, Seo” in order is recorded. In FIG. 5B, sine sound data “sound0000.wav” indicates that a sound generated by playing chord “C” twice is recorded, and sine sound data “sound0004.wav” "" Indicates that the sound generated by playing the chord "F" once is recorded.

このようにして、各機能について、音声ガイドデータ、サイン音データおよび再生方法が、機能IDを介して対応付けられて保存される。ただし図4(a)に示すように、各機能には常に、音声ガイドデータが対応付けられているのに対して、サイン音データは対応付けられていないことがある。この場合には、再生方法も当然ながら、設定されていない。つまり、サイン音データは、ユーザが録音して対応付けるものであるため、ユーザはすべての機能にサイン音データを対応付けるとは限らない。なお図4(a)のテーブルデータには「値設定」の項目があるが、これは、対応する機能に値の設定可能なパラメータがあるかどうかを示すものである。同図(a)中、“−”が設定不可を意味し、“○”が設定可能を意味する。   In this manner, voice guide data, signature sound data, and a reproduction method are stored in association with each other via the function ID for each function. However, as shown in FIG. 4A, the voice guide data is always associated with each function, but the sign sound data may not be associated. In this case, the reproduction method is naturally not set. That is, since the sign sound data is recorded and associated by the user, the user does not necessarily associate the sign sound data with all functions. The table data in FIG. 4A includes an item “value setting”, which indicates whether there is a parameter whose value can be set in the corresponding function. In FIG. 5A, “−” means that setting is impossible, and “◯” means that setting is possible.

図5は、電子機器100、特にCPU7が実行する音声ガイドの再生処理の手順を示すフローチャートである。   FIG. 5 is a flowchart showing the procedure of the audio guide reproduction process executed by the electronic device 100, particularly the CPU 7.

本音声ガイドの再生処理は、ユーザが前記物理的なスイッチおよびソフトウェアボタンのいずれかを操作したときに、起動される。本処理が起動すると、まずCPU7は、操作されたスイッチまたはボタンに割り当てられた機能(以下「対象機能」という)の機能IDを取得する(ステップS11)。この機能IDの取得処理は、前記ステップS3の機能IDの取得処理と同様であるので、この処理についての説明は省略する。   The reproduction process of the voice guide is started when the user operates any of the physical switch and the software button. When this process is activated, the CPU 7 first acquires a function ID of a function (hereinafter referred to as “target function”) assigned to the operated switch or button (step S11). Since the function ID acquisition process is the same as the function ID acquisition process in step S3, description of this process is omitted.

次にCPU7は、ステップS11で取得した機能IDに対応付けられた音声ガイドデータが記憶されているかどうかを判定する(ステップS12)。この判定の結果、当該機能IDに対応付けられた音声ガイドデータが記憶されていれば、さらにCPU7は、当該機能IDに対応付けられたサイン音データが記憶されているかどうかを判定する(ステップS13)。つまり、ステップS12,S13では、CPU7は、当該機能IDに対応付けられた
(C1)音声ガイドデータがない場合;
(C2)音声ガイドデータもサイン音データもある場合;
(C3)音声ガイドデータはあるが、サイン音データはない場合;
の3つの場合を判定し、(C1)〜(C3)の各場合で異なった処理を行うようにしている。なお、この(C1)〜(C3)の判定は、前記図4(a)のテーブルデータ、つまり対応付けを参照して行われる。
Next, the CPU 7 determines whether or not voice guide data associated with the function ID acquired in step S11 is stored (step S12). If the result of this determination is that voice guide data associated with the function ID is stored, the CPU 7 further determines whether or not sign sound data associated with the function ID is stored (step S13). ). That is, in steps S12 and S13, the CPU 7 determines that there is no (C1) voice guide data associated with the function ID;
(C2) When both voice guide data and signature sound data exist;
(C3) When there is voice guide data but no sign sound data;
These three cases are determined, and different processing is performed in each of the cases (C1) to (C3). The determinations (C1) to (C3) are made with reference to the table data in FIG.

(C1)の場合、CPU7は、再生すべき音声ガイドデータがないので、ステップS17で、対象機能を実行した後、本音声ガイドの再生処理を終了する。   In the case of (C1), since there is no voice guide data to be played back, the CPU 7 ends the voice guide playback process after executing the target function in step S17.

(C2)の場合、CPU7は、そのサイン音データの再生方法を参照し(ステップS14)、設定された再生方法に応じて、サイン音データと音声ガイドデータの両方を再生するか、あるいはサイン音データのみを再生した(ステップS15)後、処理をステップS17に進める。なお、ステップS14の処理も、図4(a)のテーブルデータを参照して行われる。   In the case of (C2), the CPU 7 refers to the reproduction method of the sine sound data (step S14), and reproduces both the sine sound data and the voice guide data or the sine sound according to the set reproduction method. After reproducing only the data (step S15), the process proceeds to step S17. Note that the processing in step S14 is also performed with reference to the table data in FIG.

(C3)の場合、CPU7は、音声ガイドデータを再生した(ステップS16)後、処理をステップS17に進める。   In the case of (C3), after reproducing the voice guide data (step S16), the CPU 7 advances the process to step S17.

なお本実施の形態では、(C4)音声ガイドデータはないが、サイン音データはある場合は考慮されていない。これは、音声ガイドデータが対応付けられていない機能は、音声によるガイドが不要な機能であり、サイン音によるガイドも不要と考えられるためである。しかし、(C4)の場合を判定するようにしてももちろんよく、この(C4)の場合が判定されたときには、CPU7は当然ながら、サイン音データのみを再生する。   In this embodiment, (C4) there is no voice guide data, but there is no consideration when there is sign sound data. This is because a function that is not associated with voice guide data is a function that does not require voice guidance, and it is considered that guidance using a signature sound is also unnecessary. However, it is of course possible to determine the case of (C4). When the case of (C4) is determined, the CPU 7 naturally reproduces only the signature sound data.

次に、前述した図3のサイン音の録音および対応付け処理によって、図4(a)のテーブルデータが生成され、記憶装置11に保存されたとして、電子機器100の制御動作をさらに具体的に説明する。   Next, assuming that the table data of FIG. 4A is generated and stored in the storage device 11 by the above-described recording and association processing of the sine sound of FIG. 3, the control operation of the electronic device 100 is more specifically described. explain.

今、タッチパネル上には前記図2(a)のボイスエディット画面10aが表示されているものとする。このとき、ユーザが前記「ホーム」スイッチを押した場合、前述のように、ボイスエディット画面10aはメインメニュー画面(図示せず)に戻るが、機能名「ホーム」の機能ID“0000”には、音声ガイドデータ“guide0000.wav”もサイン音データ“sound0000.wav”も対応付けられており、その再生方法として“(d)”、つまり「サイン音のみを再生」が設定されているので、サイン音データ“sound0000.wav”のみが再生される。ここで、サイン音データ“sound0000.wav”は、前述のように、コード“C”の音を2回発生するものであるので、サウンドシステム14からは、音声ガイドは流れずに、コード“C”の音が2回流れて、タッチパネル上の表示画面がボイスエディット画面10aからメインメニュー画面に戻る。これにより、ユーザは、タッチパネル上の表示画面を見なくても、メインメニュー画面に戻ったことを知ることができる。「ホーム」スイッチのように頻繁に使用するスイッチについては、その都度ガイド音声での説明を聞くと時間がかかり、操作の妨げとなるので、このようにガイド音声は再生させずに、サイン音のみを再生する設定にするのが有用である。   Assume that the voice edit screen 10a shown in FIG. 2A is displayed on the touch panel. At this time, when the user presses the “home” switch, as described above, the voice edit screen 10a returns to the main menu screen (not shown), but the function ID “0000” of the function name “home” Since voice guide data “guide0000.wav” and sine sound data “sound0000.wav” are associated with each other and “(d)”, that is, “play only sine sound” is set as the playback method. Only the signature sound data “sound0000.wav” is played. Here, since the sine sound data “sound0000.wav” generates the sound of the code “C” twice as described above, the sound system 14 does not play the voice guide and the code “C”. "" Is played twice, and the display screen on the touch panel returns from the voice edit screen 10a to the main menu screen. Thus, the user can know that the user has returned to the main menu screen without looking at the display screen on the touch panel. For switches that are frequently used, such as the “Home” switch, listening to the explanation in the guide voice each time takes time and hinders the operation. It is useful to set to play.

タッチパネル上にメインメニュー画面が表示されている状態で、ユーザが前記「ボイスエディット」スイッチを押すと(メインメニュー画面中に「ボイスエディット」ボタンが表示されている場合には、その「ボイスエディット」ボタンを選択してもよい)、前述のように、ボイスエディット画面10aが表示される。つまり、対象機能として「共通」機能が選択されるので、機能ID“0001”が取得される。機能ID“0001”には、音声ガイドデータ“guide0001.wav”もサイン音データ“sound0001.wav”も対応付けられており、その再生方法として“(c)”、つまり「音声ガイド→サイン音の順に再生」が設定されているので、音声ガイドデータ“guide0001.wav”が再生された後、サイン音データ“sound0001.wav”が再生される。ここで、サイン音データ“sound0001.wav”は、前述のように「ド、ミ、ソ」の音を発生するものであるので、音声ガイドデータ“guide0001.wav”が、「ぼいすえでぃっと きょうつう」という音声を発生するものであるとすると、サウンドシステム14からは、「ぼいすえでぃっと きょうつう」という音声ガイドが流れた後、「ド、ミ、ソ」の音が1回流れて、タッチパネル上の表示画面がメインメニュー画面からボイスエディット画面10aに移る。これによりユーザは、タッチパネル上の表示画面が変化したことを即座に知ることができる。   When the main menu screen is displayed on the touch panel and the user presses the “Voice Edit” switch (if the “Voice Edit” button is displayed in the main menu screen, the “Voice Edit” button is displayed. The button may be selected), and the voice edit screen 10a is displayed as described above. That is, since the “common” function is selected as the target function, the function ID “0001” is acquired. The function ID “0001” is associated with both voice guide data “guide0001.wav” and sine sound data “sound0001.wav”, and “(c)”, that is, “voice guide → sine sound Since “Play in order” is set, after the voice guide data “guide0001.wav” is played, the sine sound data “sound0001.wav” is played. Here, since the sine sound data “sound0001.wav” generates the sound of “Do, Mi, Seo” as described above, the voice guide data “guide0001.wav” If the sound system 14 generates a sound of “That Kyotsu”, the sound system 14 plays a sound guide of “Boi Suet Kyotsu” and then sounds “Do, Mi, Seo”. Flows once, and the display screen on the touch panel moves from the main menu screen to the voice edit screen 10a. As a result, the user can immediately know that the display screen on the touch panel has changed.

次に、ユーザが「サウンド」のタブ10a1を選択すると、対象機能として「サウンド」機能が選択されるので、機能ID“0009”が取得される。機能ID“0009”には、音声ガイドデータ“guide0009.wav”もサイン音データ“sound0002.wav”も対応付けられており、その再生方法として同じ“(c)”が設定されているので、音声ガイドデータ“guide0009.wav”が再生された後、サイン音データ“sound0002.wav”が再生される。ここで、サイン音データ“sound0002.wav”は、「レ、ファ、ラ」の音を発生するものであるので、音声ガイドデータ“guide0009.wav”が、「さうんど」という音声を発生するものであるとすると、サウンドシステム14からは、「さうんど」という音声ガイドが流れた後、「レ、ファ、ラ」の音が1回流れて、タッチパネル上の表示画面は、ボイスエディット画面10aから、同じボイスエディット画面であるが、「サウンド」の項目が選択されたときの画面(図示せず)に移る。このように、同種の画面で表示内容の違う画面に移るときには、異なったサイン音が流れるので、ユーザは、画面の内容が変化したことを即座に知ることができる。また、タブ10a1のように、複数のタブが並んで表示されている場合、各タブ毎に異なる音のサイン音を録音して対応付けておけば、ユーザは流れたサイン音を聞くだけで、操作したタブがどの位置のものであるかも耳で判定でき、これにより、ユーザの操作性はさらに向上する。   Next, when the user selects the “sound” tab 10a1, the “sound” function is selected as the target function, and thus the function ID “0009” is acquired. The function ID “0009” is associated with both the voice guide data “guide0009.wav” and the signature sound data “sound0002.wav”, and the same “(c)” is set as the playback method. After the guide data “guide0009.wav” is reproduced, the signature sound data “sound0002.wav” is reproduced. Here, since the sine sound data “sound0002.wav” generates “Le, Fa, La” sound, the voice guide data “guide0009.wav” generates “Sound” sound. If it is, the sound system 14 will play a voice guide “Sound”, then “Le, Fah, La” sound once, and the display screen on the touch panel will be the voice edit screen. From 10a, the same voice edit screen is displayed, but the screen shifts to a screen (not shown) when the item "Sound" is selected. In this way, when moving to a screen of the same type with a different display content, different sign sounds flow, so that the user can immediately know that the content of the screen has changed. In addition, when a plurality of tabs are displayed side by side like the tab 10a1, if the user records and associates a sine sound of a different sound for each tab, the user simply listens to the sine sound that flows, It is possible to determine by the ear which position the operated tab is, which further improves the operability for the user.

次に、タッチパネル上にボイスエディット画面10aが表示された状態で、ユーザが「音量」を選択すると、対象機能として「音量」機能が選択されるので、機能ID“0002”が取得される。機能ID“0002”には、音声ガイドデータ“guide0002.wav”もサイン音データ“sound0004.wav”も対応付けられており、その再生方法として“(a)”、つまり「音声ガイドと同時に再生」が設定されているので、音声ガイドデータ“guide0002.wav”とサイン音データ“sound0004.wav”が同時に再生される。ここで、サイン音データ“sound0004.wav”は、前述のように、コード“F”の音を1回発生するものであるので、音声ガイドデータ“guide0002.wav”が、「おんりょう」という音声を発生するものであるとすると、サウンドシステム14からは、「おんりょう」という音声ガイドとともに、コード“F”の音が1回流れる。このとき「ユーザによる変更が可能なパラメータは“F”の和音」と予め決めておけば、ユーザは、音量パラメータが選択されたことのみならず、ダイアル操作などによって音量パラメータが変更可能であることも知ることができる。なお、音声ガイドとサイン音が同時に流れる場合、両者の音量またはパンなどを異ならせた方が、ユーザの識別性がより向上する。さらに「音量」機能には、「値設定」可能(“○”)なパラメータ、つまり音量パラメータがあるので、音声ガイドでは、現在の音量パラメータの設定値(ボイスエディット画面10aでは“100”)も読み上げる方が好ましい。   Next, when the user selects “volume” with the voice edit screen 10 a displayed on the touch panel, the “volume” function is selected as the target function, and thus the function ID “0002” is acquired. The function ID “0002” is associated with both voice guide data “guide0002.wav” and sine sound data “sound0004.wav”, and the playback method is “(a)”, that is, “playback simultaneously with voice guide”. Therefore, the voice guide data “guide0002.wav” and the sine sound data “sound0004.wav” are reproduced simultaneously. Here, since the sign sound data “sound0004.wav” generates the sound of the code “F” once as described above, the voice guide data “guide0002.wav” is the voice “onri”. Is generated, the sound of the code “F” flows once from the sound system 14 together with the voice guide “ONRYO”. At this time, if it is determined in advance that “the parameter that can be changed by the user is a chord of“ F ””, the user can change the volume parameter not only by selecting the volume parameter but also by a dial operation or the like. You can also know. When the voice guide and the sine sound flow at the same time, the user's discriminability is further improved by making the volume or panning of both differ. Furthermore, since the “volume” function includes a parameter that can be “value-set” (“◯”), that is, a volume parameter, the voice guide also sets the current volume parameter setting value (“100” on the voice edit screen 10a). It is preferable to read it out.

同様に、タッチパネル上にボイスエディット画面10aが表示された状態で、ユーザが「タッチ感度」を選択すると、対象機能として「タッチ感度」機能が選択されるので、機能ID“0003”が取得される。機能ID“0003”には、音声ガイドデータ“guide0003.wav”は対応付けられているものの、サイン音データは対応付けられていないので、音声ガイドデータ“guide0003.wav”のみが再生される。ここで、音声ガイドデータ“guide0003.wav”が、「たっちかんど」という音声を発生するものであるとすると、サウンドシステム14からは、「たっちかんど」という音声ガイドのみが流れる。これにより、ユーザは、値を変更できない項目(この場合、カテゴリ)が選択されたことを知ることができる。   Similarly, when the user selects “touch sensitivity” in a state where the voice edit screen 10a is displayed on the touch panel, the “touch sensitivity” function is selected as the target function, and thus the function ID “0003” is acquired. . Although the voice guide data “guide0003.wav” is associated with the function ID “0003”, but the signature sound data is not associated, only the voice guide data “guide0003.wav” is reproduced. Here, assuming that the voice guide data “guide0003.wav” generates the voice “Tachikando”, only the voice guide “Tachikando” flows from the sound system 14. Thereby, the user can know that an item (in this case, a category) whose value cannot be changed is selected.

このように、短い音(つまり、サイン音)を音声ガイドと一緒に鳴らすと、画面上の文字や各スイッチに割り当てられた機能の文字は声で読ませて、文字以外の情報を音で表現することができる。たとえば、大きなアイコンは大きい音で録音したり、音色に関する項目はCメジャ(ドミソ)のコードで、伴奏スタイルに関する項目はAマイナ(ラドミ)のコードで録音したりというように、異なる内容の演奏音にしておくと、ユーザは、「音色」メニュー中の「ボリューム」と、「伴奏」メニュー中の「ボリューム」を容易に区別することができる。あるいは、ある操作子を操作したときに、異なる階層へ画面が遷移するような機能には「ドレミ」と録音しておき、画面を閉じて上の階層へ戻るときには「ミドレ」と録音しておけば、ユーザは、「**画面が開きます」や「**画面を閉じます」などと声で表現されるより、その動作内容を圧倒的に速く識別することができる。視覚障害を持たないユーザは、画面の遷移状態、画面上での文字や図の配置、フォントのタイプや色などの視覚情報によって、文字で書かれた情報以上の多くの情報を入手しているが、本実施の形態のように、内容の異なるサイン音を異なる再生方法で鳴らすことによって、視覚障害を持つユーザも、文字情報(つまり音声ガイドの内容)以上の情報を取得することができるようになる。   In this way, when a short sound (that is, a sine sound) is played with the voice guide, the characters on the screen and the function assigned to each switch are read with a voice, and information other than characters is expressed by sound. can do. For example, a large icon can be recorded with a loud sound, a sound item can be recorded with a C major (Domiso) chord, and an accompaniment style item can be recorded with a A minor (Radomi) chord. In this case, the user can easily distinguish between “volume” in the “tone” menu and “volume” in the “accompaniment” menu. Or, record “Doremi” for functions that change the screen to a different level when you operate a control, and record “Midre” when you close the screen and return to a higher level. For example, the user can identify the content of the operation overwhelmingly faster than the voice is expressed as “** screen opens” or “** screen closes”. Users who do not have visual impairments obtain more information than text information by visual information such as screen transition status, text and figure layout on the screen, font type and color, etc. However, a user with visual disabilities can obtain information more than character information (that is, the contents of the voice guide) by using different playback methods to generate different sine sounds as in this embodiment. become.

なお図4(a)のテーブルデータの例では、サイン音データ“sound0004.wav”は、機能名が「音量」、「深さ」、「オフセット」、「メイン/レイヤ」および「レフト」で共通に用いられている。このように、同じサイン音データを複数の機能に対応付ける場合、同じサイン音データを何度も録音して作成するのは手間なので、既に録音して作成されているサイン音データは、同じものをコピーして対応付けることができる機能を設けておくことが好ましい。たとえば、「サイン音のコピー」というメニュー(図示せず)を設け、このメニューが選択され、機能Aと機能Bを指定すると、機能Aに対して録音したサイン音を機能Bにコピーして対応付けるという方法が考えられる。   In the example of the table data in FIG. 4A, the sine sound data “sound0004.wav” is common to the function names “volume”, “depth”, “offset”, “main / layer”, and “left”. It is used for. In this way, when associating the same sine sound data with multiple functions, it is troublesome to record and create the same sine sound data many times. It is preferable to provide a function that can be copied and associated. For example, if a menu (not shown) called “copy signature sound” is provided and this menu is selected and function A and function B are designated, the recorded signature sound is copied to function B and associated with function B. The method can be considered.

また本実施の形態では、音源・効果回路13が生成した音声信号をサイン音データとしたが、これに限らず、音源・効果回路13が音声信号を生成する際に基礎とした演奏データ、つまりユーザが鍵盤で演奏したことに応じて検出回路4から出力される演奏データ(典型的には、MIDIデータ)をそのまま、サイン音データとしてもよい。このように、サイン音データをMIDIデータによって構成すると、編集作業を簡単に行うことができるので、サイン音データを作成後、編集できる機能を設けるようにしてもよい。たとえば、「サイン音の編集」というメニュー(図示せず)を設け、このメニューが選択され、録音済みのサイン音が選択されると、既存の編集技術を用いて、音色、音量、パン、エフェクトなどのパラメータを編集する方法が考えられる。   In this embodiment, the sound signal generated by the sound source / effect circuit 13 is used as sine sound data. However, the present invention is not limited to this, and performance data based on the sound source / effect circuit 13 generating sound signals, that is, The performance data (typically MIDI data) output from the detection circuit 4 in response to the performance by the user on the keyboard may be used as sign sound data as it is. As described above, when the sine sound data is composed of MIDI data, an editing operation can be easily performed. Therefore, a function that enables editing after the sine sound data is created may be provided. For example, a menu (not shown) called “Edit signature sound” is provided. When this menu is selected and a recorded signature sound is selected, the tone, volume, pan, effect A method of editing parameters such as

なお本実施の形態では、サイン音の録音開始/終了の指示をフットスイッチのオン/オフによって行ったが、操作子はもちろん、フットスイッチに限られる訳ではなく、フットスイッチ以外の物理的なスイッチやペダル操作子など、どのような種類のものであってもよい。ただし、視覚障害のユーザにとっては、表示画面上のソフトウェア操作子は使いづらいので、ソフトウェア操作子より物理的な操作子で操作する方が好ましい。さらに本実施の形態では、機能の選択と、その機能に対応付けるサイン音の録音開始とをそれぞれ別の操作子を操作することによって行うようにしたが(前記図3のステップS1,S2の説明を参照)、これに限らず、機能の選択とサイン音の録音開始を1つの操作子の操作で行うようにしてもよい。具体的には、当該機能の割り当てられた操作子を所定時間(たとえば、3秒)以上押し続ける(長押し)と、当該機能に対応付けるサイン音の録音が開始となる、などが考えられる。またサイン音の録音終了は、操作子を用いたユーザの特別な指示がなくても、たとえば、演奏が終了したことを機器側で検出して(無音状態が所定秒間続いたことの検出など)自動的に行うようにしてもよい。サイン音の録音開始も、フットスイッチ(あるいは別の操作子)がオンされると直ぐに録音開始にはならず、録音待機状態になり、実際の録音開始は、鍵盤に対する最初の押鍵操作に応じてなされる(シンクロ録音方式)ようにしてもよい。   In this embodiment, the sign sound recording start / end instruction is performed by turning on / off the foot switch. However, the operation switch is not limited to the foot switch, and a physical switch other than the foot switch is used. Any type, such as a pedal operator, may be used. However, since the software operator on the display screen is difficult to use for visually impaired users, it is preferable to operate with a physical operator rather than a software operator. Furthermore, in the present embodiment, the selection of the function and the start of recording of the sine sound associated with the function are performed by operating different operators (description of steps S1 and S2 in FIG. 3). However, the present invention is not limited to this, and the selection of a function and the start of recording of a sine sound may be performed by operating one operator. Specifically, it is conceivable that recording of a signature sound associated with the function starts when the operator assigned to the function is continuously pressed (long press) for a predetermined time (for example, 3 seconds) or longer. The end of the recording of the sine sound can be detected by, for example, the end of the performance on the device side (for example, detecting that the silent state has continued for a predetermined period of time) without any special instruction from the user using the operation element. You may make it perform automatically. When the foot switch (or another controller) is turned on, the recording of the sine sound does not start recording immediately, but enters the recording standby state, and the actual recording starts according to the first key pressing operation on the keyboard. (Synchronized recording method).

また本実施の形態では、サイン音は、ユーザが鍵盤を演奏して発生した音を録音して生成するようにしたが、演奏に用いる楽器は、鍵盤に限らず、弦楽器や打楽器などどのような種類の楽器でもよい。また楽器に限らず、複数の種類の音が出る機器を用いてもよい。たとえば「ピ」、「ポ」、「パ」という程度の音が出る機器であれば、「ピピ」、「ピポ」、「パピポ」、「ピッポパ」など、色々なバリエーションの音を発生させて、録音することができるので、複数の機能に異なる(一部の機能については、同じでもよい)音を対応付けることができる。さらに、既に録音してある音や曲データ(短いフレーズの曲データやスタイルデータなど)を選択して、目的の機能に対応付けるようにしてもよい。   In the present embodiment, the sine sound is generated by recording the sound generated by the user playing the keyboard. However, the musical instrument used for the performance is not limited to the keyboard, and any stringed instrument or percussion instrument is used. It can be any kind of instrument. Moreover, you may use the apparatus which produces not only a musical instrument but a several kind of sound. For example, if the device produces a sound of a level of “pi”, “po”, “pa”, it will generate various variations of sound, such as “pipi”, “pipo”, “papipo”, “pippopa” Since recording is possible, different sounds (some functions may be the same) can be associated with a plurality of functions. Furthermore, sound or song data (such as song data or style data of a short phrase) that has already been recorded may be selected and associated with the target function.

なお本実施の形態では、サイン音が録音される度に、前記サイン音の再生設定画面10bを表示して、ユーザに当該サイン音の生成方法の設定を要求するようにしたが、一度サイン音の生成方法を設定し、次のサイン音の録音でも同じ再生方法を用いるのであれば、ユーザに生成方法の設定を問い合わせずに、つまり、サイン音の再生設定画面10bを表示せずに、自動的に現在設定されている再生方法を対応付けるようにしてもよい。さらに、サイン音の録音開始の操作自体を、再生方法に応じて異ならせるようにしてもよい。具体的には、フットスイッチをオンすることで録音を開始した場合には、再生方法を図2(b)の“(a)”とし、別の操作子をオンすることで録音を開始した場合には、再生方法を図2(b)の“(b)”とする、といった方法が考えられる。   In this embodiment, every time a sine sound is recorded, the sine sound reproduction setting screen 10b is displayed to request the user to set the method for generating the sine sound. If the same playback method is used for recording the next sine sound, the automatic generation is not performed without inquiring the user of the generation method setting, that is, without displaying the sine sound playback setting screen 10b. Alternatively, the currently set playback method may be associated. Furthermore, the operation itself for starting the recording of the sine sound may be varied depending on the reproduction method. Specifically, when recording is started by turning on the foot switch, the playback method is “(a)” in FIG. 2B, and recording is started by turning on another control. For example, a method of “(b)” in FIG.

前記図3のサイン音の録音および対応付け処理では、音高の異なるサイン音が録音されることは言及されているものの、音色の異なるサイン音が録音されることには言及されていない。電子機器100は、前述のように電子鍵盤楽器上に構築され、電子鍵盤楽器では通常、様々な音色の音を生成して発生させることができるので、ユーザは、好みの音色を指定した上で、サイン音の録音および対応付け処理の起動を指示すれば、その指定音色のサイン音を録音することができる。もちろん、サイン音の録音および対応付け処理が起動後、音色を変更してもよい。   In the process of recording and associating the sine sound shown in FIG. 3, it is mentioned that sine sounds having different pitches are recorded, but it is not mentioned that sine sounds having different timbres are recorded. The electronic device 100 is constructed on the electronic keyboard instrument as described above, and the electronic keyboard instrument can usually generate and generate sounds of various tones. Therefore, the user designates a favorite tone. If the start of the recording of the sine sound and the association process is instructed, the sine sound of the designated tone color can be recorded. Of course, the tone color may be changed after the recording of the signature sound and the association process are activated.

本実施の形態の電子機器100は、このように音色を変更できるので、たとえば、設定操作子2内に物理的な音色選択スイッチ(図示せず)を設けている。各音色選択スイッチの近傍には、そのスイッチによって選択される音色の音色名が英語で印刷されている。具体的には、“PIANO”,“ORGAN”,“STRINGS”などである。各音色選択スイッチが押されると、「ぴあの」、「おるがん」、「すとりんぐす」などと、音声ガイドによる音声が流れる。この各音色選択スイッチに対してサイン音を録音する場合、ユーザが押鍵して発生する音を当該音色の音に自動設定しておけば、録音して対応付けが完了した後、ある音色選択スイッチが押されたとき、音声ガイドとともに、当該音色のサイン音が発生する。これにより、英語が理解できないユーザでも、音色選択スイッチによってどの音色が選択されるか知ることができる。またこの場合、サイン音ではなく、当該音色で録音した楽曲を対応付けるようにしておけば、その楽曲を音色紹介用のデモデータとして使用することができる。   Since electronic device 100 of the present embodiment can change the timbre in this way, for example, a physical timbre selection switch (not shown) is provided in setting operator 2. In the vicinity of each timbre selection switch, the timbre name of the timbre selected by the switch is printed in English. Specifically, “PIANO”, “ORGAN”, “STRINGS”, and the like. When each timbre selection switch is pressed, “Piano”, “Orugan”, “Sutoringusu”, etc. will be heard. When recording a sine sound for each of these timbre selection switches, if the sound generated when the user presses the key is automatically set to the timbre of the timbre, a timbre can be selected after recording and matching. When the switch is pressed, a sine sound of the timbre is generated along with a voice guide. Thereby, even a user who cannot understand English can know which timbre is selected by the timbre selection switch. In this case, if the music recorded with the timbre is associated with not the signature sound, the tune can be used as demo data for timbre introduction.

本実施の形態の電子機器100は、曲データを再生する機能を備えている。内蔵デモ曲だけでなく、自分で演奏した曲も録音して曲データとして再生することができ、タッチパネル上に一覧表示された曲リストから所望の曲を選んで再生ボタンを押すことで、曲の再生が始まる。このような電子機器では、多くの曲データが存在する場合に、曲リストに表示された曲名(またはファイル名)だけで目的の曲を探すのが大変である。特に、自分で録音した曲データには、曲の内容とは無関係の名称、具体的には“song001”などの機械的に付けられたファイル名が自動付与されるため、名称だけでは目的の曲かどうかの判断が困難である。   Electronic device 100 of the present embodiment has a function of reproducing song data. In addition to the built-in demo songs, you can also record your own songs and play them as song data. Select the desired song from the song list displayed on the touch panel and press the play button. Playback starts. In such an electronic device, when there is a lot of song data, it is difficult to search for a target song only by the song name (or file name) displayed in the song list. In particular, the song data you recorded is automatically given a name that is unrelated to the song's content, specifically a mechanically named file name such as “song001”. It is difficult to judge whether or not.

そこで本発明を応用し、“song001”のファイルを選択した際にサイン音が再生されるようにするとよい。具体的には、曲の特徴的な1〜2秒のフレーズをサイン音として録音し、“song001”ファイルの選択操作と対応付けて記録する。こうすることで、ファイルを選んだだけで(再生操作を行わなくても)サイン音が再生され、容易に曲を判別することができるようになる。なお、サイン音を録音する際には、特徴的なフレーズを鍵盤で弾いて録音してもよいし、曲を再生して再生音を録音してもよい。   Therefore, it is preferable to apply the present invention so that a signature sound is reproduced when the file “song001” is selected. Specifically, a phrase of 1 to 2 seconds that is characteristic of a song is recorded as a sine sound, and is recorded in association with a selection operation of the “song001” file. In this way, a sine sound is reproduced just by selecting a file (without performing a reproduction operation), and a song can be easily identified. When recording a sine sound, it may be recorded by playing a characteristic phrase on the keyboard, or a playback sound may be recorded by playing a song.

また本実施の形態では、LCDとして、タッチパネル形式のものを採用したが、これに限らず、タッチパネル形式ではないものを採用してもよい。この場合、表示画面上のソフトウェアボタンは、タッチではなく、たとえば、ポインティングデバイスによって表示画面上のカーソルを移動させて選択し操作する。   In the present embodiment, a touch panel type LCD is used. However, the present invention is not limited to this, and a non-touch panel type LCD may be used. In this case, the software button on the display screen is not touched, but is selected and operated by moving the cursor on the display screen with a pointing device, for example.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

2…設定操作子(選択手段),7…CPU(録音手段、再生手段、ガイド手段、制御手段),11…記憶装置(記憶手段),13…音源・効果回路(発音手段),14…サウンドシステム(発音手段) 2 ... setting operation element (selection means), 7 ... CPU (recording means, reproduction means, guide means, control means), 11 ... storage device (storage means), 13 ... sound source / effect circuit (sound generation means), 14 ... sound System (pronunciation means)

Claims (7)

複数の機能を備えた電子機器であって、
前記複数の機能から、ユーザの指示に応じた機能を選択する選択手段と、
複数種類の音を発生可能な発音手段と、
前記発音手段から発生された音または当該発生音の基礎となる音情報を記録する録音手段と、
前記録音手段によって記録された発生音または音情報と、前記複数の機能のうちのいずれかとの対応付けを記憶する記憶手段と、
前記選択手段によっていずれかの機能が選択されたときに、前記記憶手段に記憶された対応付けによって当該機能に対応付けられた発生音または音情報に基づく音を再生する再生手段と
を有することを特徴とする電子機器。
An electronic device having a plurality of functions,
Selecting means for selecting a function according to a user's instruction from the plurality of functions;
Pronunciation means that can generate multiple types of sounds;
Recording means for recording the sound generated from the sound generation means or sound information that is the basis of the generated sound;
Storage means for storing the correspondence between the generated sound or sound information recorded by the recording means and any of the plurality of functions;
A reproduction unit that reproduces a sound based on the generated sound or the sound information associated with the function by the association stored in the storage unit when any function is selected by the selection unit. Features electronic equipment.
前記選択手段によっていずれかの機能が選択されたときに、当該機能に対応するガイド音声を発生するガイド手段をさらに有することを特徴とする請求項1に記載の電子機器。   The electronic apparatus according to claim 1, further comprising a guide unit that generates a guide sound corresponding to the function when any one of the functions is selected by the selection unit. 前記選択手段によっていずれかの機能が選択されたときに、前記再生手段に対して前記発生音または音情報に基づく音の再生を行わせるとともに、前記ガイド手段に対して当該機能に対応するガイド音声を発生させるように制御する制御手段をさらに有することを特徴とする請求項2に記載の電子機器。   When any function is selected by the selection unit, the reproduction unit reproduces the generated sound or the sound based on the sound information, and the guide unit causes the guide voice corresponding to the function to be reproduced. The electronic apparatus according to claim 2, further comprising a control unit that performs control so as to generate the noise. 前記選択手段によっていずれかの機能が選択されたときに、前記ガイド手段に対しては当該機能に対応するガイド音声を発生させず、前記再生手段に対して前記発生音または音情報に基づく音の再生を行わせるように制御する制御手段をさらに有することを特徴とする請求項2に記載の電子機器。   When any function is selected by the selection unit, the guide unit does not generate a guide voice corresponding to the function, and the reproduction unit generates a sound based on the generated sound or sound information. The electronic apparatus according to claim 2, further comprising a control unit that controls the reproduction. 前記発音手段は、前記複数種類の音を、その音高および/または音色を変えることによって発生することを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。   5. The electronic apparatus according to claim 1, wherein the sound generation unit generates the plurality of types of sounds by changing pitches and / or timbres thereof. 6. 複数の機能を備えた電子機器を制御する制御方法をコンピュータに実行させるためのプログラムであって、
前記制御方法は、
前記複数の機能から、ユーザの指示に応じた機能を選択する選択ステップと、
複数種類の音を発生可能な発音手段から発生された音または当該発生音の基礎となる音情報を記録する録音ステップと、
前記録音ステップによって記録された発生音または音情報と、前記複数の機能のうちのいずれかとの対応付けを記憶手段に記憶させる記憶ステップと、
前記選択ステップによっていずれかの機能が選択されたときに、前記記憶手段に記憶された対応付けによって当該機能に対応付けられた発生音または音情報に基づく音を再生する再生ステップと
を有する
ことを特徴とするプログラム。
A program for causing a computer to execute a control method for controlling an electronic device having a plurality of functions,
The control method is:
A selection step of selecting a function according to a user instruction from the plurality of functions;
A recording step for recording a sound generated from sound generation means capable of generating a plurality of types of sound or sound information that is the basis of the generated sound; and
A storage step of storing the generated sound or sound information recorded in the recording step and the association of any of the plurality of functions in a storage unit;
A reproduction step of reproducing a sound based on the generated sound or sound information associated with the function by the association stored in the storage means when any function is selected in the selection step. A featured program.
複数の機能を備えた電子機器を制御する制御方法であって、
前記複数の機能から、ユーザの指示に応じた機能を選択する選択ステップと、
複数種類の音を発生可能な発音手段から発生された音または当該発生音の基礎となる音情報を記録する録音ステップと、
前記録音ステップによって記録された発生音または音情報と、前記複数の機能のうちのいずれかとの対応付けを記憶手段に記憶させる記憶ステップと、
前記選択ステップによっていずれかの機能が選択されたときに、前記記憶手段に記憶された対応付けによって当該機能に対応付けられた発生音または音情報に基づく音を再生する再生ステップと
を有することを特徴とする制御方法。
A control method for controlling an electronic device having a plurality of functions,
A selection step of selecting a function according to a user instruction from the plurality of functions;
A recording step for recording a sound generated from sound generation means capable of generating a plurality of types of sound or sound information that is the basis of the generated sound; and
A storage step of storing the generated sound or sound information recorded in the recording step and the association of any of the plurality of functions in a storage unit;
A reproduction step of reproducing a sound based on the generated sound or sound information associated with the function by the association stored in the storage means when any function is selected in the selection step. Characteristic control method.
JP2013139689A 2013-07-03 2013-07-03 Electronic device, program for realizing control method of electronic device, and control method of electronic device Active JP6186955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013139689A JP6186955B2 (en) 2013-07-03 2013-07-03 Electronic device, program for realizing control method of electronic device, and control method of electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013139689A JP6186955B2 (en) 2013-07-03 2013-07-03 Electronic device, program for realizing control method of electronic device, and control method of electronic device

Publications (2)

Publication Number Publication Date
JP2015014829A true JP2015014829A (en) 2015-01-22
JP6186955B2 JP6186955B2 (en) 2017-08-30

Family

ID=52436541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013139689A Active JP6186955B2 (en) 2013-07-03 2013-07-03 Electronic device, program for realizing control method of electronic device, and control method of electronic device

Country Status (1)

Country Link
JP (1) JP6186955B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003202877A (en) * 2003-01-17 2003-07-18 Sharp Corp Alarm device of electric equipment
JP2004254006A (en) * 2003-02-19 2004-09-09 Matsushita Electric Ind Co Ltd Electronic equipment
JP2005338665A (en) * 2004-05-31 2005-12-08 Toshiba Corp Electronic apparatus
JP2007140376A (en) * 2005-11-22 2007-06-07 Canon Inc Voice output method
JP2008209826A (en) * 2007-02-28 2008-09-11 Yamaha Corp Mobile terminal device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003202877A (en) * 2003-01-17 2003-07-18 Sharp Corp Alarm device of electric equipment
JP2004254006A (en) * 2003-02-19 2004-09-09 Matsushita Electric Ind Co Ltd Electronic equipment
JP2005338665A (en) * 2004-05-31 2005-12-08 Toshiba Corp Electronic apparatus
JP2007140376A (en) * 2005-11-22 2007-06-07 Canon Inc Voice output method
JP2008209826A (en) * 2007-02-28 2008-09-11 Yamaha Corp Mobile terminal device

Also Published As

Publication number Publication date
JP6186955B2 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
JP4379291B2 (en) Electronic music apparatus and program
JP7420181B2 (en) Programs, methods, electronic equipment, and performance data display systems
JP2000056756A (en) Support apparatus for musical instrument training and record medium of information for musical instrument training
JP5870831B2 (en) Program and music image display apparatus for realizing music image display method
JP6186955B2 (en) Electronic device, program for realizing control method of electronic device, and control method of electronic device
JP5434405B2 (en) Program for realizing a control method for controlling an electronic music system
JP2013174771A (en) Electronic musical instrument, and program for realizing control method therefor
US20130204628A1 (en) Electronic apparatus and audio guide program
JP2008083628A (en) Sound signal processor and program
JP6255960B2 (en) Program and music data generating apparatus for realizing music data generating method
JP7371363B2 (en) Musical sound output device, electronic musical instrument, musical sound output method, and program
JP2006172534A (en) Music data processing apparatus and program
JP3843948B2 (en) Music content utilization apparatus and computer program applied to the apparatus
JP4214932B2 (en) Website program applied to server computer
JP2000172267A (en) Playing assistance apparatus and record medium for the same
JP2007256489A (en) Electronic musical instrument
JP4186853B2 (en) Accompaniment information setting device and program for realizing the control method
JP3843947B2 (en) Music content utilization apparatus and computer program applied to the apparatus
JP3885791B2 (en) Program for realizing automatic accompaniment apparatus and automatic accompaniment method
JP3843949B2 (en) Music content utilization apparatus and computer program applied to the apparatus
JP2005284076A (en) Electronic musical instrument
JP2010049032A (en) Electronic music device and music data utilization program
JP4089694B2 (en) Electronic music equipment
JP5200384B2 (en) Electronic musical instruments and programs
JP2023032143A (en) karaoke device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160523

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170717

R151 Written notification of patent or utility model registration

Ref document number: 6186955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151