JP2006277194A - Communication terminal - Google Patents

Communication terminal Download PDF

Info

Publication number
JP2006277194A
JP2006277194A JP2005093900A JP2005093900A JP2006277194A JP 2006277194 A JP2006277194 A JP 2006277194A JP 2005093900 A JP2005093900 A JP 2005093900A JP 2005093900 A JP2005093900 A JP 2005093900A JP 2006277194 A JP2006277194 A JP 2006277194A
Authority
JP
Japan
Prior art keywords
data
audio
sound
sequence data
file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005093900A
Other languages
Japanese (ja)
Other versions
JP4556179B2 (en
Inventor
Yoshimasa Isozaki
善政 磯崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2005093900A priority Critical patent/JP4556179B2/en
Publication of JP2006277194A publication Critical patent/JP2006277194A/en
Application granted granted Critical
Publication of JP4556179B2 publication Critical patent/JP4556179B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To easily edit a background sound or sound effects or the like when preparing electronic mail with voice information attached thereto. <P>SOLUTION: A voice signal collected from a microphone 18 is converted into voice data, and when ten keys in an operation key part 8 are operated, sequence data (performance information) corresponding to the operated keys are generated. In this case, timing information is recorded in the sequence data so as to be synchronized with the voice data. Then, the voice data and the sequence data are stored in one file in an RAM 4, and attached to the electronic mail, and transmitted/received. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、いわゆる音声メールの作成に用いて好適な通信端末に関する。   The present invention relates to a communication terminal suitable for use in creating a so-called voice mail.

電子メールに音声ファイルを添付することによりユーザの音声を記録した音声メールを送受信する技術が知られている。特に、特許文献1においては、送信側ユーザ端末からサーバに対してテキスト形式のメッセージがアップロードされると、サーバにおいて該テキスト形式のメッセージが声色情報に基づいて音声情報に変換され、さらに該音声情報に背景音(BGM)や効果音が付加された後に受信側ユーザ端末に送信される技術が開示されている。   2. Description of the Related Art A technique for transmitting and receiving a voice mail recording a user's voice by attaching a voice file to the electronic mail is known. In particular, in Patent Document 1, when a text format message is uploaded from the transmission-side user terminal to the server, the text format message is converted into voice information based on voice color information in the server, and the voice information is further converted. A technique is disclosed in which a background sound (BGM) or a sound effect is added to the user terminal and then transmitted to the receiving user terminal.

特開2002−99486号公報JP 2002-99486 A

しかし、上述した技術においては、サーバ側にテキスト形式のメッセージを音声情報に変換する機能等が必要になり、サーバの負荷が増大するという問題がある。また、最終的に生成された音声信号において、例えば背景音や効果音が所望のタイミングよりずれて音声情報に付加されていた等、送信側ユーザにとって不本意なものであった場合に、送信側ユーザが人声部分を残しつつ背景音や効果音のみを編集することも不可能であった。
この発明は上述した事情に鑑みてなされたものであり、サーバにおける負荷を軽減できるとともに背景音や効果音を自由に編集しつつ音声情報を添付した電子メールを送受信できる通信端末を提供することを目的としている。
However, the above-described technique requires a function for converting a text format message into voice information on the server side, which increases the load on the server. In addition, in the finally generated audio signal, for example, when the background sound or sound effect is unintentional for the transmission side user such as being added to the audio information with a deviation from the desired timing, the transmission side It is also impossible for the user to edit only the background sound and the sound effect while leaving the human voice part.
The present invention has been made in view of the above-described circumstances, and provides a communication terminal that can reduce the load on the server and can send and receive e-mails with voice information attached while freely editing background sounds and sound effects. It is aimed.

上記課題を解決するため本発明にあっては、下記構成を具備することを特徴とする。なお、括弧内は例示である。
請求項1記載の通信端末にあっては、音声信号を集音するマイク(18)と、データを記憶する記憶手段(4)と、前記マイク(18)により集音された音声信号を音声データに変換する変換手段(16)と、ユーザからの操作を受け付ける操作手段(8)と、前記操作手段(8)に対する操作に応じて、楽音の再生開始を指示するイベントデータを含むシーケンスデータを生成するシーケンスデータ生成手段(2,SP6,SP36)と、前記音声データと前記シーケンスデータとを同期させつつ同一ファイル(100)内に包含させ、前記記憶手段(4)に記憶させるファイル生成手段(SP16,SP48)と、前記ファイルを添付した電子メールを送信または受信する通信手段(14)と、前記ファイルから前記音声データを読み出し、前記音声信号を再生する音声信号再生手段(28)と、前記ファイルから前記シーケンスデータを読み出し、前記音声信号に同期させつつ楽音信号を再生する楽音信号再生手段(20,22,24,26)とを有することを特徴とする。
さらに、請求項2記載の構成にあっては、請求項1記載の通信端末において、前記操作手段(8)は複数のボタンを有し、これら各ボタンに対して異なるイベントデータが割り当てられていることを特徴とする。
さらに、請求項3記載の構成にあっては、請求項1記載の通信端末において、前記シーケンスデータ生成手段(2,SP6,SP36)は、前記変換手段(16)によって前記音声データが作成されている途中のタイミングである記録タイミングに前記操作手段(8)が操作された場合には、該音声データの当該記録タイミングに係る音声信号と、前記操作手段(8)の操作内容に係る楽音信号とが同時に再生されるように前記ファイルを生成することを特徴とする。
さらに、請求項4記載の構成にあっては、請求項3記載の通信端末において、前記シーケンスデータ生成手段(2,SP6,SP36)は、前記音声信号再生手段(28)によって音声信号が再生されている途中のタイミングである再生タイミングに前記操作手段(8)が操作された場合には、該音声データの当該再生タイミングに係る音声信号と、前記操作手段(8)の操作内容に係る楽音信号とが同時に再生されるように前記ファイルを更新することを特徴とする。
In order to solve the above problems, the present invention is characterized by having the following configuration. The parentheses are examples.
In the communication terminal according to claim 1, a microphone (18) for collecting a voice signal, a storage means (4) for storing data, and a voice signal collected by the microphone (18) as voice data. Generating sequence data including event data for instructing the start of reproduction of a musical sound in response to an operation on the operation means (8) Sequence data generating means (2, SP6, SP36) to be performed, and the sound data and the sequence data are synchronized and included in the same file (100) and stored in the storage means (4) (SP16) , SP48), a communication means (14) for sending or receiving an e-mail attached with the file, and reading the audio data from the file An audio signal reproducing means (28) for reproducing the audio signal, and a musical sound signal reproducing means (20, 22, 24, 26) for reading out the sequence data from the file and reproducing the musical sound signal in synchronization with the audio signal. It is characterized by having.
Furthermore, in the configuration according to claim 2, in the communication terminal according to claim 1, the operation means (8) has a plurality of buttons, and different event data is assigned to each button. It is characterized by that.
Furthermore, in the configuration according to claim 3, in the communication terminal according to claim 1, the sequence data generation means (2, SP6, SP36) is configured such that the voice data is created by the conversion means (16). When the operation means (8) is operated at a recording timing that is in the middle of being recorded, an audio signal related to the recording timing of the audio data and a musical sound signal related to the operation content of the operation means (8) Are generated so that the files are reproduced simultaneously.
Furthermore, in the configuration according to claim 4, in the communication terminal according to claim 3, the sequence data generating means (2, SP6, SP36) reproduces an audio signal by the audio signal reproducing means (28). When the operation means (8) is operated at a reproduction timing that is in the middle of being played, an audio signal related to the reproduction timing of the audio data and a musical sound signal related to the operation content of the operation means (8) The file is updated so that and are reproduced simultaneously.

このように本発明の通信端末によれば、音声データに対してシーケンスデータを同期させつつ追加できるから、背景音や効果音を自由に編集しつつ音声情報を添付した電子メールを送受信することができる。さらに、通信端末は完成された状態で音声メールを送受信するから、サーバはデータ転送を行う機能を有していれば充分であり、サーバの負荷も軽減することができる。   As described above, according to the communication terminal of the present invention, sequence data can be added while being synchronized with voice data, so that an electronic mail with voice information attached can be transmitted and received while freely editing background sounds and sound effects. it can. Furthermore, since the communication terminal transmits and receives voice mails in a completed state, it is sufficient that the server has a function of transferring data, and the load on the server can be reduced.

1.実施例のハードウエア構成
次に、本発明の一実施例の携帯電話器の構成を図1を参照し説明する。
図において2はCPUであり、ROM6に格納された制御プログラムに基づいて、バス12を介して携帯電話器内の各部を制御する。4はRAMであり、CPU2のワークメモリとして使用される。8は操作キー部であり、テンキーおよびファンクションキー等から構成されている。10は表示部であり、ユーザに対して各種情報を表示する。
1. Hardware Configuration of Embodiment Next, the configuration of a mobile phone according to an embodiment of the present invention will be described with reference to FIG.
In the figure, reference numeral 2 denotes a CPU which controls each part in the cellular phone device via the bus 12 based on a control program stored in the ROM 6. A RAM 4 is used as a work memory for the CPU 2. Reference numeral 8 denotes an operation key unit, which includes a numeric keypad and function keys. Reference numeral 10 denotes a display unit that displays various types of information to the user.

14は通信部であり、図示せぬ基地局との間でRF信号を送受信する。すなわち、基地局から受信したRF信号を復調することによって受信ベースバンド信号を生成するとともに、供給された送信ベースバンド信号を変調することによって送信RF信号を生成し基地局に対して送信する。16は音声処理部であり、マイク18から入力された音声信号を符号化して送信ベースバンド信号を生成し通信部14に供給するとともに、受信ベースバンド信号を復調することによって相手側等からのデジタル音声信号を再生し、ミキシング部17に音声信号を供給する。ミキシング部17は、スイッチ34からの音声信号と音声処理部16からの音声信号をミキシングして受話用スピーカ19に供給する。また、音声処理部16は、マイク18から入力されたアナログ音声信号をPCM音声データにも変換することができる。変換されたPCM音声データは、バス12を介してCPU2に供給される。   A communication unit 14 transmits and receives RF signals to and from a base station (not shown). That is, a reception baseband signal is generated by demodulating the RF signal received from the base station, and a transmission RF signal is generated by modulating the supplied transmission baseband signal and transmitted to the base station. Reference numeral 16 denotes an audio processing unit that encodes an audio signal input from the microphone 18 to generate a transmission baseband signal and supplies the transmission baseband signal to the communication unit 14. The audio signal is reproduced and the audio signal is supplied to the mixing unit 17. The mixing unit 17 mixes the audio signal from the switch 34 and the audio signal from the audio processing unit 16 and supplies them to the reception speaker 19. The audio processing unit 16 can also convert the analog audio signal input from the microphone 18 into PCM audio data. The converted PCM audio data is supplied to the CPU 2 via the bus 12.

次に、20はシーケンスデータ・インタフェースであり、バス12を介してシーケンスデータ(MIDI等の演奏情報)を受信する。このシーケンスデータは複数のイベントデータから成るものであり、各イベントデータは発生すべき楽音の内容(音高、音色、音長、音量など)と、当該イベントを発生すべき再生時刻とから構成されている。そして、シーケンスデータ・インタフェース20においては、これらイベントデータが発生時刻順にFIFOバッファ22に供給される。24はシーケンサであり、FIFOバッファ22の先頭に位置するイベントデータの再生時刻と現在時刻とが一致すると、該先頭のイベントデータを読み出し、当該イベントデータを音源26に供給する。これにより、音源26においては、イベントデータに基づいてデジタル楽音信号の生成/消音等の処理が実行される。なお、シーケンサ24によって読み出されたイベントデータはFIFOバッファ22内では消去され、2番目以降のイベントデータの順位が「1」づつ繰り上がることになる。   Reference numeral 20 denotes a sequence data interface which receives sequence data (performance information such as MIDI) via the bus 12. This sequence data consists of a plurality of event data, and each event data is composed of the content of a musical tone to be generated (pitch, timbre, tone length, volume, etc.) and a playback time at which the event is to be generated. ing. In the sequence data interface 20, these event data are supplied to the FIFO buffer 22 in the order of occurrence time. Reference numeral 24 denotes a sequencer. When the reproduction time of the event data located at the head of the FIFO buffer 22 coincides with the current time, the head event data is read and the event data is supplied to the sound source 26. As a result, in the sound source 26, processing such as generation / silence of a digital musical tone signal is executed based on the event data. The event data read by the sequencer 24 is erased in the FIFO buffer 22, and the order of the second and subsequent event data is incremented by "1".

次に、28はオーディオ・インタフェースであり、バス12を介してPCM音声データを受信し、オーディオデコーダ29に供給する。オーディオデコーダ29は所定のサンプリング周期毎に該PCM音声データを読み出し、デジタル音声信号を生成する。ミキシング部30においては、音源26とオーディオデコーダ29から供給されたデジタル音声信号がミキシングされる。32はDAコンバータであり、このミキシングされたデジタル音声信号をアナログ音声信号に変換する。変換されたアナログ音声信号は、スイッチ34を介して着信音用スピーカ36、イヤホンジャック38から出力され、またはミキシング部17を介して受話用スピーカ19から出力される。なお、スイッチ34はイヤホンジャック38にイヤホンのプラグが挿入されたときに自動的にイヤホンジャック38側を選択し、それ以外の場合は着信音用スピーカ36または受話用スピーカ19を選択するように構成されている。そして、イヤホンジャック38にプラグが挿入されているか否かの情報はバス12を介してCPU2に供給される。また、スイッチ34における着信音用スピーカ36と受話用スピーカ19の選択は、操作キー部8の操作によってなされる。なお、シーケンスデータ・インタフェース20、FIFOバッファ22、シーケンサ24、音源26、オーディオ・インタフェース28、オーディオデコーダ29、ミキシング部30およびDAコンバータ32は、音源LSI50として1チップで構成される。   An audio interface 28 receives PCM audio data via the bus 12 and supplies the PCM audio data to the audio decoder 29. The audio decoder 29 reads out the PCM audio data every predetermined sampling period and generates a digital audio signal. In the mixing unit 30, the digital audio signal supplied from the sound source 26 and the audio decoder 29 is mixed. A DA converter 32 converts the mixed digital audio signal into an analog audio signal. The converted analog audio signal is output from the ring tone speaker 36 and the earphone jack 38 via the switch 34, or is output from the reception speaker 19 via the mixing unit 17. The switch 34 is configured to automatically select the earphone jack 38 side when the earphone plug is inserted into the earphone jack 38, and to select the ringtone speaker 36 or the receiving speaker 19 otherwise. Has been. Information on whether or not a plug is inserted into the earphone jack 38 is supplied to the CPU 2 via the bus 12. The selection of the ring tone speaker 36 and the reception speaker 19 in the switch 34 is performed by operating the operation key unit 8. The sequence data interface 20, the FIFO buffer 22, the sequencer 24, the sound source 26, the audio interface 28, the audio decoder 29, the mixing unit 30 and the DA converter 32 are configured as one sound source LSI 50.

2.実施例のデータ構成
次に、本実施例に採用されるSMAF(商標)ファイル100のデータフォーマットを図2を参照し説明する。図2において102はコンテンツ・インフォ・チャンクであり、コンテンツのタイプ(着信メロディ、カラオケ系、CM系)、文字情報の言語・文字コード体系、ステータス等の各種管理情報が格納される。104はオプショナル・データ・チャンクであり、楽曲のジャンル名、曲名、アーティスト名等が必要に応じて格納される。また、110はスコア・トラック・チャンクであり、楽曲のシーケンスデータ(MIDI)が格納される。該スコア・トラック・チャンク110には、一のシーケンスデータ・チャンク112と、セットアップデータ・チャンク114とが含まれる。ここで、シーケンスデータ・チャンク112には背景音や効果音のシーケンスデータが格納される。
2. Next, the data format of the SMAF (trademark) file 100 employed in this embodiment will be described with reference to FIG. In FIG. 2, reference numeral 102 denotes a content info chunk, which stores various management information such as content type (incoming melody, karaoke system, CM system), language / character code system of character information, and status. Reference numeral 104 denotes an optional data chunk, which stores the genre name, song name, artist name, etc. of the song as necessary. Reference numeral 110 denotes a score track chunk, which stores music sequence data (MIDI). The score track chunk 110 includes one sequence data chunk 112 and a setup data chunk 114. Here, the sequence data chunk 112 stores sequence data of background sounds and sound effects.

また、セットアップデータ・チャンク114には、該シーケンスデータによって使用される音色データやエフェクトの設定状態等が記憶される。また、120はオーディオ・データ・トラック・チャンクであり、PCMの音声データが格納される。本実施例においては、音声処理部16を介して出力される話者の音声データはオーディオ・データ・トラック・チャンク120に格納されることになる。なお、スコア・トラック・チャンク110およびオーディオ・データ・トラック・チャンク120は一のSMAFファイル100内に必要に応じて複数設けることができる。従って、前述の背景音や効果音は、他の音声データとして、別のオーディオ・データ・トラック・チャンク120に格納することができる。   The setup data chunk 114 stores timbre data used by the sequence data, effect setting state, and the like. An audio data track chunk 120 stores PCM audio data. In the present embodiment, the voice data of the speaker output via the voice processing unit 16 is stored in the audio data track chunk 120. A plurality of score track chunks 110 and audio data track chunks 120 can be provided in one SMAF file 100 as necessary. Therefore, the above-mentioned background sound and sound effect can be stored in another audio data track chunk 120 as other audio data.

次に、SMAFファイル100の再生タイミングチャートの一例を図3を参照し説明する。まず、オーディオ・データ・トラック・チャンク120は二系統設けられている。一方のチャンク120(オーディオトラックA)には、基準タイミングt0から開始する話者の音声データが記録される。そして、他方のチャンク120(オーディオトラックB)には、効果音等の音声データが記録される。また、図示の例においてはスコア・トラック・チャンク110も二系統設けられている。一方のスコア・トラック・チャンク110に属するシーケンスデータ・チャンク112(シーケンストラックA)には、効果音に係るシーケンスデータのイベントデータE1〜E4が記録され、一つのシーケンスデータになっている。他方のスコア・トラック・チャンク110に属するシーケンスデータ・チャンク112(シーケンストラックB)には、背景音に係るシーケンスデータBGM1,BGM2が記録され、一つのシーケンスデータになっている。各シーケンスデータには、基準タイミングt0からの経過時間によって再生開始タイミングが記録されている。これにより、各シーケンスデータはオーディオトラックAの音声データに対して同期してSMAFファイル100内に記録されることになる。なお、イベントデータは、オーディオ・データ・トラック・チャンク120に格納されている何れかの効果音等の音声データを指定するデータであってもよい。その場合、シーケンサ24は、そのイベントの再生時刻に達すると、CPU2に対して該当する音声データをオーディオ・インタフェース28に供給するための信号を送ることにより、その効果音等の音声データは適切なタイミングで再生される。   Next, an example of a reproduction timing chart of the SMAF file 100 will be described with reference to FIG. First, two audio data track chunks 120 are provided. In one chunk 120 (audio track A), the voice data of the speaker starting from the reference timing t0 is recorded. The other chunk 120 (audio track B) records sound data such as sound effects. In the illustrated example, two systems of score track chunks 110 are also provided. In the sequence data chunk 112 (sequence track A) belonging to one score track chunk 110, event data E1 to E4 of the sequence data related to the sound effect are recorded, and is one sequence data. In the sequence data chunk 112 (sequence track B) belonging to the other score track chunk 110, sequence data BGM1 and BGM2 related to the background sound are recorded to form one sequence data. In each sequence data, the reproduction start timing is recorded by the elapsed time from the reference timing t0. Thereby, each sequence data is recorded in the SMAF file 100 in synchronization with the audio data of the audio track A. The event data may be data designating sound data such as any sound effect stored in the audio data track chunk 120. In that case, when the sequencer 24 reaches the playback time of the event, the sequencer 24 sends a signal for supplying the corresponding audio data to the audio interface 28 to the CPU 2, so that the sound data such as the sound effect is appropriate. Played at the timing.

3.実施例の動作
3.1.録音処理
新たにメッセージを録音してSMAFファイル100を作成する場合には、ユーザにより、操作キー部8において所定の録音スタート操作が行われる。この録音スタート操作が行われると、図4に示す録音処理ルーチンが起動される。図4において処理がステップSP2に進むと、マイク18および音声処理部16を介して供給されたPCM音声データが所定時間だけ蓄積されるまで処理が待機し、該所定時間だけデータが蓄積されると、蓄積された音声データがオーディオ・データ・トラック・チャンク120の形式に変換され、RAM4内の所定領域に書き込まれる。次に、処理がステップSP4に進むと、サウンド・エフェクトボタンが押下されたか否かが判定される。ここで、「サウンド・エフェクトボタン」とは、操作キー部8に含まれるテンキーである。これらテンキーには、例えば、1:拍手、2:歓声、3:動物の鳴き声、4:ファンファーレ....等の比較的短い効果音、あるいは比較的長い楽曲(背景音)のシーケンスデータあるいは効果音等の音声データがアサインされている。
3. Operation of the embodiment
3.1. Recording process When a message is newly recorded and the SMAF file 100 is created, the user performs a predetermined recording start operation in the operation key unit 8. When this recording start operation is performed, a recording processing routine shown in FIG. 4 is started. When the process proceeds to step SP2 in FIG. 4, the process waits until the PCM audio data supplied via the microphone 18 and the audio processing unit 16 is accumulated for a predetermined time, and when the data is accumulated for the predetermined time. The accumulated audio data is converted into the format of the audio data track chunk 120 and written in a predetermined area in the RAM 4. Next, when the process proceeds to step SP4, it is determined whether or not the sound / effect button has been pressed. Here, the “sound / effect button” is a numeric keypad included in the operation key unit 8. These numeric keys include, for example, relatively short sound effects such as 1: applause, 2: cheers, 3: animal sounds, 4: fanfare, etc., or sequence data or effects of relatively long music (background sounds). Audio data such as sound is assigned.

ステップSP4において「YES」と判定されると、処理はステップSP6に進み、該サウンド・エフェクトボタンに対応するシーケンスデータまたは音声データがRAM4内の所定領域に記憶され、新たなシーケンスデータが作成される。ここで、押下されたサウンド・エフェクトボタンが効果音等のシーケンスデータに対応するものであった場合は、新たに作成されるシーケンスデータは、該効果音等のシーケンスデータ内のイベントデータを利用して作成される。すなわち、該サウンド・エフェクトボタンの押下タイミングにおいて該効果音等のシーケンスデータに係る楽音の再生が開始されるように、新たなシーケンスデータの各イベントデータが作成されることになる。一方、押下されたサウンド・エフェクトボタンが効果音等の音声データである場合は、新たなシーケンスデータは、このサウンド・エフェクトボタンの押下タイミングに該音声データの再生を開始させるイベントデータになる。   If "YES" is determined in step SP4, the process proceeds to step SP6, where sequence data or audio data corresponding to the sound / effect button is stored in a predetermined area in the RAM 4, and new sequence data is created. . If the pressed sound / effect button corresponds to sequence data such as sound effects, the newly created sequence data uses event data in the sequence data such as sound effects. Created. That is, each event data of new sequence data is created so that the reproduction of the musical sound related to the sequence data such as the sound effect is started at the timing when the sound / effect button is pressed. On the other hand, when the pressed sound / effect button is sound data such as a sound effect, the new sequence data becomes event data for starting playback of the sound data at the timing of pressing the sound / effect button.

次に、処理がステップSP8に進むと、イヤホンジャック38にイヤホンプラグが挿入されているか否かが判定される。ここで「YES」と判定されると、処理はステップSP10に進み、該サウンド・エフェクトボタンに対応する効果音等の再生が開始される。具体的には、上記シーケンスデータを構成する各イベントデータがシーケンスデータ・インタフェース20に順次供給される。従って、これらイベントデータがFIFOバッファ22、シーケンサ24を介して音源26に供給されると、ここでイベントデータに応じた効果音等の楽音信号が合成され、該効果音等はDAコンバータ32、イヤホンジャック38を介してイヤホンから放音されることになる。   Next, when the process proceeds to step SP8, it is determined whether or not an earphone plug is inserted into the earphone jack 38. If "YES" is determined here, the process proceeds to step SP10, and reproduction of a sound effect or the like corresponding to the sound / effect button is started. Specifically, each event data constituting the sequence data is sequentially supplied to the sequence data interface 20. Accordingly, when these event data are supplied to the sound source 26 via the FIFO buffer 22 and the sequencer 24, a musical sound signal such as a sound effect corresponding to the event data is synthesized here, and the sound effect is converted into a DA converter 32, an earphone, and the like. Sound is emitted from the earphone via the jack 38.

一方、ステップSP8において「NO」と判定されると、処理はステップSP9に進み、スイッチ34において受話用スピーカ19が選択されているか否か(効果音等の供給先として、操作キー部8において受話用スピーカ19が選択されたか否か)が判定される。ここで「YES」と判定されると、処理は上記ステップSP10に進む。但し、ステップSP9経由でステップSP10が実行された場合には、効果音等はDAコンバータ32、ミキシング部17を介して受話用スピーカ19から放音されることになる。また、イヤホンが挿入されておらず、スイッチ34において着信音用スピーカ36が選択されていた場合には、上記ステップSP10はスキップされる。これは、携帯電話器においてはマイク18と着信音用スピーカ36とが近接しており、着信音用スピーカ36の音量は受話用スピーカ19よりも大きいため、マイク18を介して収録中に着信音用スピーカ36から音声信号を放音すると回り込みが起きる可能性があるためである。但し、比較的音量が小さいイヤホンあるいは受話用スピーカ19を介して音声信号を放音する場合にはかかる不具合は生じにくいため、これらの場合にのみ効果音等を放音することとしたものである。特に、受話用スピーカ19を介して効果音等を放音する場合は、ユーザは電話をかけているようなスタイルで効果音等を聞きながらメッセージを録音することができる。なお、受話用スピーカ19から効果音等を放音した場合においても前述の回り込みの問題が生じる場合には、エコーキャンセラ機能を追加して回り込んだ信号を消去するようにしてもよい。次に、処理がステップSP12に進むと、該サウンド・エフェクトボタンに係る効果音等の内容を表す文字または図形が表示部10に表示される。例えば、効果音として「1:拍手」が選択された場合には、「“拍手”再生中」の文字列とともに手を叩いている画像が表示部10に表示される。これにより、実際に効果音等が放音されていない状態においても、ユーザは何れの効果音あるいは背景音が記録されているのかを認識することが可能になる。   On the other hand, if “NO” is determined in step SP8, the process proceeds to step SP9, and whether or not the receiving speaker 19 is selected in the switch 34 (received in the operation key unit 8 as a supply destination of the sound effect or the like). Whether or not the speaker 19 is selected) is determined. If "YES" is determined here, the process proceeds to the step SP10. However, when step SP10 is executed via step SP9, sound effects and the like are emitted from the receiving speaker 19 via the DA converter 32 and the mixing unit 17. If no earphone is inserted and the ring tone speaker 36 is selected in the switch 34, the step SP10 is skipped. This is because, in a mobile phone, the microphone 18 and the ring tone speaker 36 are close to each other, and the volume of the ring tone speaker 36 is larger than that of the receiving speaker 19, so that the ring tone is being recorded during recording through the microphone 18. This is because if a sound signal is emitted from the speaker 36 for use, there is a possibility that a wraparound may occur. However, when sound signals are emitted through the earphone or the receiving speaker 19 having a relatively low volume, such a problem is unlikely to occur, and sound effects are emitted only in these cases. . In particular, when a sound effect or the like is emitted through the receiving speaker 19, the user can record a message while listening to the sound effect or the like in the style of making a phone call. Even when sound effects are emitted from the receiving speaker 19, if the above-mentioned wraparound problem occurs, an echo canceller function may be added to erase the wraparound signal. Next, when the process proceeds to step SP12, characters or figures representing the contents such as sound effects related to the sound / effect buttons are displayed on the display unit 10. For example, when “1: applause” is selected as a sound effect, an image of a clapping hand is displayed on the display unit 10 together with a character string “playing applause”. As a result, even when no sound effect is actually emitted, the user can recognize which sound effect or background sound is recorded.

次に、処理がステップSP14に進むと、終了操作が実行されたか否か、すなわち操作キー部8における所定のボタンであるストップボタンが押下されたか否かが判定される。ここで「NO」と判定されると処理はステップSP2に戻り、ステップSP2〜SP12の処理が繰り返されることになる。一方、ストップボタンが押下されるとステップSP14において「YES」と判定され、処理はステップSP16に進む。ここでは、上記ステップSP2〜SP12において作成された音声データおよびシーケンスデータに基づいてSMAFファイル100が構築される。その際、音声データはオーディオ・データ・トラック・チャンク120、シーケンスデータはスコア・トラック・チャンク110内に記録されることになる。さらに、コンテンツ・インフォ・チャンク102あるいはオプショナル・データ・チャンク104の内容も必要に応じて追加される。   Next, when the process proceeds to step SP14, it is determined whether or not an end operation has been executed, that is, whether or not a stop button that is a predetermined button in the operation key unit 8 has been pressed. If "NO" is determined here, the process returns to step SP2, and the processes of steps SP2 to SP12 are repeated. On the other hand, if the stop button is pressed, “YES” is determined in step SP14, and the process proceeds to step SP16. Here, the SMAF file 100 is constructed based on the audio data and sequence data created in steps SP2 to SP12. At this time, the audio data is recorded in the audio data track chunk 120, and the sequence data is recorded in the score track chunk 110. Further, the contents of the content info chunk 102 or the optional data chunk 104 are added as necessary.

次に、処理がステップSP18に進むと、該SMAFファイル100を電子メールに添付するか否かの問合せメッセージが表示部10に表示され、ユーザの操作があるまで処理が待機する。ここで、電子メールに添付する旨の操作が行われた場合は「YES」と判定され処理はステップSP22に進み、指定された電子メールに当該SMAFファイル100が添付される。一方、ステップSP20において「NO」と判定されると、処理はそのまま終了する。   Next, when the process proceeds to step SP18, an inquiry message as to whether to attach the SMAF file 100 to the e-mail is displayed on the display unit 10, and the process waits until a user operation is performed. Here, if an operation for attaching to an e-mail is performed, “YES” is determined, and the process proceeds to step SP22, where the SMAF file 100 is attached to the designated e-mail. On the other hand, if it is determined as “NO” in step SP20, the processing is ended as it is.

3.2.効果音等修正処理
また、既存のSMAFファイル100の効果音等を修正する場合には、ユーザにより、操作キー部8において所定の効果音等修正開始操作が行われる。かかる操作が行われると、図5に示す効果音修正ルーチンが起動される。図において処理がステップSP30に進むと、SMAFファイル100から音声データおよびシーケンスデータが所定区間だけ読み出される。次に、処理がステップSP32に進むと、音声データとシーケンスデータとが各々オーディオ・インタフェース28およびシーケンスデータ・インタフェース20に送信される。次に、処理がステップSP34に進むと、何れかのサウンド・エフェクトボタンが押下されたか否かが判定される。ここで「YES」と判定されると、処理はステップSP36に進み、該サウンド・エフェクトボタンに対応する効果音を指定するイベントデータがシーケンスデータ・チャンク112内に挿入される。その際、効果音等修正開始操作が行われたタイミングからの経過時間がタイミング情報として各イベントデータに付与される。次に、処理がステップSP38に進むと、該効果音の内容を表す文字または図形が表示部10に表示される。
3.2. Effect Sound Correction Processing Further, when correcting the sound effect or the like of the existing SMAF file 100, the user performs a predetermined sound effect correction start operation on the operation key unit 8. When such an operation is performed, a sound effect correction routine shown in FIG. 5 is started. In the figure, when the process proceeds to step SP30, audio data and sequence data are read from the SMAF file 100 for a predetermined period. Next, when the process proceeds to step SP32, audio data and sequence data are transmitted to the audio interface 28 and the sequence data interface 20, respectively. Next, when the process proceeds to step SP34, it is determined whether or not any sound / effect button has been pressed. If “YES” is determined here, the process proceeds to step SP 36, and event data specifying the sound effect corresponding to the sound / effect button is inserted into the sequence data chunk 112. At that time, the elapsed time from the timing when the correction start operation such as sound effects is performed is given to each event data as timing information. Next, when the process proceeds to step SP38, characters or figures representing the contents of the sound effects are displayed on the display unit 10.

一方、サウンド・エフェクトボタンが押下されなかった場合は処理はステップSP40に進み、所定のサウンド・エフェクト・キャンセルボタンが押下されたか否かが判定される。ここで「YES」と判定されると、処理はステップSP42に進み、現在のタイミングで再生中の効果音のイベントデータがシーケンスデータ・チャンク112から削除される。次に、処理がステップSP44に進むと、該効果音の内容を表す文字または図形とともに、該効果音がキャンセルされた旨を示す内容が表示部10に表示される。また、サウンド・エフェクトボタンおよびサウンド・エフェクト・キャンセルボタンの何れも押下されなかった場合は、上記ステップSP36,SP38,SP42,SP44の処理はスキップされる。   On the other hand, if the sound / effect button has not been pressed, the process proceeds to step SP40 to determine whether or not a predetermined sound / effect / cancel button has been pressed. If “YES” is determined here, the process proceeds to step SP 42, and the event data of the sound effect being reproduced at the current timing is deleted from the sequence data chunk 112. Next, when the process proceeds to step SP44, contents indicating that the sound effect has been canceled are displayed on the display unit 10 together with characters or figures representing the contents of the sound effect. If neither the sound / effect button nor the sound / effect / cancel button is pressed, the processing in steps SP36, SP38, SP42, and SP44 is skipped.

次に、処理がステップSP46に進むと、操作キー部8において所定の終了操作が実行され(ストップボタンが押下され)、またはSMAFファイル100の再生が終了したか否かが判定される。終了操作が実行されておらず、SMAFファイル100の再生も終了していない場合は処理はステップSP30に戻る。以下、かかる条件が充足されるまでステップSP30〜SP44の処理が繰り返されることになる。そして、終了操作が実行され、あるいはSMAFファイル100の再生が終了すると、処理はステップSP48に進む。ここでは、必要に応じてSMAFファイル100が修正される。次に、ステップSP50〜SP54においては、上述したステップSP18〜SP22と同様の処理が実行される。すなわち、作成されたSMAFファイル100が必要に応じて指定された電子メールに添付され、本ルーチンの処理が終了する。   Next, when the process proceeds to step SP46, it is determined whether a predetermined end operation is executed in the operation key unit 8 (stop button is pressed) or whether the reproduction of the SMAF file 100 is ended. If the end operation has not been executed and the reproduction of the SMAF file 100 has not ended, the process returns to step SP30. Hereinafter, the processing of steps SP30 to SP44 is repeated until such a condition is satisfied. When the end operation is executed or the reproduction of the SMAF file 100 is ended, the process proceeds to step SP48. Here, the SMAF file 100 is modified as necessary. Next, in steps SP50 to SP54, the same processing as in steps SP18 to SP22 described above is executed. In other words, the created SMAF file 100 is attached to the designated e-mail as necessary, and the processing of this routine ends.

3.3.再生処理
次に、本実施例の携帯電話器において作成したSMAFファイルまたは他の端末において作成され本実施例の携帯電話器に電子メールとともに送信されたSMAFファイルを再生する処理について説明する。このSMAFファイル100を再生する場合は、音声データおよびシーケンスデータの双方を同期させつつ再生する動作モード、または何れか一方のみを再生する動作モードがユーザによって選択される。そして、再生対象のSMAFファイルが選択され、所定の再生開始操作が該ユーザによって実行されると、図6に示す再生ルーチンが起動される。
3.3. Reproduction Process Next, a process for reproducing the SMAF file created in the cellular phone of this embodiment or the SMAF file created in another terminal and transmitted to the cellular phone of this embodiment together with the e-mail will be described. When reproducing the SMAF file 100, the user selects an operation mode in which both audio data and sequence data are reproduced while being synchronized, or an operation mode in which only one of them is reproduced. Then, when the SMAF file to be reproduced is selected and a predetermined reproduction start operation is executed by the user, the reproduction routine shown in FIG. 6 is started.

図において処理がステップSP60に進むと、SMAFファイル100から音声データおよびシーケンスデータが所定区間だけ読み出される。次に、処理がステップSP62に進むと、音声データおよびシーケンスデータ、あるいは両者のうち一方のデータが、動作モードに応じて再生される。すなわち、選択された動作モードに応じて再生すべきデータは、オーディオ・インタフェース28またはシーケンスデータ・インタフェース20のうち対応する側に各々送信される。次に、処理がステップSP64に進むと、上記終了操作が実行され、またはSMAFファイル100の再生が終了したか否かが判定される。ここで「NO」と判定されると、ステップSP60,SP62の処理が繰り返され、「YES」と判定されると、本ルーチンが終了する。   In the figure, when the process proceeds to step SP60, audio data and sequence data are read from the SMAF file 100 for a predetermined interval. Next, when the process proceeds to step SP62, audio data and / or sequence data, or one of the data, is reproduced according to the operation mode. That is, the data to be reproduced according to the selected operation mode is transmitted to the corresponding side of the audio interface 28 or the sequence data interface 20, respectively. Next, when the process proceeds to step SP64, it is determined whether the end operation is executed or whether the reproduction of the SMAF file 100 has ended. If "NO" is determined here, the processing of steps SP60 and SP62 is repeated, and if "YES" is determined, the present routine is terminated.

4.実施例の効果
以上のように本実施例によれば、各種効果音あるいは背景音をシーケンスデータの形式でSMAFファイル100に記録するため、背景音や効果音を自由に編集しつつ音声メールを作成することができる。さらに、効果音等をシーケンスデータの形式で記録することにより、SMAFファイル100のデータ量を小さくすることができる。また、効果音等の発生には携帯電話器等の端末に元々備えられている音源を使用できるため、新たに必要となるリソースが少なく、コストアップも抑制することができる。
Four. As described above, according to this embodiment, various sound effects or background sounds are recorded in the sequence data format in the SMAF file 100, so that a voice mail is created while freely editing the background sounds and sound effects. can do. Furthermore, by recording sound effects and the like in the sequence data format, the data amount of the SMAF file 100 can be reduced. Further, since the sound source originally provided in a terminal such as a mobile phone can be used for generating sound effects and the like, new resources are required and cost increase can be suppressed.

5.変形例
本発明は上述した実施例に限定されるものではなく、例えば以下のように種々の変形が可能である。
(1)上記実施例のステップSP38においては、効果音等の内容を表す文字または図形が表示部10に表示されたが、これと同時に該効果音等に係るシーケンスデータをシーケンスデータ・インタフェース20に供給し、該効果音等を実際に発音させてもよい。
Five. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made as follows, for example.
(1) In step SP38 of the above-described embodiment, characters or figures representing the contents of sound effects and the like are displayed on the display unit 10. At the same time, sequence data related to the sound effects and the like are displayed on the sequence data interface 20. May be supplied to actually sound the sound effect or the like.

(2)また、電子メールには、SMAFファイル100以外に、例えば撮像した動画などのようなMPEG4形式等のファイルも添付することができる。この場合、電子メールを受信した側の端末においては、SMAFファイル100と動画ファイルとを同期させて再生するとよい。 (2) In addition to the SMAF file 100, a file in MPEG4 format such as a captured moving image can be attached to the e-mail. In this case, the SMAF file 100 and the moving image file may be reproduced in synchronization with each other at the terminal that has received the e-mail.

(3)また、音声データは、MP3形式やAAC形式等の圧縮符号化されたデータであってもよい。その場合には、オーディオデコーダ29において復号処理を行うとよい。 (3) The audio data may be data that has been compression-encoded such as MP3 format or AAC format. In that case, the audio decoder 29 may perform decoding processing.

(4)また、SMAFファイル100に記録される楽曲はモノラルに限られず、ステレオまたは多チャンネルであってもよい。その場合は着信音用スピーカ36を複数設けるとよい。 (4) The music recorded in the SMAF file 100 is not limited to monaural, and may be stereo or multi-channel. In that case, a plurality of ring tone speakers 36 may be provided.

本発明の一実施例の携帯電話器のブロック図である。It is a block diagram of the mobile telephone of one Example of this invention. SMAFファイル100のファイル構成図である。3 is a file configuration diagram of an SMAF file 100. FIG. SMAFファイルの再生タイミングチャートである。It is a reproduction | regeneration timing chart of a SMAF file. 録音処理ルーチンのフローチャートである。It is a flowchart of a recording process routine. 効果音修正ルーチンのフローチャートである。It is a flowchart of a sound effect correction routine. 再生ルーチンのフローチャートである。It is a flowchart of a reproduction routine.

符号の説明Explanation of symbols

2:CPU(シーケンスデータ生成手段)、4:RAM(記憶手段)、6:ROM、8:操作キー部(操作手段)、10:表示部、12:バス、14:通信部(通信手段)、16:音声処理部(変換手段)、18:マイク、20:シーケンスデータ・インタフェース(楽音信号再生手段)、22:FIFOバッファ(楽音信号再生手段)、24:シーケンサ(楽音信号再生手段)、26:音源(楽音信号再生手段)、28:オーディオ・インタフェース(音声信号再生手段)、30:ミキシング部、32:DAコンバータ、34:スイッチ、36:スピーカ、38:イヤホンジャック、100:SMAFファイル、102:コンテンツ・インフォ・チャンク、104:オプショナル・データ・チャンク、110:スコア・トラック・チャンク、112:シーケンスデータ・チャンク、114:セットアップデータ・チャンク、120:オーディオ・データ・トラック・チャンク。   2: CPU (sequence data generation means), 4: RAM (storage means), 6: ROM, 8: operation key section (operation means), 10: display section, 12: bus, 14: communication section (communication means), 16: Audio processing unit (conversion means), 18: Microphone, 20: Sequence data interface (musical sound signal reproduction means), 22: FIFO buffer (musical sound signal reproduction means), 24: Sequencer (musical sound signal reproduction means), 26: Sound source (musical sound signal reproducing means), 28: audio interface (audio signal reproducing means), 30: mixing unit, 32: DA converter, 34: switch, 36: speaker, 38: earphone jack, 100: SMAF file, 102: Content info chunk, 104: Optional data chunk, 110: Score track chunk 112: sequence data chunk, 114: Setup data chunks, 120: audio data track chunk.

Claims (4)

音声信号を集音するマイクと、
データを記憶する記憶手段と、
前記マイクにより集音された音声信号を音声データに変換する変換手段と、
ユーザからの操作を受け付ける操作手段と、
前記操作手段に対する操作に応じて、楽音の再生開始を指示するイベントデータを含むシーケンスデータを生成するシーケンスデータ生成手段と、
前記音声データと前記シーケンスデータとを同期させつつ同一ファイル内に包含させ、前記記憶手段に記憶させるファイル生成手段と、
前記ファイルを添付した電子メールを送信または受信する通信手段と、
前記ファイルから前記音声データを読み出し、前記音声信号を再生する音声信号再生手段と、
前記ファイルから前記シーケンスデータを読み出し、前記音声信号に同期させつつ楽音信号を再生する楽音信号再生手段と
を有することを特徴とする通信端末。
A microphone that collects audio signals;
Storage means for storing data;
Conversion means for converting an audio signal collected by the microphone into audio data;
An operation means for receiving an operation from a user;
Sequence data generating means for generating sequence data including event data instructing to start playing a musical sound in response to an operation on the operating means;
File generation means for including the audio data and the sequence data in the same file while synchronizing them, and storing them in the storage means;
A communication means for sending or receiving an e-mail attached with the file;
Audio signal reproduction means for reading the audio data from the file and reproducing the audio signal;
A communication terminal comprising: a tone signal reproducing means for reading the sequence data from the file and reproducing the tone signal while synchronizing with the audio signal.
前記操作手段は複数のボタンを有し、これら各ボタンに対して異なるイベントデータが割り当てられていることを特徴とする請求項1記載の通信端末。   The communication terminal according to claim 1, wherein the operation means has a plurality of buttons, and different event data is assigned to each of the buttons. 前記シーケンスデータ生成手段は、前記変換手段によって前記音声データが作成されている途中のタイミングである記録タイミングに前記操作手段が操作された場合には、該音声データの当該記録タイミングに係る音声信号と、前記操作手段の操作内容に係る楽音信号とが同時に再生されるように前記ファイルを生成することを特徴とする請求項1記載の通信端末。   The sequence data generating means, when the operating means is operated at a recording timing that is a timing during which the audio data is being created by the converting means, and an audio signal related to the recording timing of the audio data 2. The communication terminal according to claim 1, wherein the file is generated so that a musical sound signal related to an operation content of the operation means is simultaneously reproduced. 前記シーケンスデータ生成手段は、前記音声信号再生手段によって音声信号が再生されている途中のタイミングである再生タイミングに前記操作手段が操作された場合には、該音声データの当該再生タイミングに係る音声信号と、前記操作手段の操作内容に係る楽音信号とが同時に再生されるように前記ファイルを更新することを特徴とする請求項3記載の通信端末。   The sequence data generation means, when the operation means is operated at a reproduction timing that is a timing during which an audio signal is being reproduced by the audio signal reproduction means, an audio signal related to the reproduction timing of the audio data 4. The communication terminal according to claim 3, wherein the file is updated so that a musical tone signal related to the operation content of the operation means is simultaneously reproduced.
JP2005093900A 2005-03-29 2005-03-29 Communication terminal Expired - Fee Related JP4556179B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005093900A JP4556179B2 (en) 2005-03-29 2005-03-29 Communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005093900A JP4556179B2 (en) 2005-03-29 2005-03-29 Communication terminal

Publications (2)

Publication Number Publication Date
JP2006277194A true JP2006277194A (en) 2006-10-12
JP4556179B2 JP4556179B2 (en) 2010-10-06

Family

ID=37211913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005093900A Expired - Fee Related JP4556179B2 (en) 2005-03-29 2005-03-29 Communication terminal

Country Status (1)

Country Link
JP (1) JP4556179B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157915A (en) * 2016-02-29 2017-09-07 株式会社Hearr Portable terminal device and content distribution system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0360617U (en) * 1989-10-18 1991-06-14
JP2002099486A (en) * 2000-09-25 2002-04-05 Sanyo Electric Co Ltd Voice mail transmission support server
JP2004193840A (en) * 2002-12-10 2004-07-08 Netsurvivor:Kk Ringer tone providing system
JP2004274464A (en) * 2003-03-10 2004-09-30 Yamaha Corp Telephone message system, content server, and speech transfer system
JP2004364327A (en) * 2004-07-30 2004-12-24 Yamaha Corp Telephone terminal device
JP2006127443A (en) * 2004-09-30 2006-05-18 Megachips Lsi Solutions Inc E-mail transmitting terminal and e-mail system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0360617U (en) * 1989-10-18 1991-06-14
JP2002099486A (en) * 2000-09-25 2002-04-05 Sanyo Electric Co Ltd Voice mail transmission support server
JP2004193840A (en) * 2002-12-10 2004-07-08 Netsurvivor:Kk Ringer tone providing system
JP2004274464A (en) * 2003-03-10 2004-09-30 Yamaha Corp Telephone message system, content server, and speech transfer system
JP2004364327A (en) * 2004-07-30 2004-12-24 Yamaha Corp Telephone terminal device
JP2006127443A (en) * 2004-09-30 2006-05-18 Megachips Lsi Solutions Inc E-mail transmitting terminal and e-mail system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017157915A (en) * 2016-02-29 2017-09-07 株式会社Hearr Portable terminal device and content distribution system

Also Published As

Publication number Publication date
JP4556179B2 (en) 2010-10-06

Similar Documents

Publication Publication Date Title
US7119267B2 (en) Portable mixing recorder and method and program for controlling the same
JP3874235B2 (en) Music playback device and portable terminal device
JP4122936B2 (en) Mixing recording apparatus and program for realizing the control method
US20050170865A1 (en) Tune cutting feature
WO2002097787A1 (en) Music reproducing apparatus and method and cellular terminal apparatus
KR100619826B1 (en) Music and audio synthesize apparatus and method for mobile communication device
JP4556179B2 (en) Communication terminal
JP4591391B2 (en) Audio data reproducing device and portable terminal device
JP3859200B2 (en) Portable mixing recording apparatus, control method therefor, and program
JP3859201B2 (en) Portable mixing recording apparatus, control method therefor, and program
JP2005033826A (en) Portable mixing recording apparatus and program
JP2008263638A (en) Data distribution method
JP2005217614A (en) Telephone terminal and method for reproducing melody
JP3620467B2 (en) Communication terminal
KR100606125B1 (en) Apparatus and method for processing audio signal of cellular phone having mp3 player function
JP2006127443A (en) E-mail transmitting terminal and e-mail system
JP3933147B2 (en) Pronunciation control device
JP4337726B2 (en) Portable terminal device, program, and recording medium
JP2003169110A (en) Portable telephone set
JP4345603B2 (en) Telephone terminal device
JP2003022072A (en) Portable communication terminal and server device
JP2006235468A (en) Musical piece file generating device and mobile terminal device using same
JP3893894B2 (en) Mobile terminal device
JP2004334046A (en) Compressed audio data reproducing device and karaoke device
JP2007079413A (en) Audio reproduction device, audio distribution system, audio reproduction program and authoring program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100625

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100708

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees