WO2006067981A1 - 電子メール送信端末および電子メールシステム - Google Patents

電子メール送信端末および電子メールシステム Download PDF

Info

Publication number
WO2006067981A1
WO2006067981A1 PCT/JP2005/022677 JP2005022677W WO2006067981A1 WO 2006067981 A1 WO2006067981 A1 WO 2006067981A1 JP 2005022677 W JP2005022677 W JP 2005022677W WO 2006067981 A1 WO2006067981 A1 WO 2006067981A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
mail
processing
voice
terminal
Prior art date
Application number
PCT/JP2005/022677
Other languages
English (en)
French (fr)
Inventor
Motoyasu Tanaka
Yusuke Nara
Original Assignee
Megachips Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2004373043A external-priority patent/JP2006127443A/ja
Application filed by Megachips Corporation filed Critical Megachips Corporation
Priority to KR1020077016878A priority Critical patent/KR101236496B1/ko
Publication of WO2006067981A1 publication Critical patent/WO2006067981A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/107Computer-aided management of electronic mailing [e-mailing]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72442User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for playing music files

Definitions

  • the present invention relates to an e-mail content creation and transmission technique.
  • Electronic mail using a mobile phone terminal has an advantage that messages can be easily exchanged without selecting time and place.
  • pictograms are used for the purpose of enhancing expressiveness.
  • mobile phone terminals become more sophisticated, it is also possible to exchange messages including still images and moving images.
  • Non-Patent Document 1 An example of a mail service using audio media is “Singing Mail” in Non-Patent Document 1 below. This uses an application program to convert input kana characters into singing voices. And it is possible to change the arrangement of voice quality 'melody ⁇ accompaniment freely.
  • Non-Patent Document 1 http: ⁇ www.g-search.or.jp/release/2004/20040726.html
  • Non-Patent Document 1 it is difficult to express accents and emotions peculiar to human beings with the power of converting input characters into artificial speech using an application program.
  • An object of the present invention is to provide an expressive e-mail system using audio media.
  • the invention according to claim 1 is directed to voice input means, means for recording the voice input by the voice input means, and storing the voice data as recorded data, and the recorded data.
  • the invention according to claim 2 is the electronic mail transmitting terminal according to claim 1, wherein the music data includes sound effect data, and the synthesis processing means reproduces the synthesized voice data. Means for synthesizing the sound effect data at a specified point on the time axis.
  • the invention according to claim 3 is the electronic mail transmitting terminal according to claim 1 or claim 2, wherein the music data is a recording medium detachably attached to the electronic mail transmitting terminal or It is stored in a storage device of a server on a network to which the e-mail transmission terminal can be connected.
  • the invention according to claim 4 is the electronic mail transmitting terminal according to claim 3, wherein the music data stored in the recording medium or the storage device is encrypted and the composition is performed.
  • the processing means includes means for decrypting the encrypted music data.
  • the invention according to claim 5 is the electronic mail transmitting terminal according to any one of claims 1 to 4, wherein the music data is preliminarily set on one or more timings on a reproduction time axis.
  • the invention according to claim 6 is the electronic mail transmitting terminal according to claim 5, wherein the music data with the power includes music data in which a timing marker is set at the head of each measure. .
  • the invention according to claim 7 is the electronic mail transmitting terminal according to any one of claims 1 to 6, wherein the synthesis processing means responds to a designation operation by a user.
  • the invention according to claim 8 is the electronic mail transmitting terminal according to any one of claims 1 to 6, further comprising means for compressing and converting the synthesized voice data.
  • the invention according to claim 9 is the electronic mail transmitting terminal according to claim 7, further comprising means for compressing and converting the synthesized audio data with video data.
  • the invention according to claim 10 is the electronic mail transmitting terminal according to any one of claims 1 to 6, wherein the electronic mail transmitting terminal is a mobile phone terminal, and the synthesized voice data is It is converted to the standard music data format specified for mobile phone terminals.
  • the invention according to claim 11 is the electronic mail transmitting terminal according to any one of claims 1 to 10, further comprising means for generating scenario data in which a rule of the synthesis process is recorded,
  • the transmission means includes means for transmitting the recording data and the scenario data as an electronic mail.
  • the invention according to claim 12 is the electronic mail transmitting terminal according to any one of claims 1 to 11, further comprising processing means for processing the voice input by the voice input means.
  • the processing means includes means for modulating voice and means for giving Z or special effects to the voice, and the synthesis processing means synthesizes the recording data and the music data after being processed by the processing means.
  • the invention according to claim 13 is the electronic mail transmitting terminal according to claim 12, wherein the processing means is a tempo changing process and a Z or pitch shift process of the voice input by the voice input means. Means for performing.
  • the invention according to claim 14 is the electronic mail transmitting terminal according to claim 12, wherein the processing means applies an equalizer process, a harmonization process, and an echo process to the voice input by the voice input means. Including means for executing one or more processes.
  • the invention according to claim 15 is the electronic mail transmitting terminal according to any one of claims 12 to 14, wherein a plurality of setting information corresponding to a plurality of themes is prepared in advance. Each setting information defines the contents of the processing executed by the processing means. When one setting information is selected, the contents of the processing by the processing means are determined.
  • the invention according to claim 16 is the electronic mail transmitting terminal according to any one of claims 1 to 15, further comprising means for modulating music defined by the music data and Z or Means for giving a special effect to the music defined by the music data.
  • the invention of claim 17 is a system for transferring electronic mail, comprising a terminal and a synthesis server, wherein the terminal is a voice input means and a sound input by the voice input means.
  • the invention of claim 18 is a system for transferring electronic mail, comprising a terminal and a synthesis server, wherein the terminal is a voice input means and a sound input by the voice input means.
  • Means for transmitting voice to the synthesis server, and the synthesis server records the received voice as recorded data, and synthesizes the recorded data and music data to generate synthesized voice data.
  • the invention according to claim 19 is the electronic mail system according to claim 17 or 18, wherein the music data includes sound effect data, and the synthesis processing means includes It includes means for synthesizing sound effect data at a specified point on the playback time axis of the synthesized sound data.
  • the invention according to claim 20 is the electronic mail system according to any one of claims 17 to 19, wherein the music data is preliminarily provided with one or a plurality of timing markers on a reproduction time axis.
  • the composition processing means including the specified marker-added music data Means for decomposing the recorded data into a plurality of recorded data elements with a portion below a predetermined volume as a silent portion and separating the recorded data into a plurality of recorded data elements, and each of the plurality of recorded data elements with the marker And means for synthesizing the music data in synchronism with the time set by the timing marker.
  • the invention according to claim 21 is the electronic mail system according to claim 20, wherein the music data with the power includes music data in which a timing marker is set at the head of each measure.
  • the invention according to claim 22 is the electronic mail system according to any one of claims 17 to 21, and further on the time axis of the synthesized speech data in response to a designation operation by a user.
  • the invention according to claim 23 is the electronic mail system according to any one of claims 17 to 21, further comprising means for compressing and converting the synthesized speech data.
  • the invention according to claim 24 is the electronic mail system according to claim 22, further comprising means for compressing and converting the synthesized audio data with video data.
  • the invention according to claim 25 is the electronic mail system according to any one of claims 17 to 21, wherein the terminal is a mobile phone terminal, and the synthesized voice data is transmitted to the mobile phone terminal.
  • ⁇ ⁇ is converted to a standard music data format.
  • the invention according to claim 26 is the electronic mail system according to any one of claims 17 to 25, wherein the synthesis server further processes a voice received from the terminal.
  • the processing means includes means for modulating sound and means for giving a special effect to Z or the sound, and the synthesis processing means includes the recording data and the music data after being processed by the processing means, Is synthesized.
  • the invention according to claim 27 is the electronic mail system according to claim 26, wherein the processing means performs a tempo change process and a Z or pitch shift process of the voice input by the voice input means. Means for performing.
  • the invention according to claim 28 is the electronic mail system according to claim 26, wherein
  • the processing means includes means for executing one or a plurality of processes among the equalizer process, the harmonization process, and the echo process on the voice input by the voice input means.
  • the invention according to claim 29 is the electronic mail system according to any one of claims 26 to 28, wherein a plurality of setting information corresponding to a plurality of themes is prepared in advance, and each setting is set.
  • the information defines the content of the processing executed by the processing means, and the content of the processing by the processing means is determined by selecting one setting information.
  • the invention of claim 30 is the electronic mail system according to any of claims 17 to 29, further comprising means for modulating music defined by the music data and Z or Means for giving a special effect to music defined by music data.
  • a terminal such as a mobile phone synthesizes a recorded voice or music file by weighting his / her own voice to the music just by playing it. This makes it possible to create a synthesized voice mail full of originality.
  • the music data stored in the recording medium is encrypted, and it is necessary to read it with a predetermined program in order to decrypt it, so that it is possible to prevent unauthorized use of content. .
  • the timing data is added to the music data, so that the recording data can be synthesized without a sense of incongruity according to the BGM rhythm.
  • noise gate processing during or after recording, it is possible to create a content that is easy to hear in terms of music, eliminating environmental noise outdoors.
  • the synthesized voice data into a general-purpose data format that is standardized by mobile phones, it is a versatile email that transcends between mobile phone carriers regardless of the playback environment. It can be provided as a system.
  • FIG. 1 is a block diagram of a mobile phone terminal that is relevant to the embodiment.
  • FIG. 2 is a diagram showing a layer structure of voice electronic mail.
  • FIG. 3 is a diagram showing a layer structure of multimedia mail.
  • FIG. 4 is a diagram showing a general-purpose music file format.
  • FIG. 5 is a flowchart showing main processing of composition processing.
  • FIG. 6 is a flowchart of noise gate processing.
  • FIG. 7 is a flowchart of BGM data acquisition processing.
  • FIG. 8 is a flowchart showing multimedia mail creation processing.
  • FIG. 9 is a flowchart showing voice mail creation processing.
  • FIG. 10 is a diagram showing a flow of processing in the first embodiment.
  • FIG. 11 is a diagram showing a flow of processing in the second embodiment.
  • FIG. 12 is a diagram showing a flow of processing in the third embodiment.
  • FIG. 13 is a diagram showing a flow of processing in the fourth embodiment.
  • FIG. 14 is a flowchart of audio processing.
  • FIG. 1 is a block diagram showing the configuration of the mobile phone terminal 100 according to the first embodiment of the present invention.
  • the mobile phone terminal 100 includes a microphone device 101 for inputting voice, a microphone interface (Mic
  • I / F 102
  • ROM media 103 which is card media
  • Card Cont I / F card control interface
  • 104 for accessing the card media
  • a memory 106 used as a storage area for various application programs
  • MMU memory management unit
  • Operation unit 107 audio processing unit 108 that performs audio signal encoding and decoding processing, video processing unit 109 that performs video signal encoding and decoding processing, mobile phone terminal 100 performs voice calls, and mobile phone terminal 100 performs data
  • a communication unit 110 that executes communication processing with the base station via the antenna 111 and a CPU 112 that controls the mobile phone terminal 100 are provided.
  • the mobile phone terminal 100 includes a monitor 113 and a speaker 114.
  • ROM card 103 for example, a CompactFlash (registered trademark) card, a SmartMedia (registered trademark), an SD memory card (registered trademark), or the like can be used.
  • memory 106 SDRAM or the like can be used.
  • the audio processing unit 108 has a function of encoding and decoding audio signals based on standards such as MP3 and AAC, and the video processing unit 109 encodes and decodes video signals based on standards such as MPEG4. It has a function to perform.
  • the ROM card 103 stores BGM data BD and sound effect data ED.
  • BGM data BD is background music data that is synthesized with voice input by microphone power in voice electronic mail (voice mail) or multimedia mail transmitted in the present embodiment.
  • voice mail voice electronic mail
  • the sound effect data ED is data for adding a sound effect of a relatively short time to the synthesized sound data obtained by synthesizing the sound input with the microphone force and the BGM data BD. For example, sound data such as clapping, shouts, and cymbals are included.
  • BGM data BD and sound effect data ED are stored in ROM card 103 in a file format compressed in accordance with, for example, MP3 or AAC standards. Or, in mobile phone terminals, it becomes a standard and file format such as melody ringtone format Stored in M card 103.
  • the BGM data BD and sound effect data ED stored in the ROM card 103 are encrypted and decrypted by the authoring program AP stored in the memory 106.
  • the authoring program AP has the decryption key information necessary to decrypt the BGM data BD and the sound effect data ED. By decoding these data, the BGM and sound effects can be played back. Yes.
  • the authoring program AP stored in the memory 106 can execute various functions for creating a voice electronic mail or multimedia mail in the present embodiment, including a voice synthesis process.
  • the authoring program AP has a recording function for voice input from the microphone device 101, a reading process and a decoding key processing function for BGM data BD and sound effect data ED stored in the ROM card 103, Noise gate processing function during or after recording microphone input sound, recorded sound data and BGM data BD combining function, synthesized sound data and sound effect data ED combining process function, synthesized sound data and video data Synthetic audio data and synthetic audio data with video data saving function, synthetic audio data and synthetic audio data playback function with video data, synthetic audio data and synthetic audio data with video data as e-mail Function that transmits to other terminals can be executed
  • the above-mentioned functions executed by the authoring program AP are functions executed by the authoring program AP using hardware resources such as the CPU 112 and RAM (not shown). is there.
  • the noise gate function includes a noise gate function during voice recording and a noise gate function executed after voice recording.
  • the noise gate function during voice recording starts recording when the volume of the voice input from the microphone device 101 exceeds a predetermined level, and generates recording data by stopping recording when the volume falls below the predetermined level. It is a function.
  • the noise gate function to be executed after voice recording is already recorded. This function discards data at locations where the volume is lower than a predetermined level in the recorded data where sound is generated, and holds only locations where the volume exceeds a predetermined level as recorded data.
  • Each of these three data is called a recording data element.
  • VI, V2, and V3 shown as the recording data in Fig. 2 correspond to the above three recording data elements.
  • the BGM data BD is divided into a plurality of bars as shown in the figure.
  • the BGM data BD in the present embodiment has a leading position of each bar (this is a point on the time axis).
  • the timing marker that specified) is recorded.
  • the BGM data BD in which the timing marker that specifies the start position of the measure is set is called the music data with a marker.
  • the force that a marker is set at the head position of each measure is an example. Markers may be set at different points from the bar break.
  • the authoring program AP links each recording data element disassembled as described above to each timing marker position of the music data with marker.
  • each recording data element is synthesized at the beginning of each measure of the music data with marker.
  • synthesized audio data is generated by synthesizing the recording data and the BGM data BD.
  • B GM each measure head background music to be played based on the data BD, "Hello from the relationship Nag first measure of head and recording timing of the actual ”Occurs from the head of the second bar,“ Today is the weather, ”and from the head of the third bar,“ Let's go play somewhere! ” In this way, the background music and recorded data can be synchronized. It is done.
  • the phrase of the recording data element V3 extends to the fourth measure area of the BGM data BD.
  • the third measure of the BGM data BD may be played back in a loop so that the knock ground music and the recorded data can be combined without a sense of incongruity.
  • the sound effect data synthesis function is also a processing function by the coseling program AP.
  • the sound effect data ED can be synthesized at any point on the playback time axis of the synthesized audio data.
  • the synthesis method is as follows.
  • the authoring program AP inputs the sound effect insertion instruction by the user while reproducing the BGM data BD (or reproducing the synthesized voice data). While listening to the background music, the user operates the operation unit 107 at a point where the sound effect is to be inserted, and issues a sound effect insertion instruction. In this way, synthesized voice data in which BGM data BD, recording data, and sound effect data ED are synthesized can be generated.
  • the authoring program AP can synthesize video data such as still images or moving images with the generated synthesized audio data to generate synthesized audio data with video data.
  • the synthesis method is as follows.
  • the first method is a method of linking each video data to each measure of BGM data BD as shown in FIG. As shown in the figure, one video data may be linked across multiple bars.
  • the authoring program AP is executed and the synthesized audio data is played back while the switching point of the video data is specified by the user.
  • synthesized audio data is generated by synthesizing BGM data BD, recording data, and sound effect data ED, and further, synthesized audio data with video data is generated by synthesizing the video data. Is done.
  • the authoring program AP uses the audio processing unit 108 to compress the synthesized voice data generated by the above processing based on a standard such as MP3 or AAC. Also, the synthesized audio data with video data generated by the above processing is subjected to video compression processing based on a standard such as MPEG4 using the audio processing unit 108 and the video processing unit 109. In this manner, the synthesized voice data in the present embodiment is stored in the memory 106 as voice electronic mail compressed based on a standard such as MP3 or AAC. Alternatively, the synthesized audio data with video data is stored in the memory 106 as multimedia mail compressed based on standards such as MPEG4 (audio is based on standards such as MP3 and AAC! /).
  • the authoring program AP can also convert the synthesized voice data into a general-purpose music data format (for example, mmf) that is normally used in a mobile phone terminal.
  • the authoring program AP does not use the audio processing unit 108, and converts the synthesized voice data into a general-purpose music data format by processing on the CPU 112.
  • the data generated in this way is stored in the memory 106 as voice electronic mail.
  • the CPU 112 designates the destination address of the e-mail and directs the voice e-mail or multimedia mail to the destination address.
  • the CPU 112 designates the destination address of the e-mail and directs the voice e-mail or multimedia mail to the destination address.
  • voice electronics The terminal that receives the e-mail can view the audio synthesized with the BGM.
  • This voice is actually recorded by the sender, not artificial voice, so it is possible to accurately convey emotional expressions.
  • since such recorded audio is played back in accordance with the BGM, it is possible to produce the transmitted content in various ways, unlike ordinary voice calls.
  • it is possible to further enhance the expressiveness of voice mail by using sound effects inserted at arbitrary points.
  • video is played in addition to these expressive voice mails, enabling communication with richer expressiveness.
  • synthesized audio data or synthesized audio data with video data is composed of multiple data layers.
  • synthesized audio data or synthesized audio data with video data can be defined by the name of each data file (data identification information) synthesized with the BGM data BD and synchronization information (time information, etc.) for the BGM data BD. Is possible.
  • the data identification information and the synchronization information are used as scenario data, and only the recording data and scenario data are transmitted to the destination address.
  • the scenario data includes information specifying BGM data BD, sound effect data ED, and video data, and information indicating the timing at which these data and recording data are combined.
  • the sending terminal can reduce the amount of data transfer without having to send each data file.
  • the data described in the scenario data is executed by executing a predetermined application program. According to the identification information, BGM data, sound effect data, video data, etc. are read out from the recording medium and played according to the described synchronization information. [0071] ⁇ Composition process flow>
  • noise gate processing step S10
  • the recorded data is decomposed into recorded data elements.
  • FIG. 6 is a flowchart showing the processing contents of the noise gate processing (step S 10).
  • step S11 the noise gate processing timing is selected. If it is set to perform noise gate processing after recording, microphone recording processing (step S12) is performed, and then noise gate processing (step S13) is performed on the recording data. If it is set to perform noise gate processing during recording, noise gate recording processing (step S14) is executed.
  • the recording data element is generated by the above processing. Note that the user can freely change the setting of whether to perform noise gate processing after recording or to perform gate processing during recording.
  • FIG. 7 is a flowchart showing the processing contents of the BGM processing (step S20).
  • step S21 the reading destination of the BGM data BD is selected.
  • the card medium ROM card 103
  • step S22 the card medium
  • step S25 connection processing to the public server is performed.
  • step S23 and S26 a plurality of BGM data BD BGM data BDs to be subjected to medium power synthesis processing are selected.
  • the obtained BGM data BD is decrypted (steps S24, 27).
  • a synthesis process is performed (step S30).
  • the contents of the synthesizing process are as described above, and the recording data elements are synthesized so as to synchronize with the timing markers of the music data with markers.
  • the data after the synthesis processing has a layer structure as shown in FIG. 2, and the BGM data BD and the recording data are synthesized in a separable state. For example, link information between BGM data BD and recorded data is generated. Alternatively, synthesized voice data including a plurality of tracks (channels) is generated, and each data is stored in each track. Note that the recording data element is synthesized at each timing marker position of the BGM data BD.
  • a specific recording data element may be synthesized at a plurality of timing marker positions. For example, it is possible to repeat a specific message by synthesizing a specific recording data element at a plurality of consecutive timing marker positions, and to emphasize a particularly important phrase in the recording message. Yes, it is possible.
  • a sound effect insertion process (step S40) is performed.
  • the sound effect insertion method is as described above, and the sound effect is synthesized at an arbitrary point on the playback time axis of the synthesized voice data in response to the user's designated operation.
  • the synthesized speech data after the sound effect is inserted also has a layer structure as shown in FIG. 2, and is synthesized in a state where each data can be separated.
  • the method for obtaining the sound effect data ED is the same as the method for obtaining the BGM data BD shown in FIG.
  • step S50 a selection is made as to whether or not to add video. If a video is added, a multimedia mail creation process (step S60) is performed. If a video is not added, a voice electronic mail (voice mail) creation process (step S70) is performed. Selection of whether or not to add video is specified by the user.
  • a multimedia mail creation process step S60
  • a voice electronic mail (voice mail) creation process step S70
  • FIG. 8 is a flowchart showing the contents of the multimedia mail creation process.
  • a file format is selected (step S61).
  • the moving image compression format such as MPEG
  • the specified video data is added and the compression processing is executed according to the set file format (step S62).
  • Scenario data is set as a file format!
  • the scenario data defining the synthesized audio data with video data is generated (step S63). This scenario data also includes information specifying video data.
  • the multimedia mail generated in this way is stored in the memory 106 (step S64).
  • the data after the processing in step S62 is compressed audio data with video data
  • the data after the processing in step S63 is scenario data and recording data.
  • the multimedia mail stored in the memory 106 is sent to another terminal with a destination address designated (step S6). 5) 0
  • FIG. 9 is a flowchart showing the contents of voice electronic mail (voice mail) creation processing.
  • a file format is selected (step S71).
  • a voice compression format such as MP3 or AAC is set as the file format
  • compression processing is executed according to the set file format (step S72).
  • the general-purpose music file format standardized by the mobile phone terminal is set as the fill format
  • conversion processing to the set file format is performed (step S73).
  • scenario data is set as the file format !, scenario data defining the synthesized speech data is generated (step S74).
  • the voice e-mail generated in this manner is stored in the memory 106 (step S75).
  • the voice e-mail stored in the memory 106 is compressed after the processing in steps S72 and S73.
  • it is converted synthesized voice data, and the data after the processing of step S74 is scenario data and recorded data.
  • the voice electronic mail stored in the memory 106 is transmitted to another terminal with the destination address designated (step S76).
  • a voice electronic mail or a composition process for generating a multimedia mail is executed in the mobile phone terminal 100. That is, as shown in FIG. 10, the mobile phone terminal 100 executes all the processes of voice input, voice recording, synthesis, and mail transmission, and sends the combined e-mail to the receiving terminal 200.
  • the synthesis process is executed in the synthesis server 300 connected via a network.
  • the cellular phone terminal 100 executes only voice input processing and voice recording processing.
  • the mobile phone terminal 100 also transmits the recording data to the composition server 300, and the composition server 300 executes the composition process.
  • information indicating the conditions for the composition process may be transmitted from the mobile phone terminal 100 to the composition server 300.
  • the information indicating the conditions of the synthesis process may be information of the same type as the scenario data described in the first embodiment.
  • the synthesizing servo 300 performs a synthesizing process similar to that of the first embodiment, thereby performing voice electronic mail.
  • a message or multimedia mail is generated, this e-mail is stored in a storage device.
  • information specifying a URL is transmitted to the mail receiving terminal 200 as access path information to the electronic mail stored in the storage device.
  • the mail receiving terminal 200 can receive voice electronic mail or multimedia mail by specifying this URL.
  • the power combining server 300 that transmits the access path information (URL information) from the combining server 300 to the mail receiving terminal 200 has the access path information. It may be possible to transmit the access path information from the mobile phone terminal 100 to the mail receiving terminal 200 from the mobile phone terminal 100 that is the mail transmitting terminal.
  • the cell phone terminal 100 which is a mail transmission terminal, does not execute the combining process, it is possible to reduce the processing load on the terminal. .
  • the third embodiment is different from the second embodiment in that voice recording is also performed by the synthesis server 300.
  • the other points are the same as in the second embodiment.
  • the cellular phone terminal 100 that is a mail transmission terminal connects a telephone line to the synthesis server 300.
  • the user utters a message toward the microphone device 101.
  • This message is transferred to the synthesis server 300 through the telephone line, and recording processing is performed in the synthesis server 300.
  • the subsequent processing is the same as in the second embodiment.
  • the processing load on the terminal can be reduced.
  • the fourth embodiment is different from the first embodiment in that various voice processing is added to the voice input from the microphone device 101, and the voice after the voice processing is synthesized with the BGM data BD. is there.
  • step S30 The processing flow is substantially the same as that described with reference to the flowcharts of Figs. However, the synthesis process in step S30 is different. That is, in the synthesis process of step S30 in the first embodiment, the recorded voice is directly synthesized with the BGM data BD! /, But in this embodiment, the recorded voice is checked. After that, it is synthesized with BGM data BD.
  • FIG. 13 is a flowchart of the synthesis process (step S30) in this embodiment. This synthesis process is also a process executed by the authoring program AP. In the synthesis processing flow, first, voice processing (step S31) is executed. Audio processing is processing that modulates recorded audio or that gives special effects to recorded audio.
  • the processing for giving special effects to the sound includes equalizer processing, harmonization processing, echo processing, and the like.
  • Equalizer processing is processing that changes the frequency characteristics of a voice message by emphasizing the high range, enhancing the low range, or cutting a specific range.
  • the harmonization process is a process that adds other chords to the pitch of the recorded voice to make the voice message a chord.
  • the echo process is a process for reproducing a recorded voice with a time difference and making the sound resonate. For example, a message with a beautiful atmosphere can be generated by the harmonization process. In addition, a fantastic atmosphere can be produced by echo processing.
  • step S31 it is determined whether or not to change the tempo of the recording sound (step S301). If the tempo is not changed, the process proceeds to step S305.
  • step S302 When changing the tempo (Yes in step S301), it is determined whether or not to perform the synchronization process (step S302).
  • Manual tempo change processing is specified by the user. This is a process for changing the tempo of the recorded sound in accordance with the set tempo setting.
  • the automatic tempo change process is a process in which the tempo of the recorded sound is changed to synchronize with the BGM data BD.
  • a method for obtaining a tempo when recording sound (before changing the tempo) will be described.
  • One is a method determined by the guide voice.
  • voice When voice is input by the user, a guide voice with a certain rhythm is played like a metronome. The user records the voice while listening to the guide voice. The recorded voice includes information on the guide voice, and the tempo of the recorded voice is determined by the guide voice.
  • Another method is to automatically acquire the rhythm of the recorded voice.
  • Voice analysis processing is performed on the recorded voice, and the voice is divided into syllable units. The voice timing power of each syllable automatically acquires the tempo of the recorded voice.
  • the tempo at the time of recording the recorded sound is determined by the above two methods.
  • the manual tempo change processing method is a method for correcting the tempo at the time of recording in accordance with the tempo setting designated by the user. For example, if the recording tempo is determined by the guide voice, the tempo of the guide voice is corrected to the set tempo. Accordingly, the tempo of the recorded sound is also changed. Alternatively, if the recording tempo is automatically acquired, the tempo is automatically changed according to the set tempo setting.
  • the automatic tempo change processing method is a method in which the tempo at the time of recording of the recorded sound is automatically changed so as to be synchronized with the BGM data BD.
  • the tempo of BGM data BD is recorded on BGM data BD, it can be used.
  • BGM data BD can be obtained by voice analysis. For example, it is possible to analyze the tempo based on the rhythmic sound such as a drum. If the recording tempo is determined by the guide voice, the tempo of the guide voice is changed to match the tempo of the BGM data. Accordingly, the tempo of the recorded sound is also changed to synchronize with the BGM. Alternatively, when the recording tempo is automatically acquired, this automatically acquired tempo is the BGM data BD template. It is automatically changed to synchronize with the port.
  • step S302 When the synchronization process is performed (Yes in step S302), the tempo of the recording sound is automatically changed to synchronize with the BGM data BD (step S303). When sync processing is not performed (No in step S302), the tempo of the recorded sound is changed according to the set value (step S304).
  • step S305 it is determined whether or not to perform pitch shift processing. If it is set to perform pitch shift processing (Yes in step S305), pitch shift processing is executed according to the set value (step S306).
  • the set value for the pitch shift process is the pitch shift amount.
  • the shift amount of the recorded voice can be set by the user.
  • step S307 it is determined whether or not to perform equalizer processing. If it is set to perform equalizer processing (Yes in step S307), equalizer processing is executed according to the set value (step S308).
  • the set value of the equalizer process is information on a sound range to be emphasized or information on a sound range to be cut, and can be set by the user.
  • step S309 it is determined whether or not to perform harmonization processing. If it is set to perform the harmonic processing (Yes in step S309), the harmonic processing is executed according to the set value (step S310).
  • the setting value of the harmonization process can be set by the user. For example, a third sound is added to the bass sound. Or, if you can make settings such as adding 3rd and 5th sounds to the bass sound.
  • step S311 it is determined whether or not to perform echo processing (step S311). If it is set to perform echo processing (Yes in step S311), echo processing is executed according to the set value (step S312).
  • the set value for echo processing is information that specifies the time difference of echo sound, the duration of echo sound, etc., and can be set by the user.
  • step S31 it is only necessary that the user can set which audio processing is executed.
  • the user can set automatic tempo change and harmonize processing, set tempo manual change processing, pitch shift processing and echo processing, or freely perform audio processing.
  • a combination can be selected.
  • the user can specify the point on the time axis of the voice to which voice processing is applied. This means that even if For example, the first half of the voice can produce a fantastic atmosphere by echo processing, and the second half can be uptempoed to create a message with a sense of speed.
  • This setting set specifies the combination of voice processing to be executed and the setting value of each voice processing to be executed. For example, it would be convenient to have a set that matches the tune, such as rock, norad, and rap. Alternatively, it is convenient to have a set that matches emotions such as sadness, anger, and joy. If the user selects rock music as BGM data BD and selects rock music as the setting set, the user can easily create a rock voice message.
  • step S32 when the audio processing is completed in step S31, the synthesis processing of the audio subjected to the audio processing and the BGM data BD is performed (step S32).
  • steps S40, S50, S60 (or S70) shown in FIG. 5 are executed, and multimedia mail or voice mail is transmitted.
  • the recorded voice is modulated or synthesized with BGM data BD after giving various special effects. This makes it possible to further enhance the expressiveness of voice mail and voice mail with video.
  • BGM data BD By devising a combination of audio processing settings and BGM data BD, it is possible to play messages that match the mood and tone of BGM data BD.
  • the noise gate process and the tempo change process the BGM is merged with the recorded voice that does not flow regardless of the recorded voice to constitute one sound.
  • the noise gate processing it is linked and merged with the recorded voice clause or the sentence strength BGM measure.
  • the tempo change process merges the syllables of V and the recorded voice into the BGM rhythm within each measure of the BGM, creating a unified sound.
  • the BGM data BD is acquired, and then the voice processing and the synthesis processing of the recorded voice are performed. Audio processing may be executed during recording. In this case, voice recording and voice processing are performed in parallel, and then BGM data BD is acquired, and the voice after voice processing and BGM data BD are synthesized.
  • BGM data BD information is required, so automatic change processing should be performed after obtaining BGM data BD. Goodbye!

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Human Computer Interaction (AREA)
  • Operations Research (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • Marketing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Economics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 本発明は、音声を利用した、より表現力豊かな電子メールシステムを提供することを目的とする。そして、上記目的を達成するために、マイク(101)より入力した音声は、ノイズゲート処理により録音データ要素V1、V2、V3に分解される。BGMデータ(マーカ付き楽曲データ、BD)には、小節ごとのタイミングマーカが設定されており、各録音要素データV1、V2、V3は、BGMデータ(BD)の各小節の先頭位置に合成される。また、効果音データ(ED)が、ユーザ指定操作に応じて任意のタイミングで合成される。このようにして生成された合成音声データは、たとえば、MP3などの圧縮形式で圧縮処理された後、音声電子メールとして送信される。

Description

明 細 書
電子メール送信端末および電子メールシステム
技術分野
[0001] 本発明は、電子メールのコンテンツ作成および送信技術に関する。
背景技術
[0002] 携帯電話端末を利用した電子メールは、時間と場所を選ぶことなく手軽にメッセ一 ジ交換を行なうことができるというメリットがある。携帯電話端末を利用した電子メール では、テキスト文字に加えて、表現力を高めることを目的とした絵文字などの利用が 行なわれている。また昨今、携帯電話端末の高機能化に伴い、静止画像や動画像を 含んだメッセージ交換を行なうことも可能となっている。
[0003] このように、手軽なコミュニケーションの手段として日常的に利用されている携帯電 話メールにおいて、ユーザは、他人とは違った表現を求め、絵文字や顔文字を駆使 したオリジナリティー溢れるメールを交換し、あるいは、画像を用いたメールの交換な どを行なっている。しかし、音声メディアを利用したメールサービスは数少なぐ多くは 視覚的な効果を狙ったメールサービスが提供されているにとどまっている。
[0004] 音声メディアを用いたメールサービスの例として、下記非特許文献 1の「歌う メ一 ル」が挙げられる。これは、アプリケーションプログラムを利用し、入力した仮名文字等 を歌声に変換するものである。そして、声質'メロディ ·伴奏力もなるアレンジの変更を 自由に行なうことを可能として 、る。
[0005] 非特許文献 1: http:〃 www.g-search.or.jp/release/2004/20040726.html
[0006] 携帯電話端末を利用した電子メールでは、さらにメッセージに対する表現力に対す る多様性が求められて 、る。携帯電話がコミュニケーション手段の一つとして大きな 役割を担う中で、電子メールの有する表現力を強化することの意義は大き 、。
[0007] 上記非特許文献 1では、アプリケーションプログラムを利用し、入力した文字を人工 音声に変換している力 人工音声では人間特有のアクセントや感情を表現することは 困難である。
発明の開示 [0008] 本発明は、音声メディアを利用した表現豊かな電子メールシステムを提供すること を目的とする。
[0009] 上記目的を解決するため、請求項 1記載の発明は、音声入力手段と、前記音声入 力手段により入力した音声を録音し、録音データとして記憶する手段と、前記録音デ ータと楽曲データとを合成し、合成音声データを生成する合成処理手段と、前記合 成音声データを電子メールとして送信する送信手段と、を備える。
[0010] 請求項 2記載の発明は、請求項 1に記載の電子メール送信端末であって、前記楽 曲データは、効果音データ、を含み、前記合成処理手段は、前記合成音声データの 再生時間軸上の指定されたポイントに前記効果音データを合成する手段、を含む。
[0011] 請求項 3記載の発明は、請求項 1または請求項 2のいずれかに記載の電子メール 送信端末であって、前記楽曲データは、前記電子メール送信端末に着脱可能な記 録媒体または前記電子メール送信端末が接続可能なネットワーク上のサーバの記憶 装置に格納されている。
[0012] 請求項 4記載の発明は、請求項 3に記載の電子メール送信端末であって、前記記 録媒体または前記記憶装置に格納されている楽曲データは暗号ィ匕されており、前記 合成処理手段は、暗号化されている前記楽曲データを復号ィ匕する手段、を含む。
[0013] 請求項 5記載の発明は、請求項 1ないし請求項 4のいずれかに記載の電子メール 送信端末であって、前記楽曲データは、予め再生時間軸上に 1つあるいは複数のタ イミングマーカが設定されたマーカ付き楽曲データ、を含み、前記合成処理手段は、 前記録音データのうち所定音量以下の部分を無音部分とし、前記録音データを無音 部分を区切りとした複数の録音データ要素に分解する手段と、前記複数の録音デー タ要素のそれぞれを前記マーカ付き楽曲データの前記タイミングマーカで設定され た時間に同期させて合成させる手段と、を含む。
[0014] 請求項 6記載の発明は、請求項 5に記載の電子メール送信端末であって、前記マ 一力付き楽曲データは、各小節の先頭にタイミングマーカが設定された音楽データ、 を含む。
[0015] 請求項 7記載の発明は、請求項 1ないし請求項 6のいずれかに記載の電子メール 送信端末であって、前記合成処理手段は、ユーザによる指定操作に応答して前記合 成音声データの時間軸上の任意のポイントに映像データを合成し、映像データ付き 合成音声データを生成する手段、を含み、前記送信手段は、前記映像データ付き合 成音声データを電子メールとして送信する手段、を含む。
[0016] 請求項 8記載の発明は、請求項 1ないし請求項 6のいずれかに記載の電子メール 送信端末であって、さらに、前記合成音声データを音声圧縮変換する手段、を備え る。
[0017] 請求項 9記載の発明は、請求項 7に記載の電子メール送信端末であって、さらに、 前記映像データ付き合成音声データを動画圧縮変換する手段、を備える。
[0018] 請求項 10記載の発明は、請求項 1ないし請求項 6のいずれかに記載の電子メール 送信端末であって、前記電子メール送信端末は携帯電話端末であり、前記合成音 声データは、携帯電話端末において規定されている標準音楽データ形式に変換さ れる。
[0019] 請求項 11記載の発明は、請求項 1ないし請求項 10のいずれかに記載の電子メー ル送信端末であって、さらに、合成処理のルールを記録したシナリオデータを生成す る手段、を備え、前記送信手段は、前記録音データと前記シナリオデータを電子メー ルとして送信する手段、を含む。
[0020] 請求項 12記載の発明は、請求項 1ないし請求項 11のいずれかに記載の電子メー ル送信端末において、さらに、前記音声入力手段により入力した音声を処理する処 理手段、を備え、前記処理手段は、音声を変調する手段および Zまたは音声に特殊 効果を与える手段、を含み、前記合成処理手段は、前記処理手段によって処理され た後の録音データと楽曲データとを合成する。
[0021] 請求項 13記載の発明は、請求項 12に記載の電子メール送信端末であって、前記 処理手段は、前記音声入力手段で入力された音声のテンポ変更処理および Zまた はピッチシフト処理を実行する手段、を含む。
[0022] 請求項 14記載の発明は、請求項 12に記載の電子メール送信端末であって、前記 処理手段は、前記音声入力手段で入力された音声に、イコライザ処理、ハーモナイ ズ処理およびエコー処理のうち、いずから 1つあるいは複数の処理を実行する手段、 を含む。 [0023] 請求項 15記載の発明は、請求項 12ないし請求項 14のいずれかに記載の電子メ ール送信端末であって、複数のテーマに対応した複数の設定情報が予め用意され ており、各設定情報には、前記処理手段が実行する処理の内容が規定されており、 一の設定情報が選択されることにより、前記処理手段による処理の内容が決定される
[0024] 請求項 16記載の発明は、請求項 1ないし請求項 15のいずれかに記載の電子メー ル送信端末であって、さらに、前記楽曲データにより規定される音楽を変調する手段 および Zまたは前記楽曲データにより規定される音楽に特殊効果を与える手段、を 含む。
[0025] 請求項 17記載の発明は、電子メールを転送するシステムであって、端末と、合成サ ーバと、を備え、前記端末は、音声入力手段と、前記音声入力手段により入力した音 声を録音し、録音データとして記憶する手段と、前記録音データを前記合成サーバ に送信する手段と、を備え、前記合成サーバは、受信した録音データと楽曲データと を合成し、合成音声データを生成する合成処理手段と、前記合成音声データを電子 メールとして記憶装置に格納する手段と、を備える。
[0026] 請求項 18記載の発明は、電子メールを転送するシステムであって、端末と、合成サ ーバと、を備え、前記端末は、音声入力手段と、前記音声入力手段により入力した音 声を前記合成サーバに送信する手段と、を備え、前記合成サーバは、受信した音声 を録音データとして録音する手段と、前記録音データと楽曲データとを合成し、合成 音声データを生成する合成処理手段と、前記合成音声データを電子メールとして記 憶装置に格納する手段と、を備える。
[0027] 請求項 19記載の発明は、請求項 17または請求項 18のいずれかに記載の電子メ ールシステムであって、前記楽曲データは、効果音データ、を含み、前記合成処理 手段は、前記合成音声データの再生時間軸上の指定されたポイントに効果音データ を合成する手段を含む。
[0028] 請求項 20記載の発明は、請求項 17ないし請求項 19のいずれかに記載の電子メ ールシステムであって、前記楽曲データは、予め再生時間軸上に 1つあるいは複数 のタイミングマーカが指定されたマーカ付き楽曲データ、を含み、前記合成処理手段 は、前記録音データのうち所定音量以下の部分を無音部分とし、前記録音データを 無音部分を区切りとした複数の録音データ要素に分解する手段と、前記複数の録音 データ要素のそれぞれを前記マーカ付き楽曲データの前記タイミングマーカで設定 された時間に同期させて合成させる手段と、を含む。
[0029] 請求項 21記載の発明は、請求項 20に記載の電子メールシステムであって、前記マ 一力付き楽曲データは、各小節の先頭にタイミングマーカが設定された音楽データ、 を含む。
[0030] 請求項 22記載の発明は、請求項 17ないし請求項 21のいずれかに記載の電子メ ールシステムであって、さらに、ユーザによる指定操作に応答して前記合成音声デー タの時間軸上の任意のポイントに映像データを合成し、映像データ付き合成音声デ ータを生成する手段、を備える。
[0031] 請求項 23記載の発明は、請求項 17ないし請求項 21のいずれかに記載の電子メ ールシステムであって、さらに、前記合成音声データを音声圧縮変換する手段、を備 える。
[0032] 請求項 24記載の発明は、請求項 22に記載の電子メールシステムであって、さらに 、前記映像データ付き合成音声データを動画圧縮変換する手段、を備える。
[0033] 請求項 25記載の発明は、請求項 17ないし請求項 21のいずれかに記載の電子メ ールシステムであって、前記端末は携帯電話端末であり、前記合成音声データは、 携帯電話端末にぉ 、て規定されて 、る標準音楽データ形式に変換される。
[0034] 請求項 26記載の発明は、請求項 17ないし請求項 25のいずれかに記載の電子メ ールシステムであって、前記合成サーバは、さらに、前記端末から受信した音声を処 理する処理手段、を備え、前記処理手段は、音声を変調する手段および Zまたは音 声に特殊効果を与える手段、を含み、前記合成処理手段は、前記処理手段によって 処理された後の録音データと楽曲データとを合成する。
[0035] 請求項 27記載の発明は、請求項 26に記載の電子メールシステムであって、前記 処理手段は、前記音声入力手段で入力された音声のテンポ変更処理および Zまた はピッチシフト処理を実行する手段、を含む。
[0036] 請求項 28記載の発明は、請求項 26に記載の電子メールシステムであって、前記 処理手段は、前記音声入力手段で入力された音声に、イコライザ処理、ハーモナイ ズ処理およびエコー処理のうち、いずれ力 1つあるいは複数の処理を実行する手段、 を含む。
[0037] 請求項 29記載の発明は、請求項 26ないし請求項 28のいずれかに記載の電子メ ールシステムであって、複数のテーマに対応した複数の設定情報が予め用意されて おり、各設定情報には、前記処理手段が実行する処理の内容が規定されており、一 の設定情報が選択されることにより、前記処理手段による処理の内容が決定される。
[0038] 請求項 30記載の発明は、請求項 17ないし請求項 29のいずれかに記載の電子メ ールシステムであって、さらに、前記楽曲データにより規定される音楽を変調する手 段および Zまたは前記楽曲データにより規定される音楽に特殊効果を与える手段、 を含む。
[0039] 本発明は、携帯電話などの端末において、録音音声や音楽ファイルを再生するだ けでなぐ音楽に自分の声を重量させて合成する。これにより、オリジナリティ溢れる 合成音声メールを作成することが可能である。
[0040] また、記録媒体に格納されている楽曲データは暗号ィ匕されており、復号ィ匕するには 所定のプログラムで読み出す必要があるため、コンテンツの無断流用を防止すること が可能である。
[0041] また、録音データと楽曲データを合成する際、楽曲データにタイミングマーカ情報を 付加することで、 BGMリズムに合わせて録音データを違和感なく合成することが可能 である。また、録音中もしくは録音後にノイズゲート処理を行なうことで、屋外での環 境騒音が除かれ、音楽的にも聞き易いコンテンツを作成することが可能である。
[0042] また、合成音声データに映像データを挿入することで、よりオリジナリティ溢れるマ ルチメディアメールの作成が可能である。
[0043] また、合成音声データを AACZMP3のような音声圧縮ファイルもしくは MPEG4の ような動画圧縮ファイルに変換することで、低容量でかつ、ハイクオリティなコンテンツ を作成することが可能である。
[0044] また、合成音声データを携帯電話端末で標準化されて!/ヽる汎用データ形式に変換 することで、再生環境を問わず、携帯電話のキャリア間を越えた汎用性の有るメール システムとして提供可能である。
[0045] また、音楽データに様々な処理を施した後に、楽曲データと合成するので、より表 現力豊かな音声メールを作成可能である。
[0046] この発明の目的、特徴、局面、および利点は、以下の詳細な説明と添付図面とによ つて、より明白になる。
図面の簡単な説明
[0047] [図 1]実施の形態に力かる携帯電話端末のブロック図である。
[図 2]音声電子メールのレイヤ構造を示す図である。
[図 3]マルチメディアメールのレイヤ構造を示す図である。
[図 4]汎用音楽ファイル形式を示す図である。
[図 5]合成処理のメイン処理を示すフローチャートである。
[図 6]ノイズゲート処理のフローチャートである。
[図 7]BGMデータ取得処理のフローチャートである。
[図 8]マルチメディアメールの作成処理を示すフローチャートである。
[図 9]ボイスメールの作成処理を示すフローチャートである。
[図 10]第 1の実施の形態における処理の流れを示す図である。
[図 11]第 2の実施の形態における処理の流れを示す図である。
[図 12]第 3の実施の形態における処理の流れを示す図である。
[図 13]第 4の実施の形態における処理の流れを示す図である。
[図 14]音声処理のフローチャートである。
発明を実施するための最良の形態
[0048] (第 1の実施の形態)
<携帯電話装置の構成 >
以下、図面を参照しつつ本発明の実施の形態について説明する。図 1は、この発 明の第 1の実施の形態に係わる携帯電話端末 100の構成を示すブロック図である。 携帯電話端末 100は、音声を入力するマイク装置 101、マイクインターフェース (Mic
I/F) 102、カードメディアである ROMカード 103、カードメディアとアクセスするた めのカードコントロールインターフェース(Card Cont I/F) 104、各種データの一 時記憶領域として、ある 、は各種アプリケーションプログラムの格納領域として利用さ れるメモリ 106、 CPU112とメモリ 106との信号を制御する MMU (Memory Mana gement Unit) 105、携帯電話装置 100に対する各種ユーザ操作を入力する操作 部 107、音声信号のエンコードおよびデコード処理を行なうオーディオ処理部 108、 映像信号のエンコードおよびデコード処理を行なう映像処理部 109、携帯電話端末 100が音声通話を行う場合および携帯電話端末 100がデータ通信を行う場合に、基 地局との間でアンテナ 111を介して通信処理を実行する通信部 110、携帯電話端末 100の制御を行なう CPU112を備えている。また、携帯電話端末 100は、モニタ 113 およびスピーカ 114を備えて 、る。
[0049] なお、 ROMカード 103は、たとえば、コンパクトフラッシュ(登録商標)カードゃスマ 一トメディア (登録商標)、 SDメモリカード (登録商標)などを利用可能である。また、メ モリ 106としては、 SDRAMなどを利用可能である。また、オーディオ処理部 108は、 MP3や AACなどの規格に基づいて音声信号をエンコードおよびデコード処理する 機能を備え、映像処理部 109は、 MPEG4などの規格に基づいて映像信号をェンコ ードおよびデコードする機能を備えて ヽる。
[0050] ROMカード 103には、 BGMデータ BDおよび効果音データ EDが格納されている 。 BGMデータ BDは、本実施の形態において送信される音声電子メール (ボイスメー ル)あるいはマルチメディアメールにおいて、マイク力 入力された音声に合成させる バックグラウンドミュージックのデータである。 BGMデータ BDとしては、音声の内容を 聞き取り易くすると 、う意味にぉ 、ては、ボーカル音声のな ヽデータが好ま 、が、 特にそのようなデータに限定されることはなぐボーカル付きミュージックを含めて様 々な音楽データを利用可能である。効果音データ EDは、マイク力 入力された音声 と BGMデータ BDとが合成された合成音声データに、さらに、比較的短い時間の効 果音を付加するためのデータである。たとえば、手拍子や掛け声、シンバルなどの音 データなどが含まれる。
[0051] BGMデータ BDおよび効果音データ EDは、たとえば MP3や AAC規格により圧縮 されたファイルフォーマットで ROMカード 103に格納されている。あるいは携帯電話 端末にお 、て標準となって 、る着信メロディーフォーマットなどのファイル形式で RO Mカード 103に格納されている。
[0052] また、 ROMカード 103に格納されている BGMデータ BDおよび効果音データ ED は暗号化されており、メモリ 106に格納されているォーサリングプログラム APによって 復号化される。ォーサリングプログラム APは、 BGMデータ BDおよび効果音データ E Dの復号ィ匕に必要な復号キー情報を持っており、これらデータを復号ィ匕することによ り、 BGMや効果音を再生可能としている。
[0053] メモリ 106に格納されているォーサリングプログラム APは、音声合成処理を含め、 本実施の形態における音声電子メールあるいはマルチメディアメールを作成するた めの様々な機能を実行可能としている。具体的には、ォーサリングプログラム APは、 マイク装置 101から入力された音声の録音機能、 ROMカード 103に格納されている BGMデータ BDおよび効果音データ EDの読み出し処理および復号ィ匕処理機能、 マイク入力音声の録音中あるいは録音後におけるノイズゲート処理機能、録音した音 声データと BGMデータ BDとの合成処理機能、合成音声データと効果音データ ED との合成処理機能、合成音声データと映像データとの合成処理機能、合成音声デー タおよび映像データ付き合成音声データの保存機能、合成音声データおよび映像 データ付き合成音声データの再生機能、合成音声データおよび映像データ付き合 成音声データを電子メールとして他端末に送信する機能、などを実行可能として ヽる
。なお、ォーサリングプログラム APが実行する上記各機能は、ォーサリングプロダラ ム APが、 CPU112, RAM (図示省略)などのハードウェア資源を利用して実行する ことにより、実行される機能である。
[0054] <ノイズゲート機能および BGMデータ合成機能 >
次に、ノイズゲート機能および BGMデータ合成機能について図 2を参照しながら説 明する。ノイズゲート機能および BGMデータ合成機能は、上述したように、ォーサリ ングプログラム APによる処理機能である。ノイズゲート機能には、音声録音中におけ るノイズゲート機能と音声録音後に実行するノイズゲート機能がある。音声録音中に おけるノイズゲート機能は、マイク装置 101で入力した音声の音量が所定レベルを超 えると録音を開始し、音量が所定レベルより小さくなると録音を停止することにより録 音データを生成する機能である。音声録音後に実行するノイズゲート機能は、既に録 音が生成された録音データ中で音量が所定のレベルより小さい箇所のデータを破棄 し、音量が所定のレベルを超える箇所のみ録音データとして保持する機能である。
[0055] たとえば、
「(無音部分)(こんにちは)(無音部分)(今日はいい天気です)(無音部分)(どこカゝ 遊びに行こうよ!;)」
としゃべつた場合は、
「こんにちは」、
「今日はいい天気です」、
「どこか遊びに行こうよ!」、
の 3つのデータが記録されることになる。この 3つのそれぞれのデータを録音データ 要素と呼ぶことにする。図 2の録音データとして示した VI, V2, V3が上記の 3つの録 音データ要素に該当する。
[0056] 次に、 BGMデータ BDは、図に示すように複数の小節に区分される力 本実施の 形態における BGMデータ BDには、この各小節の先頭位置(これは時間軸上のボイ ントである。)を指定したタイミングマーカが記録されている。このように小節の先頭位 置を指定したタイミングマーカが設定された BGMデータ BDを特にマーカ付き楽曲 データと呼ぶことにする。この実施の形態におけるマーカ付き楽曲データには、各小 節の先頭位置にマーカが設定されている力 これは一例である。小節区切りとは異な るポイントにマーカが設定されて ヽても良 、。
[0057] そして、ォーサリングプログラム APは、上記のように分解されたそれぞれの録音デ ータ要素を、マーカ付き楽曲データの各タイミングマーカ位置にリンクさせる。つまり、 各録音データ要素がマーカ付き楽曲データの各小節の先頭に合成されるようにする のである。このようにして録音データと BGMデータ BDとが合成されることにより合成 音声データが生成される。このようにして生成された合成音声データを再生すると、 B GMデータ BDに基づいて再生されるバックグラウンドミュージックの各小節頭に、実 際の録音タイミングとは関係なぐ 1小節目の頭から「こんにちは」と発生し、 2小節目 の頭から「今日は 、 、天気です」と発生し、 3小節目の頭から「どこか遊びに行こうよ !」と発生する。このような手順でバックグラウンドミュージックと録音データとの同期が 行なわれるのである。
[0058] ここで、図に示すように、録音データ要素 V3のフレーズが BGMデータ BDの 4小節 目の領域まで掛かっている。その場合、 BGMデータ BDの 3小節目をループ再生し てノックグラウンドミュージックと録音データとが違和感無く合成する方法をとるように しても良い。
[0059] このように、本実施の形態においては、ノイズゲート処理とマーカ付き楽曲データを 用いることで、録音データと BGMデータ BDの合成処理を自動化させることが可能で ある。したがって、操作ボタンの数に制限があり、また、モニタサイズが小さい携帯電 話端末においても、煩雑な操作を必要とすることなぐ音声合成処理を実行すること が可能である。
[0060] ただし、 BGMデータ BDを再生しながら、そのリズムに合わせてユーザが発生し、 合成録音を行なう方法をとつても良い。その場合は録音しながらキー操作をすること で、任意の時間軸上で録音音声と BGMとの合成を行なうことが可能である。
[0061] <効果音データ合成機能 >
効果音データ合成機能も、ォーセリングプログラム APによる処理機能である。図 2 に示すように、効果音データ EDは、合成音声データの再生時間軸上の任意のボイ ントで合成させることが可能である。合成方法は、次の通りである。ォーサリングプロ グラム APは、 BGMデータ BDの再生を行ないつつ(あるいは、合成音声データの再 生を行ないつつ)、ユーザによる効果音挿入指示を入力するのである。ユーザは、 B GMを聞きながら、効果音を挿入したいポイントで、操作部 107を操作して、効果音 挿入指示を行うのである。このようにして、 BGMデータ BD,録音データ、効果音デ ータ EDが合成された合成音声データを生成することが可能である。
[0062] <映像データの合成機能 >
また、ォーサリングプログラム APは、生成された合成音声データに静止画像あるい は動画像などの映像データを合成し、映像データ付き合成音声データを生成するこ とが可能である。合成方法は、次の通りである。第 1の方法は、図 3に示すように、各 映像データを BGMデータ BDの各小節にリンクさせる方法である。図に示したように 、複数の小節にわたって 1つの映像データをリンクさせても良い。また、第 2の方法と しては、ォーサリングプログラム APを実行し、合成音声データを再生しながら、映像 データの切り替わりポイントをユーザに指定させる方法である。
[0063] 以上説明した方法により、 BGMデータ BD、録音データ、効果音データ EDが合成 された合成音声データが生成され、さらに、映像データが合成されることにより、映像 データ付き合成音声データが生成される。
[0064] <データ形式 >
ォーサリングプログラム APは、上記の処理によって生成された合成音声データを、 オーディオ処理部 108を利用して MP3あるいは AACなどの規格に基づいて圧縮処 理する。また、上記の処理によって生成された映像データ付き合成音声データを、ォ 一ディォ処理部 108および映像処理部 109を利用して、 MPEG4などの規格に基づ いて動画圧縮処理する。このようにして、本実施の形態における合成音声データは、 MP3あるいは AACなどの規格に基づいて圧縮された音声電子メールとしてメモリ 10 6に格納されている。あるいは、映像データ付き合成音声データは MPEG4などの規 格に基づ 、て(音声は MP3や AACなどの規格に基づ!/、て)圧縮されたマルチメディ ァメールとしてメモリ 106に格納される。
[0065] また、ォーサリングプログラム APは、合成音声データを携帯電話端末で標準的に 利用されている汎用音楽データ形式 (たとえば mmf)に変換することも可能である。こ の場合には、ォーサリングプログラム APは、オーディオ処理部 108を利用せず、 CP U112上の処理で合成音声データを汎用音楽データ形式に変換する。このようにし て生成されたデータは音声電子メールとしてメモリ 106に格納される。
[0066] 昨今の携帯電話端末で利用される汎用音楽データの多くは、図 4に示すように BG M音楽や効果音を再生する FM音源チャンネルと、録音音声を再生する PCMチャン ネルと力 構成される。そのため BGM音楽および効果音にっ 、ては FM音源チャン ネルを利用し、録音した音声データは PCMチャンネルを利用して 1つの合成音声デ ータを生成するようにすれば良 、。
[0067] 以上の処理により、音声電子メールあるいはマルチメディアメールが生成されると、 CPU112は、電子メールの宛先アドレスなどを指定した上で、音声電子メールあるい はマルチメディアメールを宛先アドレスに向けて送信するのである。そして、音声電子 メールを受信した端末では、 BGMにあわせて合成された音声を視聴することが可能 である。この音声は、人工音声などではなぐ実際に送信者が録音したデータである ので、感情表現を正確に伝達することが可能である。また、このような録音音声が BG Mにあわせて再生されるので、通常の音声通話と異なり、伝達内容を様々な態様で 演出することが可能である。さらには、任意のポイントで挿入された効果音により、さら に、音声メールの表現力を増強させることが可能である。また、マルチメディアメール においては、これら表現豊かな音声メールにカ卩えて、映像が再生されるので、さらに 表現力豊かなコミュニケーションを図ることが可能である。
[0068] <シナリオデータ >
図 2および図 3に示すように、合成音声データあるいは映像データ付き合成音声デ ータは、複数のデータがレイヤ構成されたものである。つまり、合成音声データあるい は映像データ付き合成音声データは、 BGMデータ BDに合成される各データフアイ ル名(データ識別情報)と BGMデータ BDに対する同期情報(時間情報など)で定義 することが可能である。
[0069] そこで、本実施の形態の変形例として、これらデータ識別情報および同期情報をシ ナリオデータとし、録音データとシナリオデータのみを宛先アドレスに送信する。言い 換えると、シナリオデータとは、 BGMデータ BD、効果音データ ED、映像データを特 定する情報と、これら各データと録音データとが合成されるタイミングを示す情報とを 含むものである。つまり、この方法をとる場合、データ識別情報で指定された各デー タファイルを受信側の端末が保持している力 あるいは、受信側の端末がネットワーク 上のサーバ等力もこれら各データファイルを受信する必要がある。しかし、送信端末 は、各データファイルを送信する必要が無ぐデータ転送量を削減することが可能で ある。
[0070] 受信側にお!、てシナリオデータを利用して音声電子メールある 、はマルチメディア メールを再生する際には、所定のアプリケーションプログラムを実行して、シナリオデ ータに記述されているデータ識別情報に従って、 BGMデータ、効果音データ、映像 データなどを記録媒体力 読み出し、記述された同期情報に従って再生するのであ る。 [0071] <合成処理の流れ >
以上説明した合成処理について図 5ないし図 9のフローチャートを参照しながら説 明する。図 5に示すように、まず、ノイズゲート処理 (ステップ S 10)が行なわれ、録音 データが録音データ要素に分解される。
[0072] 図 6は、ノイズゲート処理 (ステップ S 10)の処理内容を示すフローチャートである。
ステップ S11でノイズゲートの処理タイミングが選択される。録音後ノイズゲート処理を 行う設定となっている場合には、マイク録音処理 (ステップ S 12)が実行され、次に、 録音データに対してノイズゲート処理 (ステップ S 13)が実行される。録音中ノイズゲ ート処理を行なう設定となっている場合には、ノイズゲート録音処理 (ステップ S 14)が 実行される。以上の処理により、録音データ要素が生成される。なお、録音後ノイズ ゲート処理を行なうか、録音中ゲート処理を行うかの設定は、ユーザが自由に変更で きるようにすれば良い。
[0073] 図 5に戻り、次に、 BGM処理 (ステップ S20)が行なわれる。図 7は、 BGM処理 (ス テツプ S20)の処理内容を示すフローチャートである。まず、ステップ S21において B GMデータ BDの読み込み先が選択される。 BGMデータ BDの読み込み先がカード メディアである場合には、カードメディア (ROMカード 103)の読み込み処理が行な われる(ステップ S22)。一方、 BGMデータ BDの読み込み先が公開サーバである場 合には、公開サーバへの接続処理が行なわれる (ステップ S25)。次に、複数存在す る BGMデータ BDの中力 合成処理の対象となる BGMデータ BDの選択が行なわ れる(ステップ S23、 S26)。そして、取得された BGMデータ BDの復号化処理が行な われる(ステップ S24, 27)。
[0074] 図 5に戻り、次に、合成処理が行なわれる (ステップ S 30)。合成処理の内容は、上 述した通りであり、マーカ付き楽曲データのタイミングマーカに同期するように、録音 データ要素が合成される。なお、上述したように、この合成処理後のデータは、図 2で 示したようにレイヤ構造をとつており、 BGMデータ BDと録音データとが分離可能な 状態で合成されている。たとえば、 BGMデータ BDと録音データとのリンク情報が生 成される。あるいは、複数のトラック(チャンネル)を含む合成音声データが生成され、 各トラックに各データが格納される。 [0075] なお、 BGMデータ BDの各タイミングマーカ位置において録音データ要素を合成 するが、このとき、特定の録音データ要素については、複数のタイミングマーカ位置 に合成させるようにしても良い。たとえば、特定の録音データ要素を、連続する複数 のタイミングマーカ位置に合成させることにより、特定のメッセージをリピート再生させ ることが可能であり、録音メッセージの中で特に重要なフレーズを強調させることが可 能である。
[0076] 次に効果音挿入処理 (ステップ S40)が行なわれる。効果音挿入方法は上述した通 りであり、ユーザの指定操作に応答して、合成音声データの再生時間軸上の任意の ポイントに効果音が合成される。なお、効果音挿入後の合成音声データも、図 2で示 したようにレイヤ構成をとつており、各データが分離可能な状態で合成されている。効 果音データ EDの取得方法につ!、ては、図 7で示した BGMデータ BDの取得方法と 同様である。
[0077] 次に、ステップ S50において、映像を付加する力否かの選択が行なわれる。映像を 付加する場合には、マルチメディアメール作成処理 (ステップ S60)が行なわれ、映像 を付加しな 、場合には、音声電子メール (ボイスメール)の作成処理 (ステップ S 70) が行なわれる。映像を付加する力否かの選択は、ユーザにより指定される。
[0078] 図 8は、マルチメディアメールの作成処理の内容を示すフローチャートである。まず 、ファイル形式の選択が行なわれる(ステップ S61)。ファイル形式として MPEG等に よる動画圧縮形式が設定されている場合には、指定された映像データを付加した上 で、設定されたファイル形式に従って圧縮処理が実行される (ステップ S62)。フアイ ル形式としてシナリオデータが設定されて!ヽる場合には、映像データ付き合成音声 データを定義するシナリオデータを生成する (ステップ S63)。このシナリオデータに は、映像データを指定する情報も含められる。
[0079] このようにして生成されたマルチメディアメールは、メモリ 106に格納される(ステップ S64)。ここで、メモリ 106に格納されるマルチメディアメールは、ステップ S62処理後 のデータは圧縮された映像データ付き合成音声データであり、ステップ S63処理後 のデータは、シナリオデータと録音データである。そして、メモリ 106に格納されたマ ルチメディアメールは、宛先アドレスが指定され、他の端末に送信される (ステップ S6 5) 0
[0080] 図 9は、音声電子メール(ボイスメール)の作成処理の内容を示すフローチャートで ある。まず、ファイル形式の選択が行なわれる(ステップ S71)。ファイル形式として M P3や AAC等による音声圧縮形式が設定されて ヽる場合には、設定されたファイル 形式に従って圧縮処理が実行される (ステップ S72)。フィル形式として携帯電話端 末で標準化されている汎用音楽ファイル形式が設定されている場合には、設定され たファイル形式への変換処理が行なわれる(ステップ S73)。ファイル形式としてシナ リオデータが設定されて!、る場合には、合成音声データを定義するシナリオデータを 生成する(ステップ S 74)。
[0081] このようにして生成された音声電子メールは、メモリ 106に格納される(ステップ S75 ) oここで、メモリ 106に格納される音声電子メールは、ステップ S72、 S73処理後の データは圧縮あるいは変換された合成音声データであり、ステップ S74処理後のデ ータは、シナリオデータと録音データである。そして、メモリ 106に格納された音声電 子メールは、宛先アドレスが指定され、他の端末に送信される (ステップ S76)。
[0082] (第 2の実施の形態)
次に、第 2の実施の形態について説明する。上述した第 1の実施の形態において は、音声電子メールある 、はマルチメディアメールを生成するための合成処理を携帯 電話端末 100内で実行することとした。つまり、図 10に示すように、携帯電話端末 10 0において、音声入力、音声録音、合成、メール送信全ての処理を実行し、合成処理 後の電子メールを受信端末 200に送信することとした。
[0083] 第 2の実施の形態においては、合成処理をネットワークで接続された合成サーバ 3 00において実行する。具体的には、図 11に示すように、携帯電話端末 100において は、音声入力処理および音声録音処理のみを実行する。そして、携帯電話端末 100 力も合成サーバ 300に録音データを送信し、合成サーバ 300にお 、て合成処理を 実行するのである。ここで、合成処理の条件を示した情報を、携帯電話端末 100から 合成サーバ 300に送信するようにすれば良い。合成処理の条件を示した情報とは、 第 1の実施の形態で説明したシナリオデータと同種の情報であれば良い。合成サー ノ 300は、第 1の実施の形態と同様の合成処理を実行することにより、音声電子メー ルあるいはマルチメディアメールを生成すると、この電子メールを記憶装置に格納す る。そして、この記憶装置に格納された電子メールへのアクセスパス情報として URL を指定した情報をメール受信端末 200に送信するのである。メール受信端末 200は 、この URLを指定することにより、音声電子メールあるいはマルチメディアメールを受 信することが可能である。
[0084] なお、図 11で示した例では、アクセスパス情報(URL情報)を、合成サーバ 300か らメール受信端末 200に送信するようにした力 合成サーバ 300が、ー且、アクセス パス情報をメール送信端末である携帯電話端末 100に送信し、携帯電話端末 100 からメール受信端末 200にアクセスパス情報を送信するようにしても良 、。
[0085] このように、第 2の実施の形態によれば、メール送信端末である携帯電話端末 100 においては、合成処理が実行されないので、端末への処理負荷を小さくすることが可 能である。
[0086] (第 3の実施の形態)
次に、第 3の実施の形態について説明する。第 3の実施の形態が第 2の実施の形 態と異なる点は、音声の録音も合成サーバ 300で実行する点である。この他の点は、 第 2の実施の形態と同様である。具体的には、まず、メール送信端末である携帯電話 端末 100は、合成サーバ 300との間で電話回線を接続する。そして、ユーザは、マイ ク装置 101に向かってメッセージを発声するのである。このメッセージが電話回線を 通じて合成サーバ 300に転送され、合成サーバ 300にお 、て録音処理が行なわれ るのである。その後の処理は、第 2の実施の形態と同様である。
[0087] 第 3の実施の形態においても、メール送信端末である携帯電話端末 100において は、合成処理が実行されないので、端末への処理負荷を小さくすることが可能である
[0088] (第 4の実施の形態)
次に、本発明の第 4の実施の形態について説明する。第 4の実施の形態が第 1の 実施の形態と異なる点は、マイク装置 101から入力した音声に様々な音声処理を加 え、その音声処理後の音声と BGMデータ BDとを合成する点である。
[0089] 処理の流れは、図 5〜図 9のフローチャートを用いて説明したものと略同様である。 ただし、ステップ S30の合成処理が異なる。つまり、第 1の実施の形態におけるステツ プ S30の合成処理は、録音した音声をそのまま BGMデータ BDに合成させて!/、たが 、この実施の形態においては、録音した音声をカ卩ェした後、 BGMデータ BDと合成 する。図 13は、この実施の形態における合成処理 (ステップ S30)のフローチャートで ある。この合成処理も、ォーサリングプログラム APによって実行される処理である。合 成処理フローにおいて、まず、音声処理 (ステップ S31)が実行される。音声処理は、 録音された音声を変調する処理や、録音した音声に特殊効果を与える処理である。
[0090] 音声を変調する処理としては、音声のテンポ (速度)を変更する処理、音声のピッチ
(音程)をシフトする処理などが含まれる。たとえば、マイク装置 101に対しては、ゆつ くりとしたテンポで発声し録音する力 変調処理により音声をアップテンポに変更する ことにより、軽やかな調子の音声メッセージ変調することが可能である。また、録音音 声のピッチをシフトし、全体的にメッセージの音程を低音側にシフトさせることで、重 苦し 、雰囲気や、機嫌の悪 、様子を演出することが可能である。
[0091] また、音声に特殊効果を与える処理としては、イコライザ処理、ハーモナイズ処理、 エコー処理などが含まれる。イコライザ処理は、高音域を強調させたり、低音域を強 調させたり、あるいは特定の音域をカットしたりすることにより、音声メッセージの周波 数特性を変化させる処理である。ハーモナイズ処理は、録音音声のピッチに対して 和音となる他の音を付加し、音声メッセージを和音にする処理である。エコー処理は 、録音音声を時間差で再生し、音を響かせる処理である。たとえば、ハーモナイズ処 理により、壮大な雰囲気のメッセージを生成することが可能である。また、エコー処理 により、幻想的な雰囲気を演出することが可能である。
[0092] 図 14を参照しながら、音声処理 (ステップ S31)の処理の流れを説明する。まず、録 音音声のテンポの変更を行なうか否力判定を行なう(ステップ S301)。テンポの変更 を行わない場合、ステップ S305に移行する。
[0093] テンポの変更を行う場合 (ステップ S301で Yes)、シンクロ処理を行なうか否かの判 定を行なう(ステップ S302)。テンポの変更処理としては、 2つの処理方法が用意され ている。 1つは、マニュアルによるテンポ変更処理であり、もう 1つは、自動テンポ変更 処理 (シンクロ処理)である。マニュアルによるテンポ変更処理は、ユーザによって指 定されたテンポ設定に従い、録音音声のテンポを変更する処理である。 自動テンポ 変更処理は、録音音声のテンポが BGMデータ BDにシンクロするように変更される処 理である。
[0094] このテンポ変更処理を説明する前に、まず、録音音声の録音時 (テンポ変更前)に おけるテンポの取得方法にっ 、て説明する。録音時のテンポの取得方法には 2つの 方法がある。 1つは、ガイド音声により決定される方法である。ユーザにより音声が入 力される際、メトロノームのように一定のリズムを刻むガイド音声が再生される。ユーザ は、このガイド音声を聞きながら音声を録音するのである。録音音声には、このガイド 音声の情報も含まれており、ガイド音声によって録音音声のテンポが決定される。もう 1つの方法は、録音音声のリズムを自動で取得する方法である。録音音声に対して 音声解析処理が行なわれ、音声が音節単位に分割される。そして、この各音節の発 声タイミング力も録音音声のテンポを自動的に取得するのである。以上の 2つの方法 により、録音音声の録音時におけるテンポが決定される。
[0095] 次に、テンポの変更処理にっ 、て説明する。マニュアルによるテンポ変更処理方法 は、ユーザにより指定されたテンポ設定に従い、録音時のテンポを修正する方法であ る。たとえば、録音時のテンポがガイド音声により決定されていれば、このガイド音声 のテンポを設定されたテンポに修正するのである。これに従い、録音音声のテンポも 変更される。あるいは、録音時のテンポが自動取得されている場合には、この自動取 得されたテンポ力 設定されたテンポ設定に従 、変更されるのである。
[0096] 自動テンポ変更処理方法は、録音音声の録音時のテンポが BGMデータ BDにシ ンクロするように自動的に変更される方法である。 BGMデータ BDのテンポは、あら 力じめ BGMデータ BDに記録されている場合には、それを利用することが可能であ る。あるいは BGMデータ BDを音声解析することによって取得することも可能である。 たとえば、ドラムなどのリズムを刻む音声に基づ 、てテンポを解析することが可能であ る。そして、録音時のテンポがガイド音声により決定されていれば、このガイド音声の テンポを BGMデータのテンポにあわせるように変更するのである。これに従い、録音 音声のテンポも BGMにシンクロするように変更される。あるいは、録音時のテンポが 自動取得されて 、る場合には、この自動取得されたテンポが BGMデータ BDのテン ポにシンクロするように自動的に変更されるのである。
[0097] 図 14のフローチャートに戻る。シンクロ処理を行う場合 (ステップ S302で Yes)、録 音音声のテンポ力 BGMデータ BDにシンクロするように自動変更される (ステップ S 303)。シンクロ処理を行わない場合 (ステップ S302で No)、録音音声のテンポが設 定値に従って変更される (ステップ S304)。
[0098] 次に、ピッチシフト処理を行なうか否かの判定を行なう(ステップ S305)。ピッチシフ ト処理を行なう設定とされている場合 (ステップ S305で Yes)、設定値に従ってピッチ シフト処理が実行される (ステップ S306)。ピッチシフト処理の設定値とは、音程のシ フト量である。録音音声のシフト量は、ユーザにより設定可能である。
[0099] 次に、イコライザ処理を行なうか否かの判定を行なう(ステップ S307)。イコライザ処 理を行なう設定とされている場合 (ステップ S307で Yes)、設定値に従ってイコライザ 処理が実行される (ステップ S308)。イコライザ処理の設定値とは、強調する音域の 情報、あるいは、カットする音域の情報などであり、ユーザにより設定可能である。
[0100] 次に、ハーモナイズ処理を行なうか否かの判定を行なう(ステップ S309)。ハーモナ ィズ処理を行なう設定とされている場合 (ステップ S309で Yes)、設定値に従ってハ 一モナィズ処理が実行される(ステップ S310)。ハーモナイズ処理の設定値は、ユー ザにより設定可能とする。たとえば、ベース音に対して 3度の音を付加する。あるいは 、ベース音に対して 3度と 5度の音を付加するなどの設定を可能とすればょ 、。
[0101] 次に、エコー処理を行なうか否かの判定を行なう(ステップ S311)。エコー処理を行 なう設定とされている場合 (ステップ S311で Yes)、設定値に従ってエコー処理が実 行される(ステップ S312)。エコー処理の設定値とは、エコー音声の時間差、エコー 音声の継続時間などを指定する情報であり、ユーザにより設定可能である。
[0102] このように、音声処理 (ステップ S31)においては、様々な処理が実行される力 どの 音声処理を実行させるかは、ユーザにより設定可能とすればよい。たとえば、ユーザ は、テンポ自動変更とハーモナイズ処理を実行するように設定したり、テンポのマ-ュ アル変更処理とピッチシフト処理とエコー処理を実行するように設定したり、自由に音 声処理の組み合わせを選択することが可能である。また、音声処理を与える音声の 時間軸上のポイントをユーザにより指定できるようにすれば良い。これにより、たとえ ば、音声の前半部分は、エコー処理により幻想的な雰囲気を演出し、後半部分は、 アップテンポにしてスピード感溢れるメッセージとすることなどが可能である。
[0103] このように、どのような音声処理を実行するかは、ユーザにより自由に設定可能とし ているが、このような細かな設定を行なう負担力 ユーザを解放するために、複数の テーマに対応した複数種類の設定セットを用意しておくことが望ましい。この設定セッ トには、実行する音声処理の組み合わせや、実行される各音声処理の設定値などが 規定されている。たとえば、ロック調、ノラード調、ラップ調など曲調に合わせた設定 セットを用意しておけば便利である。あるいは、悲しみ編、怒り編、喜び編などの感情 にマッチした設定セットを用意しておけば便利である。ユーザは、 BGMデータ BDと してロック調の音楽を選択し、設定セットとしてロック調の音楽を選択しておけば、簡 単にロック調の音声メッセージを作成可能である。
[0104] 図 13に戻り、ステップ S31において音声処理が終了すると、音声処理が行なわれ た音声と BGMデータ BDとの合成処理が行なわれる(ステップ S32)。合成処理が終 了すると、図 5で示したステップ S40、 S50, S60 (または S70)が実行され、マルチメ ディアメールあるいはボイスメールが送信されるのである。
[0105] 以上、説明したように、本実施の形態によれば、録音した音声を変調し、あるいは様 々な特殊効果を与えた上で BGMデータ BDと合成する。これにより、音声メールや映 像付き音声メールの表現力をさらに増強させることが可能である。特に、音声処理の 設定と BGMデータ BDの組み合わせを工夫することで、 BGMデータ BDの雰囲気や 曲調に合わせたメッセージを再生することが可能である。
[0106] 本発明によれば、ノイズゲート処理とテンポ変更処理によって、 BGMは、録音音声 と無関係に流れるサウンドではなぐ録音音声と融合して、 1つのサウンドを構成する 。つまり、ノイズゲート処理によって、録音音声の文節あるいは文章力 BGMの小節 にリンクされ、融合する。さらには、テンポ変更処理によって、 BGMの各小節内にお V、て録音音声の音節が BGMのリズムに融合し、統一感のあるサウンドを構成するの である。
[0107] なお、上記の実施の形態では、音声を録音した後、 BGMデータ BDを取得し、その 次に、録音音声の音声処理および合成処理を実行する処理の流れとしたが、音声の 録音中に音声処理を実行するようにしても良い。この場合、音声の録音と音声処理 が並行して行なわれ、その次に、 BGMデータ BDが取得され、音声処理後の音声と BGMデータ BDが合成されるという処理フローである。ただし、シンクロ処理によるテ ンポ自動変更処理を行なうためには、 BGMデータ BDの情報が必要であるため、自 動変更処理にっ 、ては、 BGMデータ BDの取得後に実行するのようにすればよ!、。
[0108] また、上記の実施の形態においては、録音音声を変調あるいは録音音声に特殊効 果を与える音声処理が実行される場合を説明したが、 BGM音楽を変調あるいは BG M音楽に特殊効果を与えるような音声処理が実行されるようにしてもょ 、。音声処理 の方法としては、録音音声で設定されて ヽる処理と同じ処理を施すようにしてもょ ヽし 、 BGM音楽については、別に音声処理の内容が設定されても良い。
[0109] この発明は詳細に説明されたが、上記した説明は、全ての局面において、例示で あって、この発明がそれに限定されるものではない。例示されていない無数の変形例 力 この発明の範囲力 外れることなく想定され得るものと解される。

Claims

請求の範囲
[1] 音声入力手段(101)と、
前記音声入力手段により入力した音声を録音し、録音データとして記憶する手段(
106)と、
前記録音データと楽曲データ (BD)とを合成し、合成音声データを生成する合成処 理手段 (AP)と、
前記合成音声データを電子メールとして送信する送信手段と、
を備える電子メール送信端末(100)。
[2] 請求項 1に記載の電子メール送信端末(100)であって、
前記楽曲データ (BD)は、
効果音データ (ED)、
を含み、
前記合成処理手段 (AP)は、
前記合成音声データの再生時間軸上の指定されたポイントに前記効果音データを 合成する手段、
を含む電子メール送信端末。
[3] 請求項 1または請求項 2の 、ずれかに記載の電子メール送信端末(100)であって 前記楽曲データ (BD)は、
前記電子メール送信端末に着脱可能な記録媒体(103)または前記電子メール送 信端末が接続可能なネットワーク上のサーバの記憶装置に格納されている 電子メール送信端末。
[4] 請求項 3に記載の電子メール送信端末(100)であって、
前記記録媒体(103)または前記記憶装置に格納されて!、る楽曲データ (BD)は暗 号化されており、
前記合成処理手段 (AP)は、
暗号化されている前記楽曲データを復号ィ匕する手段、
を含む電子メール送信端末。
[5] 請求項 1または請求項 2の 、ずれかに記載の電子メール送信端末(100)であって 前記楽曲データ (BD)は、
予め再生時間軸上に 1つあるいは複数のタイミングマーカが設定されたマーカ付き 楽曲データ、
を含み、
前記合成処理手段 (AP)は、
前記録音データのうち所定音量以下の部分を無音部分とし、前記録音データを無 音部分を区切りとした複数の録音データ要素に分解する手段と、
前記複数の録音データ要素のそれぞれを前記マーカ付き楽曲データの前記タイミ ングマーカで設定された時間に同期させて合成させる手段と、
を含む電子メール送信端末。
[6] 請求項 5に記載の電子メール送信端末(100)であって、
前記マーカ付き楽曲データ (BD)は、
各小節の先頭にタイミングマーカが設定された音楽データ、
を含む電子メール送信端末。
[7] 請求項 1または請求項 2の 、ずれかに記載の電子メール送信端末(100)であって 前記合成処理手段 (AP)は、
ユーザによる指定操作に応答して前記合成音声データの時間軸上の任意のポイン トに映像データを合成し、映像データ付き合成音声データを生成する手段、 を含み、
前記送信手段は、
前記映像データ付き合成音声データを電子メールとして送信する手段、 を含む電子メール送信端末。
[8] 請求項 1または請求項 2の 、ずれかに記載の電子メール送信端末(100)であって さらに、 前記合成音声データを音声圧縮変換する手段、
を備える電子メール送信端末。
[9] 請求項 7に記載の電子メール送信端末(100)であって、さらに、
前記映像データ付き合成音声データを動画圧縮変換する手段、
を備える電子メール送信端末。
[10] 請求項 1または請求項 2のいずれかに記載の電子メール送信端末(100)であって 前記電子メール送信端末は携帯電話端末であり、
前記合成音声データは、
携帯電話端末にお!ヽて規定されて!ヽる標準音楽データ形式に変換される 電子メール送信端末。
[11] 請求項 1または請求項 2のいずれかに記載の電子メール送信端末(100)であって さらに、
合成処理のルールを記録したシナリオデータを生成する手段、
を備え、
前記送信手段は、
前記録音データと前記シナリオデータを電子メールとして送信する手段、 を含む電子メール送信端末。
[12] 請求項 1または請求項 2のいずれかに記載の電子メール送信端末(100)において さらに、
前記音声入力手段(101)により入力した音声を処理する処理手段、
を備え、
前記処理手段は、
音声を変調する手段および Zまたは音声に特殊効果を与える手段、
を含み、
前記合成処理手段 (AP)は、 前記処理手段によって処理された後の録音データと楽曲データ (BD)とを合成する 電子メール送信端末。
[13] 請求項 12に記載の電子メール送信端末(100)であって、
前記処理手段は、
前記音声入力手段(101)で入力された音声のテンポ変更処理および Zまたはピッ チシフト処理を実行する手段、
を含む電子メール送信端末。
[14] 請求項 12に記載の電子メール送信端末(100)であって、
前記処理手段は、
前記音声入力手段(101)で入力された音声に、イコライザ処理、ハーモナイズ処 理およびエコー処理のうち、いずから 1つあるいは複数の処理を実行する手段、 を含む電子メール送信端末。
[15] 請求項 12に記載の電子メール送信端末(100)であって、
複数のテーマに対応した複数の設定情報が予め用意されており、各設定情報には 、前記処理手段が実行する処理の内容が規定されており、一の設定情報が選択され ることにより、前記処理手段による処理の内容が決定される
電子メール送信端末。
[16] 請求項 1または請求項 2のいずれかに記載の電子メール送信端末(100)であって さらに、
前記楽曲データ (BD)により規定される音楽を変調する手段および Zまたは前記 楽曲データにより規定される音楽に特殊効果を与える手段、
を含む電子メール送信端末。
[17] 電子メールを転送するシステムであって、
端末と、
合成サーバと、
を備え、
肯 己端末は、 音声入力手段(101)と、
前記音声入力手段により入力した音声を録音し、録音データとして記憶する手段(
106)と、
前記録音データを前記合成サーバに送信する手段と、
を備え、
前記合成サーバは、
受信した録音データと楽曲データ (BD)とを合成し、合成音声データを生成する合 成処理手段 (AP)と、
前記合成音声データを電子メールとして記憶装置に格納する手段と、
を備える電子メーノレシステム。
[18] 電子メールを転送するシステムであって、
端末と、
合成サーバと、
を備え、
肯 己端末は、
音声入力手段(101)と、
前記音声入力手段により入力した音声を前記合成サーバに送信する手段と、 を備え、
前記合成サーバは、
受信した音声を録音データとして録音する手段と、
前記録音データと楽曲データ (BD)とを合成し、合成音声データを生成する合成処 理手段 (AP)と、
前記合成音声データを電子メールとして記憶装置に格納する手段と、
を備える電子メーノレシステム。
[19] 請求項 17または請求項 18のいずれかに記載の電子メールシステムであって、 前記楽曲データ (BD)は、
効果音データ (ED)、
を含み、 前記合成処理手段 (AP)は、
前記合成音声データの再生時間軸上の指定されたポイントに効果音データを合成 する手段
を含む電子メールシステム。
[20] 請求項 17または請求項 18のいずれかに記載の電子メールシステムであって、 前記楽曲データ (BD)は、
予め再生時間軸上に 1つあるいは複数のタイミングマーカが設定されたマーカ付き 楽曲データ、
を含み、
前記合成処理手段 (AP)は、
前記録音データのうち所定音量以下の部分を無音部分とし、前記録音データを無 音部分を区切りとした複数の録音データ要素に分解する手段と、
前記複数の録音データ要素のそれぞれを前記マーカ付き楽曲データの前記タイミ ングマーカで設定された時間に同期させて合成させる手段と、
を含む電子メールシステム。
[21] 請求項 20に記載の電子メールシステムであって、
前記マーカ付き楽曲データ (BD)は、
各小節の先頭にタイミングマーカが設定された音楽データ、
を含む電子メールシステム。
[22] 請求項 17または請求項 18のいずれかに記載の電子メールシステムであって、 さらに、
ユーザによる指定操作に応答して前記合成音声データの時間軸上の任意のポイン トに映像データを合成し、映像データ付き合成音声データを生成する手段、 を備える電子メーノレシステム。
[23] 請求項 17または請求項 18のいずれかに記載の電子メールシステムであって、 さらに、
前記合成音声データを音声圧縮変換する手段、
を備える電子メーノレシステム。
[24] 請求項 22に記載の電子メールシステムであって、
さらに、
前記映像データ付き合成音声データを動画圧縮変換する手段、
を備える電子メーノレシステム。
[25] 請求項 17または請求項 18のいずれかに記載の電子メールシステムであって、 前記端末は携帯電話端末であり、前記合成音声データは、携帯電話端末におい て規定されて 、る標準音楽データ形式に変換される
電子メールシステム。
[26] 請求項 17または請求項 18のいずれかに記載の電子メールシステムであって、 前記合成サーバは、
さらに、
前記端末から受信した音声を処理する処理手段、
を備え、
前記処理手段は、
音声を変調する手段および Zまたは音声に特殊効果を与える手段、
を含み、
前記合成処理手段 (AP)は、前記処理手段によって処理された後の録音データと 楽曲データ(BD)とを合成する
電子メールシステム。
[27] 請求項 26に記載の電子メールシステムであって、
前記処理手段は、
前記音声入力手段(101)で入力された音声のテンポ変更処理および Zまたはピッ チシフト処理を実行する手段、
を含むこと電子メールシステム。
[28] 請求項 26に記載の電子メールシステムであって、
前記処理手段は、
前記音声入力手段(101)で入力された音声に、イコライザ処理、ハーモナイズ処 理およびエコー処理のうち、いずれか 1つあるいは複数の処理を実行する手段、 を含むこと電子メールシステム。
[29] 請求項 26に記載の電子メールシステムであって、
複数のテーマに対応した複数の設定情報が予め用意されており、各設定情報には 、前記処理手段が実行する処理の内容が規定されており、一の設定情報が選択され ることにより、前記処理手段による処理の内容が決定される
電子メールシステム。
[30] 請求項 17または請求項 18のいずれかに記載の電子メールシステムであって、 さらに、
前記楽曲データ (BD)により規定される音楽を変調する手段および Zまたは前記 楽曲データにより規定される音楽に特殊効果を与える手段、
を含む電子メールシステム。
PCT/JP2005/022677 2004-12-24 2005-12-09 電子メール送信端末および電子メールシステム WO2006067981A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020077016878A KR101236496B1 (ko) 2004-12-24 2005-12-09 전자 메일 송신 단말 및 전자 메일 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004373043A JP2006127443A (ja) 2004-09-30 2004-12-24 電子メール送信端末および電子メールシステム
JP2004-373043 2004-12-24

Publications (1)

Publication Number Publication Date
WO2006067981A1 true WO2006067981A1 (ja) 2006-06-29

Family

ID=36601583

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/022677 WO2006067981A1 (ja) 2004-12-24 2005-12-09 電子メール送信端末および電子メールシステム

Country Status (2)

Country Link
KR (1) KR101236496B1 (ja)
WO (1) WO2006067981A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011507092A (ja) * 2007-12-13 2011-03-03 サムスン エレクトロニクス カンパニー リミテッド マルチメディア電子メール合成装置及びその方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07212475A (ja) * 1994-01-25 1995-08-11 Hitachi Ltd ボイスメール音声メッセージ重畳方式
JP3060617U (ja) * 1998-12-28 1999-09-07 日立ソフトウエアエンジニアリング株式会社 音声合成出力機能付画像合成出力装置
JP2000224269A (ja) * 1999-01-28 2000-08-11 Feisu:Kk 電話機および電話システム
JP2001125599A (ja) * 1999-10-25 2001-05-11 Mitsubishi Electric Corp 音声データ同期装置及び音声データ作成装置
JP2003195863A (ja) * 2001-12-27 2003-07-09 Sony Corp 情報作成装置、携帯電話機及び情報作成方法
JP2004326152A (ja) * 2003-04-21 2004-11-18 Yamaha Corp 音楽コンテンツ利用装置及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07212475A (ja) * 1994-01-25 1995-08-11 Hitachi Ltd ボイスメール音声メッセージ重畳方式
JP3060617U (ja) * 1998-12-28 1999-09-07 日立ソフトウエアエンジニアリング株式会社 音声合成出力機能付画像合成出力装置
JP2000224269A (ja) * 1999-01-28 2000-08-11 Feisu:Kk 電話機および電話システム
JP2001125599A (ja) * 1999-10-25 2001-05-11 Mitsubishi Electric Corp 音声データ同期装置及び音声データ作成装置
JP2003195863A (ja) * 2001-12-27 2003-07-09 Sony Corp 情報作成装置、携帯電話機及び情報作成方法
JP2004326152A (ja) * 2003-04-21 2004-11-18 Yamaha Corp 音楽コンテンツ利用装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NAKAJIMA A.: "MIDI Bible I MIDI 1.0 Kikaku Kisohen", vol. 2ND ED., 1 June 1998, KABUSHIKI KAISHA RITT MYUJIKKU, pages: 246 - 247, XP003007771 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011507092A (ja) * 2007-12-13 2011-03-03 サムスン エレクトロニクス カンパニー リミテッド マルチメディア電子メール合成装置及びその方法

Also Published As

Publication number Publication date
KR101236496B1 (ko) 2013-02-21
KR20070091679A (ko) 2007-09-11

Similar Documents

Publication Publication Date Title
KR100619826B1 (ko) 이동 통신 단말기의 음악 및 음성 합성 장치와 방법
TW529018B (en) Terminal apparatus, guide voice reproducing method, and storage medium
KR100549634B1 (ko) 데이터 압축 방법, 데이터 전송 방법 및 데이터 재생 방법
KR101236496B1 (ko) 전자 메일 송신 단말 및 전자 메일 시스템
JP2006127443A (ja) 電子メール送信端末および電子メールシステム
KR20080016109A (ko) 배경음이 출력되는 오디오북 서비스 제공 방법 및 시스템
KR100731232B1 (ko) 악곡 데이터 편집 재생 장치 및 휴대 정보 단말기
US20210367987A1 (en) Live Broadcast Network Using Musical Encoding to Deliver Solo, Group or Collaborative Performances
JP4512286B2 (ja) 番組送出システム及びこれに用いる番組送出装置
JP2005062420A (ja) コンテンツ生成システム、コンテンツ生成方法およびコンテンツ生成プログラム
JP3859200B2 (ja) ポータブルミキシング記録装置及びその制御方法並びにプログラム
JP2002229576A (ja) 携帯カラオケ端末、模範歌唱信号送出装置および携帯カラオケシステム
JP2001051688A (ja) 音声合成を用いた電子メール読み上げ装置
US20040193429A1 (en) Music file generating apparatus, music file generating method, and recorded medium
JP2007251581A (ja) 音声送信端末および音声再生端末
JP2008191536A (ja) 歌声の録音及び伴奏曲との合成装置
TW200427297A (en) Speech and music reproduction apparatus
JP2005217614A (ja) 電話端末装置及び楽曲再生方法
JP4244706B2 (ja) 音声再生装置
JP4337726B2 (ja) 携帯端末装置、プログラムおよび記録媒体
JP4514513B2 (ja) 音楽メール出力方法、音楽メール出力システム、及び音楽出力装置
JP4153453B2 (ja) 音楽再生装置
GB2395631A (en) Audio file reproduction in a mobile telecommunications device
KR100755526B1 (ko) 벨 소리 생성 장치와 벨 소리 생성 방법 및 벨 소리 생성방법이 기록된 기록매체
JP2006235468A (ja) 楽曲ファイル生成装置およびそれを用いた携帯端末装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 1020077016878

Country of ref document: KR

122 Ep: pct application non-entry in european phase

Ref document number: 05814474

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5814474

Country of ref document: EP