WO2004008435A1 - 送信装置および送信方法、受信装置および受信方法、送受信装置、通信装置および方法、記録媒体、並びにプログラム - Google Patents

送信装置および送信方法、受信装置および受信方法、送受信装置、通信装置および方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
WO2004008435A1
WO2004008435A1 PCT/JP2003/008825 JP0308825W WO2004008435A1 WO 2004008435 A1 WO2004008435 A1 WO 2004008435A1 JP 0308825 W JP0308825 W JP 0308825W WO 2004008435 A1 WO2004008435 A1 WO 2004008435A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
transmission
quality
unit
reception
Prior art date
Application number
PCT/JP2003/008825
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Hiroto Kimura
Tsutomu Watanabe
Masaaki Hattori
Gakuho Fukushi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US10/521,247 priority Critical patent/US7515661B2/en
Priority to KR20057000688A priority patent/KR100994317B1/ko
Priority to DE2003619856 priority patent/DE60319856T2/de
Priority to EP20030741341 priority patent/EP1553560B1/en
Priority to CNB038210150A priority patent/CN100458915C/zh
Priority to CN2007101407301A priority patent/CN101114452B/zh
Publication of WO2004008435A1 publication Critical patent/WO2004008435A1/ja
Priority to US12/388,980 priority patent/US7688922B2/en
Priority to US12/388,852 priority patent/US7688921B2/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices

Definitions

  • the present invention relates to a transmitting device and a transmitting method, a receiving device and a receiving method, a transmitting and receiving device, a communication device and a method, a recording medium, and a program.
  • the present invention relates to a transmitting device and a transmitting method, a receiving device and a receiving method, a transmitting and receiving device, a communication device and a method, a recording medium, and a program.
  • the present invention relates to a transmission device and a transmission method, a reception device and a reception method, a transmission / reception device, a communication device and a method, a recording medium, and a program that can be used.
  • the quality of the received voice is relatively larger than the quality of the actual voice emitted by the user due to the limited transmission band. It becomes.
  • the received voice is subjected to signal processing such as filtering for adjusting the frequency spectrum of the voice, for example.
  • the present invention has been made in view of such a situation, and it is an object of the present invention to enable a user to obtain a sound with sufficiently improved sound quality.
  • a transmitting apparatus encodes audio data and outputs encoded audio data.
  • the encoding means, the transmitting means for transmitting the encoded audio data, the parameters relating to the encoding by the encoding means, and the parameters relating to the transmission by the transmitting means correspond to the specific information for identifying the receiving side receiving the encoded audio data.
  • Parameter storage means for storing and storing parameters, and parameters for selecting and setting parameters relating to encoding by the encoding means and parameters relating to transmission by the transmission means stored in the parameter storage means based on the specific information. And setting means.
  • a transmission method includes: an encoding step of encoding audio data and outputting encoded audio data; a transmission control step of controlling transmission of the encoded audio data; and a parameter relating to encoding by the processing of the encoding step. And a parameter storage control step of controlling the storage of the coded voice data in accordance with the specific information for specifying the receiving side to receive the coded voice data, and the parameters related to the transmission controlled by the processing of the transmission control step.
  • a parameter setting step of selecting and setting parameters related to encoding by the processing of the encoding step whose storage is controlled by the processing of the parameter storage control step and parameters related to transmission controlled by the processing of the transmission control step. It is characterized by including.
  • a first recording medium includes: an encoding step for encoding audio data and outputting encoded audio data; a transmission control step for controlling transmission of the encoded audio data; and encoding by processing in the encoding step.
  • a first program comprises: an encoding step of encoding audio data and outputting encoded audio data; and a transmission control step of controlling transmission of the encoded audio data. And controls the storage of the parameters related to the encoding by the processing of the encoding step and the parameters related to the transmission controlled by the processing of the transmission control step in association with the specific information for identifying the receiving side of the encoded voice data.
  • a parameter storage control step, and parameters related to the encoding by the encoding step whose storage is controlled by the parameter storage control step based on the specific information, and transmission controlled by the transmission control step.
  • a parameter setting step of selecting and setting parameters related to the computer.
  • a receiving apparatus includes: a receiving unit that receives encoded voice data; a decoding unit that decodes the encoded voice data received by the receiving unit; a parameter related to reception by the receiving unit; Parameter storage means for storing parameters relating to the transmitting side for transmitting the coded voice data, and receiving by the receiving means stored in the parameter storing means based on the specific information. Parameter setting means for selecting and setting parameters and parameters related to decoding by the decoding means.
  • a receiving method comprises: a receiving control step of controlling reception of coded voice data; a decoding step of decoding coded voice data whose reception has been controlled in the processing of the receiving control step; A parameter storage control step of controlling the storage of the parameters related to the received data and the parameters related to the decoding by the processing of the decoding step, corresponding to the specific information that specifies the transmitting side that transmits the encoded voice data; A parameter setting step for selecting and setting parameters related to reception controlled by the processing of the reception control step whose storage is controlled by the processing of the parameter storage control step and parameters related to decoding by the processing of the decoding step based on the information; It is characterized by including.
  • a second recording medium includes: a reception control step for controlling reception of encoded audio data; a decoding step for decoding encoded audio data whose reception has been controlled in the processing of the reception control step;
  • a second program includes a reception control step for controlling reception of coded voice data, a decoding step for decoding coded voice data whose reception has been controlled in the processing of the reception control step, and a reception control step.
  • a transmission / reception device of the present invention encodes audio data, and outputs encoded audio data.
  • Parameter storing means for storing parameters relating to the first specific information for specifying the receiving side for receiving the encoded voice data, and first parameter storing based on the first specific information.
  • First parameter setting means for selecting and setting parameters relating to the encoding by the encoding means and parameters relating to the transmission by the transmitting means stored by the means, a receiving means for receiving the encoded voice data, and a receiving means.
  • Decoding means for decoding the encoded voice data received by the means, parameters relating to reception by the receiving means, and The parameters related to decoding by fine decoding means, a second parameter for storing in association with the second identification information for identifying a sender to send the encoded voice data
  • a second parameter setting unit for selecting and setting parameters related to reception by the receiving unit and parameters related to decoding by the decoding unit stored in the second parameter storage unit based on the second specific information; It is characterized by having.
  • the first communication device of the present invention includes: an acquiring unit that acquires decoded data obtained by decoding encoded audio data from a transmission / reception device to improve quality of decoded audio data; and an acquiring unit that acquires the enhanced data acquired by the acquiring unit.
  • Storage means for storing the transmission / reception apparatus in association with specific information specifying the transmission / reception apparatus; and supply means for supplying the quality-enhanced data stored by the storage means to the transmission / reception apparatus specified by the specific information. I do.
  • a first communication method according to the present invention includes: an acquisition control step of controlling acquisition of quality-enhanced data that improves the quality of decoded audio data obtained by decoding encoded audio data supplied from a transmission / reception device; and an acquisition control step.
  • a third recording medium includes: an acquisition control step for controlling acquisition of quality-enhanced data for improving the quality of decoded audio data obtained by decoding encoded audio data supplied from a transmission / reception device; and an acquisition control step.
  • a storage control step for controlling the storage of the high-quality data whose acquisition is controlled by the processing in accordance with the specific information specifying the transmitting / receiving device; and a high-quality storage for which the storage is controlled by the processing of the storage control step.
  • a third program includes: an acquisition control step of controlling acquisition of quality-enhanced data that improves the quality of decoded audio data obtained by decoding encoded audio data supplied from a transmission / reception device; and a process of the acquisition control step.
  • Storage control unit that controls the storage of the quality-enhanced data whose acquisition is controlled by the The present invention is characterized in that the computer realizes a step and a supply control step of controlling supply of the quality-enhanced data whose storage is controlled by the processing of the storage control step to the transmitting / receiving device specified by the specific information.
  • the second communication device of the present invention obtains a characteristic amount related to transmission / reception of encoded audio data from the transmission / reception device, and decodes the encoded audio data based on the characteristic amount obtained by the obtaining unit.
  • a second communication method includes: an acquisition control step of controlling acquisition of a feature quantity related to transmission and reception of encoded voice data supplied from a transmission / reception device; and a feature quantity whose acquisition is controlled by the processing of the acquisition control step.
  • a supply control step of controlling supply to the transmission / reception device.
  • a fourth recording medium includes: an acquisition control step of controlling acquisition of a feature quantity related to transmission and reception of coded audio data supplied from a transmission / reception device; and a feature quantity whose acquisition is controlled by the processing of the acquisition control step.
  • a supply control step of controlling supply to the transmission / reception device.
  • a fourth program according to the present invention is based on an acquisition control step of controlling acquisition of a feature quantity related to transmission and reception of encoded voice data supplied from a transmission / reception apparatus, and a feature quantity whose acquisition is controlled by the processing of the acquisition control step.
  • audio data is encoded, and the encoded audio data is transmitted.
  • the parameters related to the encoding-related parameters are stored in association with the specific information that specifies the receiving side that receives the encoded voice data, and the stored parameters related to the encoding are stored based on the specific information. And parameters related to transmission are selected and set.
  • encoded audio data is received and decoded.
  • parameters related to the reception and parameters related to the decoding are stored in association with specific information that specifies a transmitting side that transmits the encoded voice data, and the stored parameters related to the reception are stored based on the specific information.
  • parameters relating to decoding are selected and set.
  • audio data is encoded, and the encoded audio data is output and transmitted.
  • the parameters relating to the encoding and the parameters relating to the transmission are stored in association with the first specific information for specifying the receiving side that receives the encoded voice data, and based on the first specific information, The stored parameters relating to encoding and parameters relating to transmission are selected and set. Also, the encoded audio data is received and decoded. On the other hand, parameters related to the reception and parameters related to the decoding are stored in association with the second specific information that specifies the transmitting side that transmits the encoded voice data, and the storage is performed based on the second specific information. The parameters related to reception and the parameters related to decoding are selected and set.
  • high-quality data for improving the quality of decoded voice data obtained by decoding encoded voice data is obtained from the transmitting / receiving device.
  • the acquired quality-enhancing data is stored in association with the specific information specifying the transmitting / receiving device, and the stored quality-improving data is supplied to the transmitting / receiving device specified by the specific information. .
  • the transmitting and receiving apparatus obtains a feature amount related to the transmission and reception of the coded voice data, and based on the obtained feature amount, improves quality data that improves the quality of the decoded voice data obtained by decoding the coded voice data.
  • the calculated and improved quality data is supplied to the transmitting / receiving device that has acquired the characteristic amount.
  • FIG. 1 is a block diagram showing a configuration example of a transmission system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration example of the mobile phone 101. As shown in FIG.
  • FIG. 3 is a block diagram illustrating a configuration example of the transmission unit 113.
  • FIG. 4 is a block diagram showing a configuration example of the receiving section 114. As shown in FIG. 4
  • FIG. 5 is a flowchart for explaining the high quality data setting processing by the receiving units 114.
  • FIG. 6 is a flowchart showing a first embodiment of the high-quality data transmission process on the transmission side.
  • FIG. 7 is a flowchart showing a first embodiment of the high-quality data updating process on the receiving side.
  • FIG. 8 is a flowchart showing a second embodiment of the transmitting-side high-quality data transmission process.
  • FIG. 9 is a flowchart showing a second embodiment of the high quality data updating process on the receiving side.
  • FIG. 10 is a flowchart showing a third embodiment of the high quality data transmission process on the transmitting side.
  • FIG. 11 is a flowchart illustrating a third embodiment of the quality improvement data update process on the receiving side.
  • FIG. 12 is a flowchart showing a fourth embodiment of the high quality data transmission process on the transmitting side. Five
  • FIG. 13 is a flowchart showing a fourth embodiment of the high quality data updating process on the receiving side.
  • FIG. 14 is a block diagram showing a configuration example of the learning section 125. As shown in FIG. 14
  • FIG. 15 is a flowchart illustrating the learning processing of the learning unit 125.
  • FIG. 16 is a block diagram illustrating a configuration example of the decoding unit 1332.
  • FIG. 17 is a flowchart for explaining the processing of the decoding unit 1332.
  • FIG. 18 is a block diagram illustrating a configuration example of the encoding section 123 of the CELP system.
  • FIG. 19 is a block diagram showing a configuration example of the decoding unit 132 when the coding unit 123 of the CELP system is adopted.
  • FIG. 20 is a block diagram showing a configuration example of the learning section 125 when the CELP encoding section 123 is employed.
  • FIG. 21 is a block diagram illustrating a configuration example of an encoding unit 123 that performs vector quantization.
  • FIG. 22 is a block diagram illustrating a configuration example of the learning unit 125 when the encoding unit 123 performs vector quantization.
  • FIG. 23 is a flowchart illustrating a learning process of the learning unit 125 when the encoding unit 123 performs vector quantization.
  • FIG. 24 is a block diagram illustrating a configuration example of the decoding unit 132 when the coding unit 123 performs vector quantization.
  • FIG. 25 is a flowchart illustrating the processing of the decoding unit 132 when the encoding unit 123 performs vector quantization.
  • FIG. 26A is a diagram showing an example of the default database.
  • FIG. 26B is a diagram showing an example of a default database.
  • FIG. 26C is a diagram showing an example of the default database.
  • FIG. 27A is a diagram showing an example of the user information database.
  • FIG. 27B is a diagram illustrating an example of the user information database.
  • FIG. 28 is a block diagram illustrating another configuration example of the receiving unit 114.
  • FIG. 29 is a flowchart for explaining the quality enhancement data optimum value setting processing.
  • FIG. 30 is a block diagram showing another configuration example of the transmission system to which the present invention is applied.
  • FIG. 31 is a block diagram illustrating another configuration example of the transmission unit 113.
  • FIG. 32 is a block diagram showing a configuration example of the exchange 423.
  • FIG. 33 is a block diagram illustrating a configuration example of the high-quality data calculation unit 424.
  • FIG. 34 is a flowchart for explaining the processing executed by the transmission system of FIG.
  • FIG. 35 is a flowchart for explaining the quality improvement data calculation process.
  • FIG. 36 is a block diagram showing still another configuration example of the transmission system to which the present invention is applied.
  • FIG. 37 is a flowchart illustrating the processing performed by the transmission system of FIG.
  • FIG. 38 is a block diagram showing still another configuration example of the transmission system to which the present invention is applied.
  • FIG. 39 is a flowchart illustrating the processing performed by the transmission system of FIG.
  • FIG. 40 is a block diagram showing still another configuration example of the transmission system to which the present invention is applied.
  • FIG. 41 is a block diagram illustrating a configuration example of the home server 501.
  • FIG. 42 is a flowchart for explaining the processing executed by the transmission system of FIG.
  • FIG. 43 is a flowchart for explaining another example of the processing executed by the transmission system in FIG.
  • FIG. 44 is a flowchart illustrating still another example of the processing performed by the transmission system in FIG. 40.
  • FIG. 45 is a diagram showing a configuration example of a computer according to an embodiment of the present invention.
  • FIG. 1 shows one embodiment of a transmission system to which the present invention is applied (a system refers to a logical collection of a plurality of devices, regardless of whether or not the devices of each configuration are in the same housing). The configuration of the embodiment is shown.
  • the base station 1 0 2 1 0 2 2 may be the same base station, or may be filed with different base stations.
  • the mobile phones 101 i and 110 2 are described as the mobile phone 101 unless it is necessary to distinguish them.
  • FIG. 2 shows a configuration example of the mobile phone 101 i of FIG.
  • the mobile phone 1 0 1 2 also is configured in the same manner as the mobile phone 1 0 1 i to be described below, and a description thereof will be omitted.
  • Antenna 1 1 1 receives the radio waves from the base station 1 0 2 i or 1 0 2 2 supplies the Henfuku tone portion 1 1 2, a signal from the modem unit 1 1 2, a radio wave, the base and transmits to station 1 0 2 i or 1 0 2 2.
  • the modulation / demodulation unit 112 demodulates the signal from the antenna 111 by, for example, a CDMA (Code Division Multi-Accels s) method or the like, and outputs the demodulated signal obtained as a result to the reception unit 114 To supply.
  • CDMA Code Division Multi-Accels s
  • the modulation and demodulation unit 112 modulates the transmission data supplied from the transmission unit 113 by, for example, the CDMA system or the like, and supplies the resulting modulated signal to the antenna 111.
  • the transmission unit 113 performs predetermined processing such as encoding the user's voice input thereto, obtains transmission data, and supplies the transmission data to the modulation / demodulation unit 112.
  • the receiver 1 1 4 is a modem 1 1 Receives the received data, which is the demodulated signal from 2, and decodes and outputs high-quality sound.
  • the operation unit 115 is operated by a user when inputting a telephone number of a call destination or a predetermined command, and an operation signal corresponding to the operation is transmitted by the transmission unit 113 and the reception unit 114. Supplied to
  • FIG. 3 shows a configuration example of the transmission section 113 of FIG.
  • the microphone 1 2 1 receives the user's voice, and the microphone 1 2 1 outputs the user's voice to the A / D (Analog / Digital) converter 1 2 2 as an audio signal as an electric signal. . 80
  • the conversion unit 122 converts the analog audio signal from the microphone 121 into digital audio data by A / D conversion, and outputs the digital audio data to the encoding unit 123 and the learning unit 125. .
  • Encoding section 123 encodes the audio data from AZD conversion section 122 by a predetermined encoding method, and outputs the encoded audio data obtained as a result to transmission control section 124.
  • the transmission control unit 124 controls transmission of the encoded voice data output from the encoding unit 123 and the data output from the management unit 127 described later. That is, the transmission control unit 124 selects the encoded voice data output by the encoding unit 123 or the data output by the management unit 127 described later, and as transmission data at a predetermined transmission timing. , And output them to the modulation / demodulation unit 1 1 2 (FIG. 2).
  • the transmission control unit 124 includes, in addition to the encoded voice data and the quality-enhanced data, the telephone number of the transmission destination, which is input by operating the operation unit 115, and the transmission source itself. The telephone number and other necessary information are output as transmission data as necessary.
  • the learning unit 125 uses the learning of the high-quality data to improve the quality of the voice output at the receiving side that receives the encoded voice data output from the coding unit 123, in the past learning. This is performed based on the audio data and the audio data newly input from the A / D converter 122. Learning unit 1 2 5 When the modified data is obtained, the high quality data is supplied to the storage unit 126.
  • the storage unit 126 stores the quality improvement data supplied from the learning unit 125.
  • the management unit 127 manages transmission of the quality-enhanced data stored in the storage unit 126 while referring to the information supplied from the reception unit 114 as necessary.
  • the user's voice input to the microphone 121 is transmitted to the encoding unit 123 and the learning unit 122 via the A / D conversion unit 122. Supplied to 5.
  • the encoding unit 123 encodes the audio data supplied from the AZD conversion unit 122, and outputs the encoded audio data obtained as a result to the transmission control unit 124.
  • the transmission control unit 124 outputs the encoded voice data supplied from the encoding unit 123 as transmission data to the modulation / demodulation unit 112 (FIG. 2).
  • the learning unit 125 learns the high quality data based on the voice data used in the past learning and the voice data newly input from the A / D converter 122.
  • the obtained high quality data is supplied to the storage unit 126 to be stored.
  • the learning unit 125 learns not only the newly input user's voice data but also the voice data used in the past learning to improve the quality of the data. Therefore, the higher the user makes a call, the higher the quality of the encoded data that can be obtained by decoding the encoded voice data of the user into higher quality voice data. .
  • the management unit 127 reads out the quality-enhanced data stored in the storage unit 126 from the storage unit 126 at a predetermined timing, and supplies the data to the transmission control unit 124.
  • the transmission control section 124 outputs the quality-enhanced data output from the management section 127 to the modulation / demodulation section 112 (FIG. 2) as transmission data at a predetermined transmission timing.
  • the transmitting unit 113 transmits high quality data in addition to the coded voice data as voice for a normal call.
  • FIG. 4 shows a configuration example of the receiving section 114 of FIG.
  • the reception control section 13 1 receives the received data. Then, when the received data is encoded voice data, the reception control unit 1331 supplies the encoded voice data to the decoding unit 1332, and when the received data is high-quality data, Then, the high quality data is supplied to the management unit 135.
  • reception data includes the coded voice data and the quality-enhanced data, and, if necessary, the telephone number of the caller and other information. Is supplied to the management unit 135 and the transmission unit 113 (the management unit '127') as necessary.
  • the decoding unit 132 decodes the encoded voice data supplied from the reception control unit 132 using the quality-enhanced data supplied from the management unit 1335, thereby obtaining a high-quality decoded voice.
  • the data is obtained and supplied to a D / A (Digital / Analog) converter 133.
  • the D / A conversion section 133 performs D / A conversion on the digital decoded voice data output from the decoding section 132, and supplies an analog voice signal obtained as a result to the speaker 134.
  • the speaker 134 outputs a sound corresponding to the sound signal from the DZA converter 133.
  • the management unit 135 manages high quality data. That is, the management unit 135 receives the telephone number of the caller from the reception control unit 131 when receiving a call, and based on the telephone number, the storage unit 135 or the default data memory 135 The high-quality data stored in the storage section is selected and supplied to the decoding section 132. Further, the management unit 135 receives the latest high-quality data from the reception control unit 131 and updates the storage content of the storage unit 135 with the latest high-quality data. .
  • the storage unit 136 is composed of, for example, an electrically erasable programmable read-only memory (EEPROM), and the high-quality data supplied from the management unit 135 is stored in the high-quality data. Is stored in association with, for example, the telephone number of the transmission source as specific information for specifying the transmission source of the transmission source.
  • the default data memory 137 is composed of, for example, a ROM (Read-only Memory), and stores default high quality data in advance. 3 008825
  • the receiving control unit 131 when there is an incoming call, the receiving control unit 131 receives the received data supplied thereto, and the telephone number of the transmission source included in the received data. Is supplied to the management unit 135.
  • the management unit 135 receives, for example, the telephone number of the caller from the reception control unit 131 and, when a voice call is enabled, sets the high quality data used for the voice call.
  • the setting process is performed according to the flowchart of FIG.
  • step S141 the management unit 135 searches the storage unit 136 for the telephone number of the caller, and proceeds to step S142. move on.
  • step S 14 2 the management unit 13 5 determines whether or not the caller's telephone number has been found by the search in step S 14 1 (whether or not it is stored in the storage unit 1 36). .
  • step S142 If it is determined in step S142 that the caller's telephone number has been found, the process proceeds to step S143, where the management unit 135 increases the quality stored in the storage unit 135. From the data, the high quality data associated with the telephone number of the caller is selected, supplied to the decryption unit 132, and set, and the high quality data setting process ends. If it is determined in step S142 that the telephone number of the caller was not found, the process proceeds to step S144, where the management unit 135 receives the default data from the default data memory 133. The high-quality data (hereinafter, appropriately referred to as default data) is read out, supplied to the decoding unit 132, and set, and the high-quality data setting process ends.
  • default data hereinafter, appropriately referred to as default data
  • the telephone number of the caller when the telephone number of the caller is found, that is, when the telephone number of the caller is stored in the storage unit 1336, the telephone number of the caller is By operating the operation unit S 1 and the operation unit 1 15 (FIG. 2), which set the high-quality data associated with the data into the decoding unit 13 2, the telephone number of the caller was found. Even in this case, it is possible to control the management unit 135 so that the default data is set in the decoding unit 132.
  • the reception control is performed.
  • the coded voice data is transmitted from the reception control unit 131 to the decoding unit. Supplied to 1 32.
  • the decoding unit 132 sets the encoded voice data transmitted from the transmission source supplied from the reception control unit 131 in the high-quality data setting process of FIG. 5 performed immediately after the incoming call. It decodes based on the quality-enhanced data that has been transmitted, that is, the quality-enhanced data associated with the telephone number of the caller, and outputs decoded voice data.
  • the decoded voice data is supplied from the decoding unit 132 to the speech power 134 via the DZA conversion unit 133 and output.
  • the reception control section 13 1 when receiving the high quality data transmitted from the transmission source as the reception data, the reception control section 13 1 supplies the high quality data to the management section 13 35.
  • the management unit 135 associates the high-quality data supplied from the reception control unit 131 with the telephone number of the transmission source that transmitted the high-quality data, and supplies the data to the storage unit 1336. BD'I ⁇ .
  • the high-quality data stored in the storage unit 135 in association with the telephone number of the transmission source is stored in the learning unit 1 of the transmission unit 113 of the transmission source (FIG. 3). 25, which is obtained by performing learning based on the voice of the source user, and encodes the voice of the source user as encoded high-quality decoded voice data. Is decrypted.
  • the decoding unit 132 of the receiving unit 114 the encoded voice data transmitted from the source is decoded based on the high quality data associated with the telephone number of the source. Therefore, decoding processing (decoding processing different for each voice characteristic of the user who uttered the voice corresponding to the coded voice data) is performed on the coded voice data transmitted from the transmission source. High quality decoded speech data can be obtained.
  • the decoding unit 13 In order to obtain high-quality decoded voice data by performing a decoding process suitable for the coded voice data transmitted from the source, the decoding unit 13 The high level learned by the learning unit 1 2 5 of the transmitting unit 1 1 3 (Fig. 3) It is necessary to perform processing using the quality data, and for that purpose, the high-quality encoded data must be stored in the storage unit 1336 in association with the telephone number of the caller .
  • the transmitting unit 113 (Fig. 3) of the transmission source (transmission side) performs the high quality data transmission process of transmitting the latest high quality data obtained by learning to the receiving side (reception side). Then, the receiving unit 114 on the called side updates the contents stored in the storage unit 136 with the quality-enhanced data transmitted by performing the quality-enhancing data transmission process at the transmission source. Quality data update processing is performed.
  • FIG. 6 is a flowchart showing the first embodiment of the quality improvement data transmission process.
  • a source in the mobile phone 1 0 1 i when the user operation unit 1 1 5 (Fig. 2) by operation inputs cellular phone 1 0 1 2 phone number as the called party, the transmitter 1 At 13, the high quality data transmission process is started.
  • step S1 the transmission control unit 124 of the transmission unit 113 (FIG. 3) operates the operation unit 115.
  • step S 2 the transmission control unit 1 2 4 establishes a communication link with the cellular phone 1 0 1 2 at the incoming side, the process proceeds to step S 3.
  • step S3 the management unit 127 sends the update information indicating the status of the update of the quality-enhanced data stored in the storage unit 126 to the transmission control unit 124, 24 selects and outputs the update information as transmission data, and proceeds to step S4.
  • the learning unit 125 learns and obtains new high-quality data, for example, the date and time (including the year and month) when the high-quality data is obtained is indicated by the high-quality data.
  • the date and time associated with the high-quality data can be used as the update information.
  • Mobile phone 1 0 1 2 at the receive side receives the update information from the mobile phone 1 0 1 source, as described later, if the most recent high-quality data is required, the transfer request for requesting the transmission since coming sends, in step S 4, the management unit 1 2 7, a transfer request to determine whether transmitted from the cellular phone 1 0 1 2 at the incoming side.
  • step S4 when it is determined that the transfer request has not been transmitted, that is, the reception control unit 131 of the reception unit 114 of the mobile phone 101 receives the reception data of the reception side as reception data. If the transfer request from the cellular phone 1 0 1 2 is not received, the step S 5 is skipped, and the flow proceeds to step S 6.
  • step S4 when it is determined that the transfer request has been transmitted, that is, in the reception control unit 1331 of the reception unit 114 of the mobile phone 101, the reception control transfer request from the cellular phone 1 0 1 2 is received, the transfer request, when it is supplied to the management unit 1 2 7 of the transmitter 1 1 3, the process proceeds to step S 5, the management unit 1 2 7 stores The latest high-quality data is read from the unit 126 and supplied to the transmission control unit 124. Further, in step S5, the transmission control unit 124 selects the latest high quality data from the management unit 127 and transmits it as transmission data. The high-quality data is transmitted at the time when the high-quality data is obtained by learning, that is, together with the update information.
  • step S 5 the management unit 1 2 7, ready notification determines if sent from the called party of the cellular telephone 1 0 1 2.
  • the portable telephone 1 0 1 2 at the receive side when normal voice communication becomes ready, adapted to transmit the preparation completion notification indicating that preparations for voice communication is completed, in step S 6 such preparation completion notification, is transmitted from the mobile phone 1 0 1 2 It is determined whether or not it has been received.
  • step S6 If it is determined in step S6 that the preparation completion notification has not been transmitted, that is, the reception control unit 131 of the reception unit 114 of the mobile phone 101i receives the call reception data as reception data. If preparation completion notification from the mobile phone 1 0 1 2 side is not received, the process returns to step S 6, and waits until the preparation completion notification is transmitted.
  • step S6 when it is determined that the preparation completion notification has been transmitted, that is, in the reception control section 13 1 of the reception section 114 of the mobile phone 10, the reception side mobile phone 1 0 1 2 preparation completion notice from the is received, the ready notification, if it is supplied to the management unit 1 2 7 of the transmitter 1 1 3, the process proceeds to step S 7, the transmission control unit 1 2 4 By selecting the output of the encoding unit 123, a state in which voice communication is possible, that is, the encoded audio data output by the encoding unit 123 is selected as transmission data, and The quality data transmission process ends. .
  • the quality of the data transmission processing of FIG. 6 when the quality of the data transmission processing of FIG. 6 is performed in the cellular phone 1 0 1 the calling, high that by the cellular phone 1 0 1 2 at the incoming side
  • the quality data updating process will be described.
  • the receiving unit 1 1 4 (Fig. 4), high-quality data updating process is started.
  • step S11 the reception control unit 1311 determines whether or not the user operates the operation unit 115 to put the user in the off-hook state. If it is determined that it is not in the off-hook state, the process returns to step S11.
  • step S 1 when it is determined that the off-hook state, the process proceeds to Step S 1 2, the reception control unit 1 3 1 establishes a communication link with the mobile phone 1 0 1 1 of the originating, Proceed to step S13.
  • step S13 as described in step S3 of FIG. 6, since the update information is transmitted from the mobile phone 101 on the transmitting side, the reception control unit 131 transmits the update information.
  • the received data including the received data is supplied to the management unit 135.
  • the management unit 135 refers to the update information received from the mobile phone 101i on the calling side, and stores the user of the mobile phone 101 on the calling side in the storage unit 136. It is determined whether the latest quality-enhancing data for is stored. In other words, in the communication in the transmission system of FIG.
  • the mobile phone 101 (or 101 2 ) on the calling side receives a call from the mobile phone 101 2 (or 101 J) on the receiving side
  • the telephone number of the mobile phone 101 i is transmitted, and this telephone number is received as reception data by the reception control unit 131 and supplied to the management unit 135.
  • the management unit 135 determines whether or not the high-quality data associated with the telephone number of the mobile phone 1 1, which is the calling side, has already been stored in the storage unit 136. Further, if the stored quality-enhancing data is stored, it is checked whether or not the stored high-quality data is the latest one, thereby performing the determination processing in step S14.
  • step S14 when it is determined that the latest high-quality data for the user of the mobile phone 101i on the calling side is stored in the storage unit 1336, 36 stores the quality-enhancing data associated with the telephone number of the originating mobile phone 101, and stores the date and time indicated by the update information associated with the quality-enhancing data. If it matches the date and time represented by the update information received in step S13, the storage unit 1336 stores the quality-enhanced data associated with the telephone number of the originating mobile phone 101. Since there is no need to update, skip steps S15 to S18 and go to step S19.
  • the mobile phone 101 i on the calling side transmits the quality-enhanced data together with the updated information, and the mobile phone 101 i phone 1 0 1 2 management unit 1 3 5, when storing the quality data of the originating side of the mobile phone 1 0 1 i or found in the storage unit 1 3 6, to the quality of data, the high-quality The update information transmitted together with the encrypted data is stored in association with the updated information.
  • the update information associated with the quality-enhanced data stored in the storage unit 1336 is received in step S13. By comparing the received update information with the received update information, it is determined whether or not the high-quality data stored in the storage unit 1336 is the latest one.
  • step S 14 if it is determined in step S 14 that the storage unit 1336 does not store the latest high-quality data for the user of the mobile phone 101 on the calling side, 36, the quality-enhancing data associated with the telephone number of the originating mobile phone 10 is not stored, or even if it is stored, it is associated with the quality-enhancing data. If the S time indicated by the update information is earlier (older) than the date and time indicated by the update information received in step S 13, the process proceeds to step S 15, and the management unit 13 5 It is determined whether or not updating to the high-quality data is prohibited.
  • the user can set the management unit 135 so as not to update the high-quality data. Performs the determination processing in step S15 based on the setting as to whether or not to update the high quality data.
  • step S15 when it is determined that updating to the latest high-quality data is prohibited, that is, the management unit 135 is set not to update the high-quality data. In this case, steps S 16 to S 18 are skipped, and the process proceeds to step S 19.
  • step S15 If it is determined in step S15 that the update to the latest high-quality data is not prohibited, that is, the management unit 135 is set so as not to update the high-quality data. If not, the process proceeds to step S16, and the management unit 1335 sends a transmission request to the transmission source mobile phone 101i to request transmission of the latest high-quality data. This is supplied to the transmission control section 124 of FIG. Thereby, the transmission control section 124 of the transmission section 113 transmits the transfer request as transmission data. As described in steps S4 and S5 in FIG. 6, the mobile phone 101i, which has received the transfer request, transmits the latest high-quality data together with the updated information.
  • the control unit 131 in step S17, The received data including the quality data and the update information is received and supplied to the management unit 135.
  • the management unit 135 transmits the latest high-quality data obtained in step S 17 to the telephone number of the calling mobile phone 101 i received at the time of the incoming call, and furthermore,
  • the storage unit 1336 is updated by storing it in the storage unit 1336 in association with the update information transmitted together with the high-quality data.
  • the management unit 135 determines in step S17.
  • the latest high-quality data obtained in step 1 the telephone number of the mobile phone 101i on the calling side received at the time of the incoming call, and the update information (update information of the latest high-quality data) are stored in the storage unit 1336.
  • the management unit 135 stores high-quality data (out-of-date high-quality data) associated with the telephone number of the mobile phone 101 i on the calling side, and is stored in the storage unit 135.
  • high-quality data out-of-date high-quality data
  • the latest quality-enhancing data obtained in step S17, The received telephone number of the calling side mobile phone 101 and the updated information are stored (overwritten) in the storage unit 136.
  • step S 19 the management unit 13 5 controls the transmission control unit 124 of the transmission unit 113 to send a preparation completion notification indicating that the preparation for the voice call is completed, Transmission is performed as transmission data, and the process proceeds to step S20.
  • step S20 the reception control unit 1331 outputs the encoded voice data included in the reception data supplied thereto to the decoding unit 132, and the voice communication is enabled.
  • the quality data updating process ends.
  • FIG. 8 is a flowchart showing a second embodiment of the high quality data transmission process.
  • the transmission unit 113 starts the high quality data transmission process. That is, in the high-quality data transmission process, first, in step S31, the transmission control unit 124 of the transmission unit 113 (FIG. 3) receives an input by operating the operation unit 115. the mobile phone 10 1 2 telephone number, by the output child as transmission data, the call to the mobile phone 1 0 1 2 is carried out.
  • step S 32 the transmission controller 1 24 establishes a communication link between the terminating side of the mobile phone 1 0 1 2, the process proceeds to step S 1 3.
  • step S33 the management unit 127 reads out the latest high quality data from the storage unit 126 and supplies it to the transmission control unit 124. Further, in step S33, the transmission control section 124 selects the latest high-quality data from the management section 127 and transmits it as transmission data. As described above, the high quality data is transmitted together with the update information indicating the date and time when the high quality data was obtained by learning.
  • step S 3 3 the process proceeds from step S 3 3 to S 34, whether the management unit 1 2 7, as in step S 6 in FIG. 6, preparation completion notification has been transmitted from the mobile phone 1 0 1 2 at the incoming side If it is determined that the preparation completion notification has not been transmitted, the process returns to step S34 and waits until the preparation completion notification has been transmitted. Then, in step S34, when it is determined that the preparation completion notification has been transmitted, the process proceeds to step S35, and the transmission control unit 124 performs the voice call in the same manner as in step S7 in FIG. When it becomes possible, the high quality data transmission process ends.
  • step S41 the reception control section 13 1 allows the user to operate the operation section 115. Then, it is determined whether or not an off-hook state has been established. If it is determined that an off-hook state has not been established, the process returns to step S41.
  • step S41 when it is determined that the hooking state is set to the off-hook state, the process proceeds to step S42, and the communication link is established as in step S12 in FIG. 7, and the process proceeds to step S43. move on.
  • step S43 the reception control unit 131 receives the reception data including the latest high-quality data transmitted from the mobile phone 101i on the calling side and supplies the reception data to the management unit 135. I do.
  • step S33 the mobile phone 101i transmits the latest high quality data along with the update information.
  • step S43 the high quality data and the update information are received.
  • step S44 the management unit 1335 refers to the update information received from the calling mobile phone 101 in the same manner as in step S14 of FIG. It is determined whether or not the storage unit 136 stores the latest high-quality data of the user of the mobile phone 101 on the calling side.
  • step S44 If it is determined in step S44 that the storage unit 136 stores the latest high-quality data of the user of the mobile phone 101i on the calling side, the process proceeds to step S44. Proceeding to 5, the management unit 13 5 discards the high quality data and the update information received in step S43, and proceeds to step S47.
  • step S44 If it is determined in step S44 that the storage unit 1336 does not store the latest quality-enhancing data for the user of the calling-side mobile phone 1011, the process proceeds to step S46. Then, the management unit 1 35 receives the latest high-quality data obtained in step S 43 at the time of receiving the incoming call, as in the case of step S 18 in FIG. 0 1 i The telephone number of i, and the updated information transmitted with the high-quality data are stored in the storage unit 1336 in association with the updated information, thereby updating the storage contents of the storage unit 1336. I do.
  • step S 47 the management unit 1 3 5 transmits the transmission control unit of the transmission unit 1 13.
  • step S48 the flow proceeds to step S48.
  • step S48 the reception control section 1331 outputs the coded voice data included in the received data supplied thereto to the decoding section 132, and enters a state where voice communication is possible.
  • the quality data updating process ends.
  • FIG. 10 is a flowchart showing a third embodiment of the high quality data transmission process.
  • the operation unit 1 1 5 (Fig. 2) by operation inputs cellular phone 1 0 1 2 phone number as the called party, the transmitter 1
  • step 13 the high-quality data transmission process is started.
  • the management unit 127 is input by operating the operation unit 115. Search for transmission history of high-quality data to the portable telephone 1 0 1 2 corresponding to the telephone number.
  • the management unit 127 when transmitting the high quality data to the receiving side in step S58 described later, as a transmission history of the high quality data.
  • the telephone number of the called party and the updated information of the transmitted high quality data are stored in a built-in memory (not shown).
  • step S52 such transmission history is stored. From the list, the one in which the telephone number of the called party entered by operating the operation unit 1 15 is described.
  • step S52 the management unit 127 determines whether the latest high-quality data has already been transmitted to the called side based on the search result in step S51. I do.
  • step S52 when it is determined that the latest quality-enhancing data has not been transmitted to the called side, that is, the telephone number of the called side is described in the transmission history. If there is no update, or if there is such a transmission history, but the update information described in the transmission history does not match the update information of the latest high-quality data, step S53 Then, the management unit 127 sets the transfer flag indicating whether or not the latest high-quality data should be transmitted to the on state, and proceeds to step S55. Also, in step S52, when it is determined that the latest high-quality data has already been transmitted to the called side, that is, the telephone number of the called side is described in the transmission history. If the update information described in the transmission history matches the latest update information, the process proceeds to step S54, and the management unit 127 sets the transfer flag to the off state, and proceeds to step S54. Go to 5 5.
  • step S 5 the mobile phone 1 0 1 2 phone number is a transmission control unit 1 2 4 force operation unit 1 1 5 is more input to be operated terminating side, it outputs the transmission data the call of the mobile phone 1 0 1 2 is carried out.
  • step S 5 6 the transmission control unit 1 2 4 establishes a communication link between the terminating side of the mobile phone 1 0 1 2, the process proceeds to step S 5 7.
  • step S57 the management unit 127 determines whether the transfer flag is on, and determines that the transfer flag is not on, that is, the transfer flag is off. Skip step S58 and go to step S59.
  • step S57 If it is determined in step S57 that the transfer flag is in the ON state, the process proceeds to step S58, where the management unit 127 reads the latest high-quality data from the storage unit 126. And the update information are read and supplied to the transmission control section 124. Further, in step S58, the transmission control section 124 selects the latest high-quality data and update information from the management section 127, and transmits them as transmission data. Further, in step S 5 8, the management unit 1 2 7, the mobile phone 1 0 1 2 telephone number that sent the latest high-quality data (called party telephone number), the update information, as the transmission history Remember, Proceed to step S5-9.
  • step S 5 9 the management unit 1 2 7, when the same way in step S 6 in FIG. 6, ready notification, to determine whether transmitted from the cellular phone 1 0 1 2 at the incoming side If it is determined that no preparation has been transmitted, the process returns to step S59 and waits until a preparation completion notification is transmitted.
  • step S59 when it is determined that the preparation completion notification has been transmitted, the process proceeds to step S60, where the transmission control unit 124 is in a state where a voice call can be made, and the high-quality data The transmission processing ends.
  • the receiving unit 1 1 4 (Fig. 4), high-quality data updating process is started.
  • step S71 it is determined whether or not the reception control unit 13 1 has been put into the off-hook state by operating the operation unit 1 15 When it is determined that the state is not the off-hook state, the process returns to step S71.
  • step S71 If it is determined in step S71 that the mobile phone has been set to the off-hook state, the process proceeds to step S72, and the reception control unit 131 establishes a communication link with the mobile phone 101i on the calling side. Proceed to step S73.
  • step S73 the reception control section 13 1 determines whether or not the high-quality data has been transmitted, and if it is determined that the data has not been transmitted, skips steps S74 and S75. Then, proceed to Step S76.
  • step S73 If it is determined in step S73 that the quality-enhancing data has been transmitted, that is, in step S58 of FIG. 10, the latest quality-enhancing data is transmitted from the calling mobile phone 101. If the update information is transmitted, the process proceeds to step S74, where the reception control unit 13 1 includes the latest high-quality data and the update information. The received data is received and supplied to the management unit 135.
  • step S75 the management unit 135 receives the latest high-quality data obtained in step S74 in the same manner as in step S18 in FIG.
  • the telephone number of the mobile phone 101 i and the update information transmitted together with the high-quality data are stored in the storage unit 1336 in association with the updated information. Update the content.
  • step S76 the management unit 135 controls the transmission control unit 124 of the transmission unit 113 to send a preparation completion notification indicating that the preparation for the voice call is completed. Transmission is performed as transmission data, and the process proceeds to step S77.
  • step S77 the reception control section 13 1 enters a state in which a voice call is possible, and ends the high quality data update processing.
  • the high quality data transmission process or the high quality data update process described with reference to FIGS. 6 to 11 is performed at the time of calling or receiving a call.
  • the data update process can be performed at any other timing.
  • Fig. 12 shows the mobile phone 101 as the transmitting side, for example, after the latest high quality data has been obtained by learning, the high quality performed by the transmission unit 113 (Fig. 3).
  • 5 is a flowchart showing a process of transmitting encrypted data.
  • step S81 the management unit 127 issues, as an e-mail message, the latest high-quality data stored in the storage unit 126 and its update information, and its own telephone number. And proceed to step S82.
  • step S82 the management unit 127 issues an e-mail in which the latest high-quality data, its update information, and its own telephone number are arranged as a message (hereinafter referred to as high-quality data transmission e-mail as appropriate).
  • high-quality data transmission e-mail As the subject (subject) of, place a message that indicates that the e-mail contains the latest high-quality data. That is, the management unit 127 places, for example, an “update notification” in the subject of the high-quality data transmission e-mail.
  • step S83 the management unit 127 sets the destination mail address in the high quality data transmission e-mail.
  • the e-mail address to which the e-mail for high-quality data transmission is sent for example, the e-mail address of a partner who has exchanged e-mails in the past is stored, and the e-mail address is stored. All or all of the mail addresses specified by the user can be placed.
  • step S84 the management unit 127 supplies the high-quality data transmission e-mail to the transmission control unit 124 and causes the transmission control unit 124 to transmit it as transmission data. To end.
  • the e-mail for transmitting the quality-enhanced data transmitted as described above is received by the e-mail address terminal located at the destination of the e-mail for the quality-enhanced data transmission via the predetermined server. become.
  • the mobile phone 1 0 1 2 at the incoming side for example, and an arbitrary timing in response to an instruction from a user, for a given mail server receives the e-mail is requested, this request is made, received In the section 1 14 (FIG. 4), the high quality data updating process is started.
  • step S91 the e-mail transmitted from the mail server in response to the e-mail reception request described above is received as reception data by the reception control unit 131, and is managed. Supplied to parts 135.
  • step S92 the management unit 135 checks whether the subject of the e-mail supplied from the reception control unit 131 is an "update notification" indicating that the subject includes the latest high-quality data. If it is determined that it is not the “update notification”, that is, if the e-mail is not the e-mail for transmitting the high-quality data, the high-quality data updating process ends. 08825
  • step S92 if it is determined that the subject of the e-mail is an "update notification", that is, if the e-mail is an e-mail for transmitting high-quality data, step S93 Then, the management unit 13 5 obtains the latest high-quality data, update information, and the telephone number of the caller, which are arranged as a message of the high-quality data transmission e-mail, and proceeds to step S 94. Proceed to.
  • step S94 the management unit 1335 refers to the update information acquired from the high-quality data transmission e-mail and the telephone number of the caller in the same manner as in step S14 of FIG. It is determined whether or not the storage unit 136 stores the latest quality-enhancing data for the user of the mobile phone 101 on the calling side.
  • step S94 If it is determined in step S94 that the storage unit 1336 has stored the latest quality-enhancing data for the user of the mobile phone 101 on the calling side, the process proceeds to step S95.
  • the management unit 135 discards the upgraded data, the update information, and the telephone number acquired in step S93, and ends the upgraded data update process.
  • step S94 If it is determined in step S94 that the storage unit 1336 does not store the latest high-quality data for the user of the mobile phone 101i on the calling side, the process proceeds to step S96. Then, the management unit 13 5, as in the case of step S 18 in FIG. 7, updates the quality-enhanced data acquired in step S 93, the update information, and the telephone of the calling side mobile phone 101. By storing the number in the storage unit 136, the storage content of the storage unit 136 is updated, and the high-quality data update process ends.
  • FIG. 14 shows an example of the configuration of the learning section 125 in the transmitting section 113 of FIG.
  • the learning section 125 learns tap coefficients used for the classification adaptive processing proposed earlier by the present applicant as high-quality data.
  • the class classification adaptive processing includes a class classification processing and an adaptive processing.
  • the class classification processing classifies data based on its properties, and performs an adaptive processing for each class.
  • the adaptive processing will be described by taking as an example a case where low-quality sound (hereinafter, appropriately referred to as low-quality sound) is converted into high-quality sound (hereinafter, appropriately referred to as high-quality sound).
  • a low-quality sound sample as appropriate
  • a predetermined tap coefficient By obtaining the predicted value of the voice sample of the voice, a voice with high quality of the low quality voice can be obtained.
  • the predicted value E [y] of y is defined as a set of several low-quality sound samples (voice samples that constitute low-quality sound) X l , X 2 ,. , A predetermined tap coefficient w or w 2) ⁇ ⁇ ⁇ ⁇ is determined by a linear combination model defined by a linear combination of.
  • the predicted value E [y] can be expressed by the following equation.
  • Equation (1) a matrix W consisting of a set of tap coefficients, a matrix X consisting of a set of student data X ij, and a matrix consisting of a set of predicted values E [ yj ] Y ', [number 1]
  • the component of the matrix X is the j-th student data in the i-th set of student data (the set of student data used to predict the i-th teacher data y).
  • the component of the matrix W represents a tap coefficient by which a product with the j-th student data in the set of student data is calculated.
  • Y i represents the i-th teacher data, and thus E [y J represents the predicted value of the i-th teacher data. Note that y on the left side of the equation (1) is the one obtained by omitting the suffix i of the component y i of the matrix Y.
  • X 2 on the right side of (1) is also the matrix X with the suffix i of the component X ij omitted.
  • the matrix E consisting of the set of e (the error with respect to the true value y)
  • the tap coefficient W j for finding the predicted value E [y] close to the high-quality sound sample y is the square error
  • equation (7) Note that the normal equation shown in equation (7) is a matrix (covariance matrix) A and vector V,
  • Equation (7) the student data Xi; and the teacher data yi are prepared in a certain number of sets, so that the same number as the number j of tap coefficients W j to be obtained can be obtained. Therefore, solving equation (8) with respect to the vector W (however, in order to solve equation (8), the matrix A in equation (8) needs to be non-singular), the optimal tap The coefficient can be determined.
  • a sweeping method Gauss-Jordan elimination method
  • the adaptive processing is different from mere interpolation in that components included in high-quality sound are not included in low-quality sound, but are included in high-quality sound. That is, in the adaptive processing, as far as only Equation (1) is seen, the force looks the same as mere interpolation using a so-called interpolation filter.
  • the tap coefficient w corresponding to the tap coefficient of the interpolation filter is calculated using the teacher data y. Since it is determined by learning, it is possible to reproduce the components included in high-quality sound. From this, it can be said that the adaptive processing is a processing having a sound creation effect.
  • the prediction value of the high-quality sound is linearly predicted.
  • the prediction value can be predicted by two or more equations.
  • the learning unit 125 in FIG. 4 learns tap coefficients used in the above-described classification adaptive processing as high quality data.
  • the audio data output from the octave conversion unit 122 (FIG. 3) is supplied to the buffer 1441 as learning data, and the buffer 141 stores the audio data.
  • the voice data is temporarily stored as teacher data serving as a learning teacher. 08825
  • the student data generation unit 142 generates student data to be a learning student from the voice data as teacher data stored in the buffer 144.
  • the student data generation unit 142 includes an encoder 144E and a decoder 144D.
  • the encoder 144 E has the same configuration as the encoder 123 of the transmitter 113 (FIG. 3), and transmits the teacher data stored in the buffer 141 to the encoder 123. Then, the encoded audio data is output.
  • the decoder 14 2 D is configured in the same manner as a decoder 16 1 in FIG. 16 described later, and decodes encoded audio data using a decoding method corresponding to the encoding method in the encoding unit 123. The resulting decoded voice data is output as student data.
  • the teacher data is encoded into encoded audio data, and the encoded audio data is decoded to generate student data.
  • student data can be generated by, for example, filtering audio data as teacher data using a low-pass filter or the like, thereby deteriorating the sound quality.
  • an encoding unit 123 can be used.
  • the decoder 144 D the following FIG. Can be used.
  • the student data memory 144 temporarily stores the student data output from the decoder 144D of the student data generator 142.
  • the prediction tap generation unit 144 sequentially converts the audio sample of the teacher data stored in the buffer 144 into attention data, and furthermore, generates some student data as student data used for predicting the attention data.
  • a prediction tap (a tap for obtaining a prediction value of the data of interest) is generated by reading a voice sample from the student data memory 144. The prediction tap is supplied from the prediction tap generation unit 144 to the addition unit 147.
  • the class tap generation unit 144 reads some voice samples as student data used for class classification for classifying the data of interest from the student data memory 144. Then, a class tap (a tap used for class classification) is generated. This class tap is supplied from the class tap generation unit 144 to the class classification unit 144.
  • the audio sample forming the prediction tap or the class tap for example, an audio sample that is temporally closer to the audio sample of the student data corresponding to the audio sample of the teacher data that is the target data is used. Can be used. Also, the same voice sample or different voice samples can be used as the voice samples constituting the prediction tap and the class tap.
  • the class categorizing unit 146 classifies the data of interest based on the class taps from the class tap generating unit 145, and adds the class code corresponding to the resulting class to the adding unit 147. Output.
  • ADRC Adaptive Dynamic
  • Range Coding can be adopted.
  • the audio samples constituting the class tap are ADRC-processed, and the class of the data of interest is determined according to the ADRC code obtained as a result.
  • the audio samples that make up the class tap are requantized to K bits. That is, the minimum value MIN is subtracted from each audio sample constituting the class tap, and the subtracted value is divided (quantized) by DR / 2K. Then, a bit string obtained by arranging the K-bit audio samples constituting the class tap in a predetermined order, which is obtained as described above, is output as an ADRC code.
  • each audio sample constituting the class tap is, after the minimum value MIN is subtracted, the average value of the maximum value MAX and the minimum value MIN. Divided by this Thus, each audio sample is set to 1 bit (2 bits). Then, a bit sequence in which the 1-bit audio samples are arranged in a predetermined order is output as an ADRC code.
  • the class classification unit 1 46 can output the pattern of the level distribution of the audio samples constituting the class taps as it is as the class code. If K bits are assigned to each voice sample, the number of class codes to be output by the classifier 1 4 6 S will be (2 N ) K This is a huge number exponentially proportional to the number K of audio sample bits.
  • the class classification unit 146 performs the class classification after compressing the information amount of the class tap by the above-described ADRC processing, vector quantization, or the like.
  • the adding section 144 reads out the voice sample of the teacher data as the data of interest from the buffer 144, and outputs the student data and the data of interest that constitute the prediction taps from the prediction tap generation section 144.
  • the class supplied from the class classification unit 1 46 is used while adding the teacher data as the target, using the storage contents of the initial component storage unit 1 48 and the user component storage unit 1 49 as necessary. Do it every time.
  • the adding unit 147 uses the prediction tap (student data) for each class corresponding to the class code supplied from the classifying unit 146, and calculates the matrix A of the equation (8). It performs multiplication (x in x im ) of student data and operations equivalent to summation ( ⁇ ), which are the components in.
  • the adding unit 147 also uses the prediction tap (student data) and the attention data (teacher data) for each class corresponding to the class code supplied from the classifying unit 146, and calculates the expression ( An operation equivalent to multiplication (x in yi) of student data and teacher data, which are each component in vector V of 8), and summation ()) is performed.
  • the initial component storage unit 148 is configured by, for example, a ROM, and is obtained by performing learning using speech data of a large number of unspecified speakers prepared in advance as learning data. The components of matrix A and the components of vector V in (8) are stored for each class.
  • the user component storage unit 149 is formed of, for example, an EEPROM.
  • the addition unit 147 stores the components of the matrix A and the components of the vector V in the equation (8) obtained in the previous learning. , Remember for each class.
  • the adding unit 1 47 stores the matrix A in the equation (8) obtained in the previous learning and stored in the user component storage unit 1 49.
  • the components of vector No. V are read out, and for the matrix A or vector V components, teacher data yi and student data X in (x inj ) obtained from newly input voice data are used. (By performing the summation represented by the summation in matrix A, vector V) by adding the corresponding components x in x im or x in y; Make the normal equation shown in).
  • the adding unit 147 forms the normal equation of Expression (8) based not only on the newly input voice data but also on the voice data used in the past learning.
  • the user component storage unit 149 When learning is performed for the first time in the learning unit 125, or when learning is performed immediately after the user component storage unit 149 is cleared, the user component storage unit 149 is used. Does not store the components of matrix A and vector V found in the previous learning, so that the normal equation in Eq. (8) can be established using only the speech data input by the user. become.
  • the initial component storage unit 148 stores an unspecified number of The components of the matrix A and the components of the vector V in Eq. (8), which were obtained by learning the speech data of a sufficient number of speakers as learning data, are stored for each class.
  • the learning unit 125 includes the components of the matrix A and the vector V stored in the initial component storage unit 148, and the components of the matrix A and the vector V obtained from the input voice data.
  • the adding section 147 is stored in the components of the matrix A and the vector V obtained from the newly input voice data and the user component storage section 149 (or the initial component storage section 148). When the components of matrix A and vector V for each class are newly obtained using the components of matrix A and vector V, these components are stored in the user component storage unit.
  • the adding unit 147 converts the normal equation of Expression (8) composed of the newly obtained matrix A and vector V components for each class into a tap coefficient determining unit.
  • the tap coefficient determination unit 150 determines the tap coefficient for each class by solving the normal equation for each class supplied from the adding unit 147, and calculates the tap coefficient for each class as The data is supplied to the storage section 126 together with the updated information as quality data, and is stored in an overwritten form.
  • utterances made by the user during a call or utterances made at an arbitrary timing are supplied from a 0 conversion unit 122 (FIG. 3) to a buffer 1441, and a buffer 1441 The voice data supplied thereto is stored.
  • the learning unit 125 stores the voice data stored in the buffer 141 during a call, or the voice data stored in the buffer 141 from the start to the end of a series of utterances.
  • the learning process is started with the input voice data as newly input voice data.
  • the student data generating unit 1 4 in step S 1 0 1, the audio data stored in the buffer 1 4 1 as teacher data to generate the teacher data or al student data, student data
  • the data is supplied to the memory 14 and stored therein, and the process proceeds to step S102.
  • step S102 the prediction tap generating unit 144 selects one of the audio samples stored as the teacher data in the teacher data 1411, which has not yet been set as the attention data, as the attention data. By reading some of the voice samples as student data stored in the student data memory 144 for the target data, a prediction tap is generated and supplied to the adding unit 147.
  • step S102 a class tap is generated for the target data in the same manner as in the case of the class tap generation unit 144, the force S and the prediction tap generation unit 144. Supply to 6.
  • step S102 the process proceeds to step S103, in which the classification is performed based on the class taps from the class tap generation unit 144, and the result is obtained.
  • the class code is supplied to the adder 1 4 7.
  • step S 104 the adding unit 147 reads out the data of interest from the buffer 144, and uses the data of interest and the prediction tap from the prediction tap generation unit 144, Compute the components of matrix A and vector V.
  • the adding unit 147 performs the processing for the matrix A and the component of the vector V stored in the user component storage unit 149 corresponding to the class code corresponding to the class code from the class classification unit 146. Then, add the components of the matrix A and the solid V obtained from the target data and the prediction tap, and proceed to step S105.
  • step S105 the prediction tap generation unit 144 outputs the It is determined whether or not there is teacher data which is not set as the attention data. If it is determined that the teacher data exists, the process returns to step S102, and the teacher data which has not yet been set as the attention data is newly set as the attention data. Hereinafter, the same processing is repeated.
  • step S105 if it is determined that there is no teacher data which is not the attention data in the buffer 144, the adding unit 147 stores the teacher data in the user component storage unit 149.
  • the stored normal equation of equation (8) composed of the components of the matrix A and the vector V for each class is supplied to the tap coefficient determination unit 150, and the process proceeds to step S106.
  • step S106 the tap coefficient determination unit 150 solves a normal equation for each class supplied from the adding unit 147 force, thereby obtaining a tap coefficient for each class. Further, in step S106, the tap coefficient determination unit 150 supplies the tap coefficient for each class together with the update information to the storage unit 126, stores the overwritten form, and ends the learning process. I do.
  • the learning process is not performed in real time, but may be performed in real time if the hardware has sufficient performance.
  • the learning unit 125 performs the learning process based on the newly input voice data and the voice data used in the past learning at the time of a call or any other timing.
  • a tap coefficient that can decode the encoded voice data into a voice closer to the user's voice is obtained. Therefore, by decoding the coded voice data using such tap coefficients on the other party's side, processing suitable for the characteristics of the user's voice is performed, and the decoded voice with sufficiently improved sound quality is obtained. Data can be obtained, and when the user uses the mobile phone 101, the other party can output higher quality voice.
  • the learning section 1 25 of the transmission section 1 13 (FIG. 3) is configured as shown in FIG. 14, since the high quality data is a tap coefficient, the reception section 1 1 4 The tap coefficient is stored in the storage unit 1336 of (FIG. 4). In this case, the receiver 1 1 4 In the default data memory 1337, for example, tap coefficients for each class obtained by solving a normal equation using the components stored in the initial component storage unit 148 of FIG. 14 are stored as default data. You.
  • FIG. 16 shows a decoding unit of the receiving unit 114 (FIG. 4) when the learning unit 125 of the transmitting unit 113 (FIG. 3) is configured as shown in FIG.
  • An example of the configuration of 132 is shown.
  • the decoder 161 is supplied with the coded audio data output from the reception control unit 13 1 (FIG. 4), and the decoder 161 transmits the coded audio data to the transmission unit 1
  • Decoding is performed by a decoding method corresponding to the encoding method in the encoding unit 13 in FIG. 3 (FIG. 3), and the resulting decoded audio data is output to the buffer 162.
  • the buffer 162 temporarily stores the decoded audio data output from the decoder 161.
  • the prediction tap generator 163 sequentially obtains the sound quality improvement data obtained by improving the sound quality of the decoded audio data as the attention data, and obtains the prediction value of the attention data by the linear primary prediction calculation of Equation (1).
  • the prediction tap used for the prediction is composed (generated) of some audio samples of the decoded audio data stored in the buffer 162 and supplied to the prediction unit 1667.
  • the prediction tap generation unit 163 generates the same prediction tap as the prediction tap generation unit 144 generates in the learning unit 125 of FIG.
  • the class tap generating unit 164 configures (generates) a class tap for the data of interest based on some audio samples of the decoded audio data stored in the buffer 162, and generates a class classifying unit 165. To supply.
  • the class tap generation unit 164 generates the same class tap as that generated by the class tap generation unit 145 in the learning unit 125 in FIG.
  • the class classifier 165 uses the class taps from the class tap generator 1664 to perform the same class classification as the class classifier 1 46 in the learning unit 125 in FIG. 14 and obtains the result.
  • the class code is supplied to the coefficient memory 166.
  • the coefficient memory 1666 stores the tap coefficient for each class as the quality-enhancing data supplied from the management unit 135 at an address corresponding to the class. Further, The coefficient memory 166 supplies the tap coefficient stored in the address corresponding to the class code supplied from the class classification section 165 to the prediction section 167.
  • the prediction unit 167 obtains the prediction tap output from the prediction tap generation unit 163 and the tap coefficient output from the coefficient memory 166, and uses the prediction tap and the tap coefficient to obtain an equation ( The linear prediction operation shown in 1) is performed.
  • the prediction unit 1667 obtains (predicted value of) the sound quality improvement data as the attention data, and supplies it to the 0 / conversion unit 1333 (FIG. 4).
  • the decoder 161 decodes the encoded audio data output from the reception control unit 131 (FIG. 4), and outputs the resulting decoded audio data to the buffer 162 for storage.
  • step S111 the prediction tap generation unit 163, among the sound quality improvement data obtained by improving the sound quality of the decoded voice data, for example, in a time-series order, a sound sample which is not yet regarded as attention data. Is used as the target data, and for the target data, some audio samples of the decoded audio data are read out from the buffer 162 to form a prediction tap, which is supplied to the prediction unit 1667.
  • step S111 by reading out some audio samples from the decoded audio data stored in the class tap generation unit 16 4, the class tap generation unit 16 4 And supplies it to the classifying section 16 5.
  • the class classification unit 165 Upon receiving the class tap from the class tap generation unit 1664, the class classification unit 165 proceeds to step S112, classifies using the class tap, and classifies the resulting class code.
  • the coefficient is supplied to the coefficient memory 166, and the flow advances to step S113.
  • step S113 the coefficient memory 166 reads out the tap coefficients stored in the address corresponding to the class code from the classifying unit 165, and the 6 7 and go to step S114.
  • step S114 the prediction unit 167 obtains the tap coefficient output from the coefficient memory 166, and uses the tap coefficient and the prediction tap from the prediction tap generation unit 163 to obtain an equation.
  • the product-sum operation shown in (1) is performed to obtain (predicted value) sound quality improvement data.
  • the sound quality improvement data obtained as described above is supplied from the prediction section 167 to the speaker 13 4 via the DZA conversion section 13 3 (FIG. 4), whereby the speaker 13 4 Outputs high-quality sound.
  • step S114 the process proceeds to step S115, and it is determined whether or not there is still sound quality improvement data to be processed as the data of interest. Returning to step 1, the same process is repeated. If it is determined in step S115 that there is no sound quality improvement data to be processed as the data of interest, the processing ends.
  • the data associated with the telephone number of No. 1, that is, the data obtained by learning the voice data of the user who owns the mobile phone 101 i as the learning data is used.
  • sound from the mobile phone 1 0 1 transmitted to the mobile phone 1 0 1 2 if the voice of a user of the mobile phone 1 0 1 i, in the portable telephone 1 0 1 2, the mobile phone 1 0
  • By performing decoding using the tap coefficient for user 1, high-quality sound is output.
  • speech sent to the mobile phone 1 0 1 2 from the cellular phone 1 0 1 i is, if not an audio of the portable telephone 1 0 1 users, i.e., not the owner of the cellular phone 1 0 1 i If the user is using the portable telephone 1 0 1 i, in the mobile phone 1 0 1 2, again, because the decoding is performed using the tap coefficients for the user of the mobile phone 1 0 1 i, the decoding The sound obtained by this method does not have improved sound quality as compared with the sound of the true user (owner) of the mobile phone 101.
  • FIG. 18 shows a case where the mobile phone 101 is, for example, of the CELP (Code Excited Liner Prediction coding) system, and the encoding unit 12 constituting the transmission unit 113 (FIG. 3). 3 shows a configuration example.
  • CELP Code Excited Liner Prediction coding
  • the audio data output from the AZD conversion unit 122 (FIG. 3) is supplied to a computing unit 3 and an LPC (Liner Prediction Coefficient) analysis unit 4.
  • LPC Liner Prediction Coefficient
  • the LPC analysis unit 4 performs an LPC analysis of the audio data from the 0 conversion unit 122 (FIG. 3) for each frame using a predetermined audio sample as one frame, and obtains a P-order linear prediction coefficient ⁇ 2) ⁇ ⁇ ⁇ , ⁇ ⁇ .
  • the vector quantization unit 5 stores a code book that associates a code vector with a linear prediction coefficient as an element with a code. Based on the code book, a feature vector from the LPC analysis unit 4 is stored. The vector ⁇ is vector-quantized, and a code obtained as a result of the vector quantization (hereinafter referred to as ⁇ code (A_code) as appropriate) is supplied to the code determination unit 15.
  • A_code a code obtained as a result of the vector quantization
  • the vector quantization unit 5 forms a code vector corresponding to the A code.
  • the linear prediction coefficients ⁇ , ⁇ 2 ′, ... , ⁇ ⁇ ′, which are the elements to be formed, are supplied to the speech synthesis filter 6.
  • the voice signal is synthesized using the residual signal e supplied from the computing unit 14 as an input signal.
  • the LPC analysis performed by the LPC analysis unit 4 includes (sample values of) the audio data s n at the current time n and the past P sample values s adjacent thereto. — Yes s chorus.
  • ⁇ e n ⁇ ( ⁇ ⁇ ⁇ , e n - have e n, e n + 1, ⁇ ⁇ ⁇ ) has an average value of 0, Mu mutually variance of a predetermined value sigma 2 It is a correlated random variable.
  • s n e n — ( x s n _ 1 + a 2 s + ⁇ ⁇ + a P s n _ P
  • the speech synthesis filter 6 uses the linear prediction coefficient ⁇ ′ from the vector quantization unit 5 as a tap coefficient and also uses the residual signal e supplied from the arithmetic unit 14 as an input signal. , Equation (1 2) is calculated, and voice data (synthesized sound data) ss is obtained.
  • the linear prediction coefficient ⁇ as a code vector corresponding to the code obtained as a result of the vector quantization is used instead of the linear prediction coefficient ⁇ ⁇ obtained as a result of the LPC analysis by the LPC analysis unit 4. Since ⁇ ′ is used, the synthesized speech signal output by the speech synthesis filter 6 is not basically the same as the speech data output by the 0 conversion unit 122 (FIG. 3).
  • the synthesized sound data s s output from the voice synthesis filter 6 is supplied to the arithmetic unit 3.
  • the arithmetic unit 3 subtracts the audio data s output from the AZD conversion unit 122 (FIG. 3) from the synthesized sound data ss from the audio synthesis filter 6, and supplies the subtracted value to the square error calculation unit 7.
  • the square error calculator 7 calculates the sum of squares of the subtracted values from the calculator 3 (the sum of squares of the sample values of the k-th frame), and outputs the resulting square error to the square error minimum determiner 8. Supply.
  • the square error minimum judging unit 8 associates the square error output by the square error calculating unit 7 with an L code (L_code) as a code representing a long-term prediction lag, and a G code (G_code) as a code representing a gain. , And codes representing codewords (excitation codebooks) And outputs an L code, a G code, and an I code corresponding to the square error output by the square error calculator 7.
  • L code is supplied to the adaptive codebook storage unit 9, the G code is supplied to the gain decoder 10, and the I code is supplied to the excitation codebook storage unit 11, respectively. Further, the L code, the G code, and the I code are also supplied to a code determination unit 15.
  • the adaptive codebook storage unit 9 stores, for example, an adaptive codebook in which a 7-bit L code is associated with a predetermined delay time (lag), and stores the residual signal e supplied from the arithmetic unit 14. Then, it is delayed by the delay time (long-term prediction lag) associated with the L code supplied from the square error minimum determination unit 8 and output to the computing unit 12.
  • the adaptive codebook storage unit 9 outputs the residual signal e with a delay corresponding to the time corresponding to the L code
  • the output signal is a signal close to a periodic signal whose cycle is the delay time. It becomes.
  • This signal is mainly used as a drive signal for generating a synthesized voiced voice in speech synthesis using linear prediction coefficients. Therefore, the L code conceptually represents the pitch period of the voice.
  • a record takes an integer value in the range of 20 to 146.
  • the gain decoder 10 stores a table in which the G code is associated with a predetermined gain of [3] and ⁇ , and is associated with the G code supplied from the square error minimum determination unit 8. Output gain and ⁇ .
  • the gain and ⁇ are supplied to arithmetic units 12 and 13, respectively.
  • the gain] 3 is what is called the long-term filter state output gain
  • the gain ⁇ is what is called the excitation codebook gain.
  • the excitation codebook storage unit 11 stores an excitation codebook in which, for example, a 9-bit I code is associated with a predetermined excitation signal, and stores the excitation codebook supplied from the square error minimum determination unit 8.
  • the associated excitation signal is output to arithmetic unit 13.
  • the excitation signal stored in the excitation codebook is, for example, a signal close to white noise or the like. Signal.
  • Arithmetic unit 12 multiplies the output signal of adaptive codebook storage unit 9 by the gain output from gain decoder 10, and supplies the multiplied value 1 to arithmetic unit 14.
  • the operation unit 13 multiplies the output signal of the excitation codebook storage unit 11 by the gain ⁇ output by the gain decoder 10 and supplies the multiplication value ⁇ to the operation unit 14.
  • the computing unit 14 adds the multiplication value 1 from the computing unit 12 and the multiplication value ⁇ from the computing unit 13, and uses the sum as the residual signal e as the speech synthesis filter 6 and the adaptive codebook. It is supplied to the
  • the speech synthesis filter 6 as described above, the input signal a residual signal e supplied from the arithmetic unit 1 4, the linear predictive coefficient alpha [rho 'tap coefficients supplied from the vector quantization section 5
  • the synthesized sound data obtained by the filtering by the IIR filter is supplied to the computing unit 3. Then, the same processing as in the above case is performed in the arithmetic unit 3 and the square error calculation unit 7, and the square error obtained as a result is supplied to the square error minimum determination unit 8.
  • the square error minimum determination unit 8 determines whether the square error from the square error calculation unit 7 has become minimum (minimum). When the square error minimum determination unit 8 determines that the square error is not minimized, it outputs an L code, a G code, and an L code corresponding to the square error, as described above. A similar process is repeated. On the other hand, when determining that the square error is minimized, the square error minimum determination unit 8 outputs a determination signal to the code determination unit 15.
  • the code determination unit 15 latches the ⁇ code supplied from the vector quantization unit 5 and sequentially latches the L code, G code, and I code supplied from the minimum square error determination unit 8. When the decision signal is received from the square error minimum judgment section 8, the A code, L code, G code, and I code latched at that time are multiplexed and output as encoded voice data.
  • the encoded audio data has A code, L code, G code, and I code, which are information used for decoding, for each frame unit.
  • [k] is added to each variable, which is an array variable. This k indicates the number of frames, but the description is omitted as appropriate in the specification.
  • FIG. 19 shows a configuration example of the decoding unit 1332 which forms the receiving unit 114 (FIG. 4) in the case of the mobile phone 101-type CELP system.
  • the decoding unit 1332 which forms the receiving unit 114 (FIG. 4) in the case of the mobile phone 101-type CELP system.
  • parts corresponding to those in FIG. 16 are denoted by the same reference numerals.
  • the coded voice data output from the reception control unit 13 1 (FIG. 4) is supplied to a DE MUX (demultiplexer) 21.
  • the DE MU X 21 outputs L code and G code from the coded voice data. , I code, and A code are separated and supplied to an adaptive codebook storage unit 22, a gain decoder 23, an excitation codebook storage unit 24, and a filter coefficient decoder 25.
  • the adaptive codebook storage unit 22, the gain decoder 23, the excitation codebook storage unit 24, and the arithmetic units 26 to 28 are the adaptive codebook storage unit 9, the gain decoder 10, and the excitation code in FIG. It has the same configuration as the book storage unit 11 and the arithmetic units 12 to 14, and performs the same processing as described with reference to FIG. 18 to obtain the L code, G code, and I code.
  • the code is decoded into a residual signal e.
  • the residual signal e is provided to the speech synthesis filter 29 as an input signal.
  • the filter coefficient decoder 25 stores the same codebook as that stored by the vector quantization unit 5 in FIG. 18, and decodes the A code into a linear prediction coefficient ⁇ ⁇ ′, This is supplied to the speech synthesis filter 29.
  • the speech synthesis filter 29 has the same configuration as the speech synthesis filter 6 in FIG. 18.
  • the linear prediction coefficient ⁇ ⁇ ′ from the filter coefficient decoder 25 is used as a tap coefficient, and the arithmetic unit 2 is used.
  • Equation (1 2) is calculated by using the residual signal e supplied from 8 as an input signal, whereby the synthesis when the square error is determined to be the minimum in the square error minimum determination unit 8 in FIG. 18 is performed. Generates sound data and outputs it as decoded sound data.
  • the decoding unit 132 decodes the code into the residual signal and the linear prediction coefficient.
  • the decoded residual signal and the linear prediction coefficient include an error such as a quantization error, Does not match the residual signal obtained by LPC analysis of the user's voice and the linear prediction coefficient.
  • the decoded speech data which is the synthesized speech data output by the speech synthesis filter 29 of the decoding units 13 and 2
  • the decoded speech data is considered to have distortion and the like and deteriorated sound quality with respect to the speech data of the calling user.
  • the decoding unit 132 converts the decoded speech data into sound quality-improved data that is similar to the voice data of the calling user without distortion (reduced distortion) by performing the above-described class classification adaptive processing. It is supposed to.
  • decoded speech data which is synthesized speech data output from the speech synthesis filter 29 is supplied to the buffer 162, and the buffer 162 temporarily stores the decoded speech data.
  • the prediction tap generation unit 163 sequentially sets the sound quality improvement data obtained by improving the sound quality of the decoded audio data as the attention data, and, for the attention data, from the buffer 162, some of the decoded audio data.
  • a prediction tap is formed and supplied to the prediction unit 167.
  • the class tap generating unit 164 reads out some audio samples from the decoded audio data stored in the buffer 162 to form a class tap for the data of interest, and Supply 6 to 5.
  • the class classification unit 1665 performs class classification using the class tap from the class tap generation unit 1664, and supplies the resulting class code to the coefficient memory 1666.
  • the coefficient memory 166 reads out the tap coefficients stored in the address corresponding to the class code from the class classification section 165 and supplies the tap coefficients to the prediction section 167.
  • the prediction unit 1667 calculates the tap coefficient output from the coefficient memory 166 and the prediction coefficient. Using the prediction tap from the tap generation unit 163, the product-sum operation shown in equation (1) is performed to obtain (predicted value) of the sound quality improvement data.
  • the sound quality improvement data obtained as described above is supplied from the prediction section 167 to the speaker 13 4 via the D / A conversion section 13 3 (FIG. 4), whereby the speaker 13 4 outputs high-quality sound.
  • FIG. 20 shows an example of the configuration of the learning section 125 constituting the transmitting section 113 (FIG. 3) in the case of the mobile phone 101-power CELP system.
  • the same reference numerals are given to portions corresponding to the case in FIG. 14, and the description thereof will be appropriately omitted below.
  • Arithmetic unit 183 to code determination unit 195 are configured in the same manner as arithmetic unit 3 to code determination unit 15 in FIG.
  • the speech data output from the octane 0 conversion unit 122 (FIG. 3) is input to the arithmetic unit 183 as learning data.
  • the code determination unit 1995 the same processing as in the encoding unit 123 in FIG. 18 is performed on the learning speech data.
  • the synthesized sound data output by the speech synthesis filter 186 when the square error minimum judgment section 188 judges that the square error is minimized is stored in the student data memory 144 as student data. Supplied.
  • the tap coefficient determination unit 150 Thereafter, in the student data memory 144 to the tap coefficient determination unit 150, the same processing as in FIGS. 14 and 15 is performed, whereby the tap coefficient for each class is converted into high-quality data. Generated.
  • the prediction tap or the class tap is configured from the synthesized sound data output from the speech synthesis filter 29 or 186.
  • the linear predictive coefficients p obtained from the I code, L code, G code, A code, and A code, and the gains ⁇ and ⁇ obtained from the G code, as indicated by the dotted lines in FIG. 19 or FIG. Other information obtained from the L code, G code, I code, or ⁇ code (for example, residual signal e, 1, n for obtaining residual signal e, and 1 ⁇ , ⁇ / gamma) It is possible to configure including the above.
  • FIG. 21 shows another configuration example of the encoding section 123 constituting the transmitting section 113 (FIG. 3).
  • the encoding unit 123 encodes the audio data output from the A / D conversion unit 122 (FIG. 3) by vector quantization. I have.
  • the audio data output from the // 0 conversion unit 122 (FIG. 3) is supplied to the buffer 201, and the buffer 201 temporarily stores the audio data supplied thereto.
  • the vectoring unit 202 reads out the audio data stored in the buffer 201 in a time series, converts a predetermined number of audio samples into one frame, and converts the audio data of each frame into a vector.
  • the vectorization unit 202 can vectorize the audio data by, for example, using each audio sample of one frame as each component of the vector as it is. Also, for example, sound analysis such as LPC analysis is performed on a sound sample that constitutes one frame, and the feature amount of the sound obtained as a result is used as a component of the vector. It is also possible to convert it to a vector. Here, for simplicity of explanation, it is assumed that each audio sample of one frame is directly used as each component of the vector to convert the audio data into a vector.
  • the vectoring unit 202 outputs, to the distance calculating unit 203, a vector in which each audio sample of one frame is directly configured as a component (hereinafter, appropriately referred to as an audio vector).
  • the distance calculation unit 203 calculates the distance between each code vector registered in the codebook stored in the codebook storage unit 204 and the speech vector from the vectorization unit 202. (E.g., Euclidean distance) is calculated, and the distance obtained for each code vector is supplied to the code determination unit 205 together with the code corresponding to the code vector. That is, the codebook storage unit 204 stores a codebook as quality-improved data obtained by learning in the learning unit 125 of FIG. 22 described later, and the distance calculation unit 203 stores the codebook. For each code vector registered in, the distance from the speech vector from the vectorization unit 202 is calculated, and the code corresponding to each code vector is added to the code determination unit 205. Supply.
  • Euclidean distance Euclidean distance
  • the code determination unit 205 detects the shortest of the distances for each code vector supplied from the distance calculation unit 203, and provides a code vector that gives the shortest distance. That is, the code corresponding to the code vector that minimizes the quantization error (vector quantization error) of the speech vector is calculated for the speech vector output by the vectorization unit 202. Determined as the result of vector quantization. Then, the code determination unit 205 outputs the code as a result of the vector quantization to the transmission control unit 124 (FIG. 3) as encoded voice data.
  • FIG. 22 shows an example of the configuration of the learning unit 125 constituting the transmitting unit 113 of FIG. 3 when the encoding unit 123 is configured as shown in FIG. ing.
  • the buffer 2 1 1, and summer as audio data AZ D converting unit 1 2 2 outputs is supplied, the buffer 2 1 1, c solid torr unit that stores audio data supplied thereto 2 1 2 uses the voice data stored in the
  • a speech vector is constructed and supplied to the vector storage unit for user 2 13 in the same manner as in the vector noreich section 202 of FIG.
  • the vector storage for user 2 13 is composed of, for example, EPROM, and sequentially stores the speech vector supplied from the vectorization unit 2 12.
  • the initial vector storage unit 214 includes, for example, an RO IV [and the like, and stores in advance a large number of voice vectors configured using voice data of an unspecified number of users.
  • Codebook generation section 2 1 5 using the initial base-vector storage section 2 1 4 and the user base click preparative le storage unit 2 1 3 the stored audio base-vector Te to base, for example, LBG (Linde, Buzo , Gray) algorithm to generate codebooks, and output the resulting codebooks as high-quality datac
  • LBG Longde, Buzo , Gray
  • the code book as the high-quality data output from the code book generation unit 215 is supplied to the storage unit 126 (FIG. 3) and stored together with update information (date and time when the code book was obtained). At the same time, it is also supplied to the encoding unit 123 (FIG. 21) and is written (overwritten) in the codebook storage unit 204.
  • the user's vector storage unit 2 13 does not store so many voice vectors. In this case, it is possible to generate a code book simply by referring to the vector storage for user 213 in the codebook generation unit 215, but the vector using such a codebook can be generated. Quantization is rather inaccurate (quantization error is large).
  • the codebook generation unit 215 stores the user vector storage unit 213.
  • the initial vector storage unit 2 14 it is possible to prevent the generation of a codepook in which the above-described inaccurate vector quantization is performed. .
  • the codebook generation unit 2 15 refers to the initial vector storage unit 2 14. Instead, it is possible to generate a codebook by referring only to the vector storage unit for user 2 13.
  • utterances made by the user during a call or utterances made at an arbitrary timing are supplied from the octave conversion unit 122 (FIG. 3) to the buffer 211.
  • the buffer 211 stores the audio data supplied thereto.
  • the learning unit 125 sets the voice data stored in the buffer 211 or a series of From the start to the end of the utterance, the learning process is started with the voice data stored in the buffer 211 as newly input voice data.
  • the vectoring unit 211 reads out the audio data stored in the buffer 211 in a time-series manner, sets a predetermined number of audio samples as one frame, and extracts the audio data of each frame. Toll. Then, the vectorization unit 211 supplies the speech vector obtained as a result of the vectorization to the user vector storage unit 212 for additional storage.
  • the codebook generation unit 215 in step S121 sets the user vector storage unit 213 to the initial vector.
  • the vector y that minimizes the sum of the distances from the respective speech vectors stored in the vector storage unit 2 14 is obtained.
  • the codebook generation unit 215 sets the vector y t as a coat vector, and proceeds to step S122.
  • step S123 the codebook generation unit 215 determines that each of the voice vectors x3 ( 3) stored in the user vector storage unit 213 and the initial vector storage unit 214.
  • step S124 the codebook generation unit 215 updates each code vector y] such that the total sum of the distances from each of the speech vectors classified into the code vector yi is minimized. I do.
  • This update can be performed, for example, by finding the center of gravity of a point indicated by zero or more speech vectors classified into the code vector yi .
  • the vector indicating the center of gravity minimizes the sum of the distances from the speech vectors classified as the code vector y ;.
  • the code vector yi is left as it is.
  • step S125 the codebook generating unit 215 determines, for each of the updated code vectors y ;, each of the speech vectors classified into the code vector y; the sum of the distances (hereinafter, Kodobeku torr y; refers to the sum of the distances for) seeking further, all the code base click Honoré y; total sum of the sum of the distance for (hereinafter referred to as the total sum ).
  • the codebook generation unit 2 15 calculates the change in the total sum, that is, the total sum obtained in the current step S 125 (hereinafter, appropriately referred to as the current total sum) and the previous step S 12 It is determined whether or not the absolute value of the difference from the total sum obtained in 5 (hereinafter referred to as the previous total sum as appropriate) is equal to or less than a predetermined threshold.
  • step S125 when it is determined that the absolute value of the difference between the current total sum and the previous total sum is not less than or equal to a predetermined threshold, that is, by updating the code vector yi, the total sum is increased. If it has changed, the process returns to step S123, and the same process is repeated thereafter.
  • step S125 if it is determined that the absolute value of the difference between the current total sum and the previous total sum is equal to or less than a predetermined threshold, that is, even if the code vector yi is updated, If the total sum hardly changes, the process proceeds to step S 126, where the codebook generator 215 sets the variable n representing the total number of currently obtained code vectors to It is determined whether the number is equal to the number of code vectors preset in the codebook (hereinafter referred to as the number of set code vectors as appropriate) N.
  • step S126 If it is determined in step S126 that the variable n is not equal to the set code vector number N, that is, if the number of code vectors yi equal to the set code vector number N has not been obtained, Returning to step S122, the same processing is repeated thereafter.
  • step S126 If it is determined in step S126 that the variable n is equal to the set code vector number N, that is, if a code vector equal to the set code vector number N is obtained, The codebook generation unit 215 outputs the codebook composed of the N number of code vectors yi as high quality data, and ends the learning process.
  • the speech vector input so far is stored in the user vector storage unit 21 and the code book is used by using the speech vector. Is updated (generated), but the codebook is updated without recalling the previously input voice vector, and the input voice vector and the code already obtained.
  • the processing in steps S123 and S124 can be performed in a simplified manner.
  • step S124 the codebook generating unit 215 sets each code vector y so that the total sum of the distances from each of the speech vectors classified into the code vector y; is minimized.
  • this updating can be performed by finding the center of gravity of the points indicated by zero or more speech vectors classified into the code vector yi.
  • Tor yi 'and update The previously input speech vector classified into the previous code vector y ;
  • the code vector yi can be updated, and the updated code vector y ⁇ can be obtained.
  • the initial vector storage unit 214 generates, instead of a large number of speech vectors composed of speech data of an unspecified number of users, a large number of speech vectors. It is necessary to memorize the codebook and the total number of speech vectors classified into each code vector. In the case where learning is performed for the first time in the learning unit 1 25 of FIG. 22 or when learning is performed immediately after the vector storage unit for user 2 13 is cleared, the initial vector is used. The codebook is updated using the codebook stored in the token storage unit 214.
  • the learning processing of FIG. 23 based on the newly input voice data and the voice data used in the past learning is performed as follows. This is performed at the time of a telephone call or at any other timing, so that as the user speaks, a codebook suitable for the user, that is, a codebook that reduces the quantization error for the voice of the user is required. Therefore, by decoding the coded voice data (in this case, vector inverse quantization) using such a codebook on the other party's side, the processing suitable for the characteristics of the user's voice is also achieved. (Inverse quantization process) to obtain decoded speech data with sufficiently improved sound quality compared to the conventional case (using a codebook obtained from the utterances of an unspecified number of speakers). You can do it.
  • FIG. 24 shows a decoding unit of the receiving unit 114 (FIG. 4) when the learning unit 125 of the transmitting unit 113 (FIG. 3) is configured as shown in FIG.
  • An example of the configuration of 132 is shown.
  • the buffer 2 21 temporarily stores the encoded voice data (here, the code as the result of the vector quantization) output from the reception control unit 13 1 (FIG. 4).
  • the vector inverse quantization unit 222 reads out the code stored in the buffer 221, and performs vector inverse quantization by referring to the codebook stored in the codebook storage unit 22. As a result, the code is decoded into a speech vector, and the inverse vectorization unit 2 2 4 To supply.
  • the codebook storage unit 222 stores a codebook supplied by the management unit 135 as high-quality data.
  • the high-quality data is a codebook, so the receiving section 111
  • the codebook is stored in the storage section 1336 of FIG. 4.
  • the default data memory 1337 of the receiving unit 114 was generated using, for example, the speech vector stored in the initial vector storage unit 214 of FIG.
  • the codebook is stored as default data.
  • the inverse vectorization section 222 inversely vectorizes the audio vector output from the vector inverse quantization section 222 into time-series audio data, and outputs the time-series audio data.
  • the buffer 222 sequentially stores codes as coded audio data supplied thereto.
  • step S131 the vector inverse quantization unit 222 reads the oldest temporal code that has not been read yet from the codes stored in the buffer 221, as a code of interest, Vector inverse quantization. That is, the vector inverse quantization unit 222 detects the code vector of the codebook stored in the codebook storage unit 222 to which the code of interest is associated, and detects that code vector. The vector is output to the inverse vectorization unit 224 as a speech vector.
  • step S132 the inverse vectorization section 224 inversely vectorizes the audio vector from the vector inverse quantization section 222, thereby decoding the audio data and outputting the audio data. And proceed to step S 1 3 3.
  • step S133 it is determined whether or not a code that has not been set as the attention code is still stored in the vector inverse quantization unit 222.
  • step S133 the code not considered as the code of interest was added to If it is determined that 1S is still stored, the process returns to step S131, and among the codes stored in the buffer 221, the oldest temporal code that has not been read yet is set as a new code of interest. Hereinafter, the same processing is repeated.
  • step S133 If it is determined in step S133 that a code that is not set as the code of interest is not stored in the buffer 221, the process ends.
  • parameters relating to the transmission form such as the modulation scheme / bit rate, coding It may be a parameter related to a coding structure such as a method, or a parameter related to creation such as a class structure or a prediction structure.
  • the generated and used high-quality data is stored in the storage unit 1336 or the storage unit 126 in association with the communication partner (telephone number) in a database (as a user information database). It is memorized. Also, as described above, the learning unit
  • the default database supplied as the initial value is stored and used in the default data memory 13 7, storage unit 13 6 or storage unit 126.
  • the management unit 135 searches the user information database (described later) for the caller telephone number, and if the telephone number cannot be found, a default database as shown in FIGS. 26A, 26B, and 26C. Use to set quality improvement data.
  • the default database of the default data memory 137 various parameters used as high-quality data are stored in association with measured feature values.
  • the quality-enhanced data is associated with the noise amount, and the modulation method, bit rate, coding method, codebook, class structure, prediction The values of the structure, prediction coefficients, etc. are selected.
  • the management unit 135 accesses the default data memory 135. Based on the default database in Figure 26A, set the modulation scheme to "A”, set the bit rate to "B”, set the encoding scheme to "C”, and set the codebook to "A”. , Set the class structure to “B”, set the prediction structure to “C j”, and set the prediction coefficient to “A”.
  • the quality-enhancing data may be associated with the signal strength of the received signal as shown in FIG. 26B, or may be associated with the carrier frequency of the received signal as shown in FIG. 26C. It may be associated.
  • the high quality data may be associated with other feature amounts, or may be associated with a combination of these feature amounts.
  • FIGS. 27A and 27B are diagrams showing examples of the user information database stored in the storage unit 1336.
  • the user information database is a database in which the values of the used high-quality data are associated with the other party (phone number, etc.) at that time.
  • a modulation method, a bit rate, a coding method, a codebook, a class structure, a prediction structure, a prediction coefficient, etc. are set for each user.
  • the management unit 135 sets the modulation method to “A” and sets the bit rate to “C” based on the user information database in FIG. 27A. , Set the coding method to "AJ”, set the codebook to "D”, set the class structure to "B”, set the prediction structure to "C”, and set the prediction coefficient to "B”. Set to.
  • These values may be stored so that the newest setting values are associated with the other party.However, the values are often correlated with the other party, and the most frequently used value in the past is the communication value. It is desirable to be stored in association with the other party.
  • a plurality of setting values may be associated with one communication partner.
  • a plurality of set values are associated with the first user, and priorities are set respectively. Therefore, for example, when the other party is the first user, the management unit 125 sets first the high-quality data with the priority “1” based on the user information database of FIG. 27B, If high-quality voice cannot be obtained due to the communication environment, etc., select and set high-quality data with a priority of “2” or higher based on user instructions.
  • the high quality data is generated not only by the mobile phone of the other party and acquired by the receiving unit 114, such as the above-described tap coefficient and codebook, but also by a class code or prediction code.
  • the information may be information generated in the decoding unit 132 of the reception unit 114, such as a tap.
  • FIG. 28 is a diagram showing another example of the internal configuration of the receiving unit 114. As shown in FIG.
  • the management unit 401 supplies the high-quality data and the like supplied from the reception control unit 131 to the decoding unit 132, and not only sets the data but also generates the data in the decoding unit 132. High quality data and the like to be obtained are obtained from the decoding unit 13 2.
  • the high quality data is supplied to the storage unit 402 by the management unit 401, and is temporarily stored in the temporary storage unit 4111 built in the storage unit 402. Then, as described later, when the update of the user information database 4 12 is determined based on a user's instruction or the like, the quality-enhanced data stored in the temporary storage unit 4 11 1 is stored in the user information database 4. 1 Reflected in 2.
  • the optimal quality-enhancing data is registered for each user (for each call partner), and when the quality enhancement data is supplied from the temporary storage unit 4 11, the high-quality data is registered. Optimized high quality data calculated including the quality data is stored.
  • the management unit 401 acquires the optimal value of the quality-enhanced data corresponding to the other party stored as described above, sets the optimal value in the decoding unit 132, and transmits the related information to the transmission control unit 1 24 to the mobile phone of the other party.
  • step S201 when the management unit 401 acquires the communication partner information such as the telephone number of the communication partner from the reception control unit 131, the management unit 401 stores the communication partner information based on the information.
  • the optimum value of the quality-enhanced data corresponding to the communication partner information is searched from the user information database 4122 of the section 402.
  • step S202 the management unit 410 determines whether or not the corresponding information exists based on the search result supplied from the user information database 4122. If it is determined that the optimum value of the quality-enhanced data corresponding to the caller information exists in the user information database 412, the management unit 401 associates the information with the caller information in step S203. The optimum value of the quality-enhanced data is selected and supplied to the decoding unit 132 to be set. The management unit 410, which has set the optimum value of the high quality data, advances the process to step S205.
  • step S202 If it is determined in step S202 that the optimum value of the quality-enhanced data corresponding to the caller information does not exist in the user information database 4122, the management unit 4101 performs the processing in step S202. Proceed to step 4 and obtain the corresponding default data from the default database shown in Fig. 26A, Fig. 26B, and Fig. 26C stored in the default data memory 13 Supply to 1 3 2 for setting. The management unit 401 that has set the default data advances the process to step S205.
  • the voice call is started, and the high quality data is generated by the decoding unit 132 and supplied to the management unit 401 or supplied from the other party.
  • the improved quality data is supplied from the reception control unit 131 to the management unit 401.
  • step S205 the management unit 401 determines whether or not these new high-quality data have been acquired. Then, when it is determined that the new high-quality data has been acquired, the management unit 401 advances the process to step S206, and temporarily stores the acquired new high-quality data in the storage unit 402. It is supplied to the section 4 11 and held, and the process proceeds to step S207.
  • step S205 If it is determined in step S205 that new high-quality data has not been acquired, the management unit 401 omits the processing of step S206 and proceeds to step S205. Processing proceeds to 207.
  • the user who feels that the sound quality is not good during the voice call operates the operation unit 115 to change the data set in the step S203 or S204 at first.
  • Request 1 That is, the user operates the operation unit 115 to reflect the quality-enhanced data generated for the current voice call to the set value, and transmits the setting change request to the management unit 410. To supply.
  • step S207 the management unit 410 determines whether or not the setting change request has been obtained. If it determines that the request has been obtained, the process proceeds to step S208, and the newly stored request is stored. A temporary optimal value reflecting the high quality data is calculated, supplied to the decoding unit 132, set, and the process proceeds to step S209.
  • step S207 If it is determined in step S207 that the setting change request has not been acquired, the management unit 410 skips step S208 and proceeds to step S209.
  • step S209 the management unit 401 determines whether or not the voice call has been terminated. If it is determined that the voice call has not been terminated, the processing returns to step S205, and the subsequent steps are performed. Repeat the process. If it is determined that the voice call has ended, the management unit 410 moves the processing to step S210.
  • the management unit 410 displays predetermined GUI (Graphical User Interface) information for allowing the user to select whether or not to update the user information database 412. Display on a blank display, etc., and accept input via the operation unit 115.
  • GUI Graphic User Interface
  • step S 211 the management unit 401 determines whether or not to update the user information database 412 based on the input user's instruction. The process proceeds to step S212, the user information database 412 is updated using the temporary optimal value held, and the quality-optimized data optimal value setting process ends.
  • step S211 the user information database 412 is not updated. If it is determined that the quality is higher, the management unit 401 omits the process of step S2122 and ends the process of setting the optimum value of the quality-enhanced data.
  • the switching center 4 2 3 has a high-quality data calculating section 4 2 4 and a storage section 4 25, and is used for the mobile phone 4 2 1-1 and the mobile phone 4 2 1-12. Generate and store high quality data. For example, when a voice call is started between the mobile phone 4 2 1 1 and the mobile phone 4 2 1-2, the exchange 4 2 3 transmits the corresponding high-quality data to the mobile phone 4 2 1 -Supply and set both 1 and 4 2 1—2 respectively.
  • the mobile phones 4 2 1-1 and 4 2 1 _ 2 are described as a mobile phone 4 2 1 unless it is necessary to distinguish them.
  • the mobile phone 4 21 has the same configuration as the mobile phone 101 shown in FIG.
  • the internal configuration example of the mobile phone 101 shown is also referred to as the internal configuration example of the mobile phone 42 1.
  • the internal configuration of the transmission unit 113 is the configuration shown in FIG. 31 in the case of the mobile phone 421, and is different from the configuration example of the transmission unit 113 shown in FIG.
  • the transmitting unit 113 shown in FIG. 31 includes a sample data generating unit 431, instead of the learning unit 125 of the transmitting unit 113 of FIG.
  • the sample data generation unit 431 extracts a predetermined number of data from the digitized audio data in the A / D conversion unit 122 and stores it in the storage unit 126 as sample data.
  • the management unit 4 3 2 in FIG. 31 differs from the management unit 1 27 in FIG.
  • the sample data, which is the uncompressed voice data stored in 6, is acquired and supplied to the switching center 4 23 through the transmission control unit 124.
  • FIG. 32 is a diagram showing an example of the internal configuration of the exchange 423.
  • the CPU (Central Processing Unit) 4 41 of the switching center 4 2 3 has a program stored in the R0M 4 4 2 or a RAM (Random Access Memory) 4 from the storage unit 4 2 5. 4 Execute various processes according to the program loaded in 3.
  • the RAM 443 also appropriately stores data necessary for the CPU 441 to execute various processes.
  • the CPU 441, the ROM 442 N and the RAM 443 are interconnected via a bus 450.
  • the bus 450 is also connected to a high-quality data calculating unit 424, which generates tap coefficients used for the classification adaptive processing from the sample data obtained via the communication unit 466. Is done.
  • the input / output interface 460 is also connected to the bus 450.
  • the input / output interface 460 includes an input section 461 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display), and an output section 460 including a speaker and the like. 2, a storage unit 425 composed of a hard disk and the like, and a communication unit 464 for communicating with the base station 102 and the like are connected.
  • the storage unit 425 stores programs and data executed in the exchange 423, and associates the optimum value of the high-quality data calculated by the high-quality data calculation unit 424 with the user.
  • a user information database is stored.
  • a drive 470 is connected to the input / output interface 460 as necessary, and a magnetic disk 471, an optical disk 472, a magneto-optical disk 473, or a semiconductor memory 474 is provided.
  • the computer programs are mounted as appropriate, and read out from them, and installed in the storage unit 425 as necessary.
  • FIG. 33 is a block diagram showing an example of the internal configuration of the quality-enhanced data calculation unit 424 of FIG. 08825
  • each unit shown in FIG. 33 are the same as the configuration and operation of each unit of the learning unit 125 shown in FIG. 14, and a description thereof will be omitted.
  • the audio data input to the buffer 1 4 1 is sample data that is uncompressed audio data input via the communication unit 4 64
  • the quality-enhanced data calculation unit 424 calculates a tap coefficient based on the sample data, and outputs it as quality-enhanced data.
  • mobile phone 4 2 1-1 and 4 2 1-2 of the transmission system shown in Fig. 30 and the high-quality data use processing using the high-quality data by the switching center 4 2 3 will be described. This will be described with reference to the flowchart of FIG. In the following, it is assumed that mobile phone 4 21-1 is the mobile phone on the calling side and mobile phone 4 2 1-2 is the mobile phone on the receiving side.
  • step S 2 31 the transmitting unit 113 and the receiving unit 114 of the mobile phone 4 21 _ 1, which is the mobile phone on the calling side, transmit a call to the user based on the user's instruction. It performs a calling process to the mobile telephones 4 2 1 and 1 2 of the mobile phone, and accesses the exchange 4 2 3 to make a connection request.
  • step S 2 51 Upon obtaining the connection request in step S 2 51, the CPU 4 41 of the switching center 4 2 3 controls the communication section 4 64 in step S 2 52 to perform a connection process.
  • the mobile phone 4 2 1 1 2 as the called mobile phone is accessed and a connection request is made.
  • the CPU 4441 of the exchange 4243 reads the mobile phones 42-11-1 and 4221 from the user information database stored in the storage section 425.
  • the optimum quality-enhancing data corresponding to 2 is searched, and if the optimum quality-improvement data exists, the communication unit 464 is controlled to supply the data to the corresponding mobile phone.
  • the CPU 4441 of the switching center 4243 searches for the corresponding default data from the default database stored in the storage unit 425, and controls the communication unit 465 to optimize the quality. Supply to mobile phone instead of data.
  • the receiving unit 1 14 of the mobile phone 4 2 1-1 obtains the optimal high-quality data (or default data) supplied from the exchange 4 2 3 in step S 2 32, the receiving unit 1 1 4 In step 3, set the acquired data.
  • the transmitting unit 113 and the receiving unit 114 of the mobile phone 421-1 After setting the optimal quality-enhancing data (or default data), the transmitting unit 113 and the receiving unit 114 of the mobile phone 421-1 have the mobile phone 421-2 in step S2334. , And extract feature amount information, which is information on feature amounts generated in the voice call process.
  • step S 2 35 it is determined whether or not to update the user information database based on the user's instruction input through step 5. If it is determined that the user information database is to be updated, the extracted feature amount information is determined in step S 236. Supply it to switching center 4 2 3 and end the process. If it is determined in step S235 that the user information database is not to be updated, the transmitting unit 113 skips step S236 and ends the process.
  • the receiving section 1 1 4 of the mobile phone 4 2 1-1 2 has the optimum high quality supplied by the processing of the step S 2 5 3 in the step S 2 73.
  • the acquired optimal high-quality data (or default data) is set.
  • the transmitting unit 1 13 and the receiving unit 1 14 of the mobile phone 4 2 1-2 perform a voice call process with the mobile phone 4 2 1-1 in step S 2 75, Feature amount information, which is information on feature amounts generated in the voice call processing, is extracted.
  • the transmitting unit 113 of the mobile phone 421-1_2 determines whether or not to update the user information database based on the user's instruction input through the operating unit 115 in step S276. In step S277, the extracted feature amount information is supplied to the exchange 423, and the process ends. If it is determined in step S276 that the user information database is not updated, the transmitting unit 113 skips the processing in step S277, and ends the processing.
  • step S 253 the CPU 414 of the switching center 432 supplying the optimum high-quality data (or default data) is processed by the processing of step S 236, and the mobile phone 421 ⁇ 1 If the feature amount information is supplied from, or if the feature amount information is supplied from the mobile phone 4 21-2 by the processing of step S 277, the supplied feature amount in step S 254 Get information.
  • the CPU 4441 of the switching center 423 determines whether or not the feature amount information has been acquired in step S255, and if it is determined that the feature amount information has been acquired, in step S256,
  • the high quality data calculation unit 4 2 4 is controlled to calculate the high quality data based on the acquired feature amount information, and to calculate the optimal high quality data using the calculated high quality data. Update the user information database and end the process.
  • step S255 If it is determined in step S255 that the feature amount information has not been obtained from the mobile phone 42-11-1 or 42-1-2, the CPU 441 of the exchange 423 executes the step S25. Omit the processing of 5 and 6 and end the processing.
  • the feature information is supplied from the mobile phones 4 2 1 1 and 4 2 1-2 to the exchange 4 2 3, and the high quality data calculation section 4 2 4 of the exchange 4 2 3 Optimum quality improvement data is calculated, and the updated user information database is stored in the storage unit 425. As a result, it is possible to reduce the load imposed on the mobile phone 101 by processing the high-quality data.
  • a tap coefficient is calculated as high-quality data from uncompressed audio data.
  • the uncompressed audio data supplied from the communication unit 4 64 is used.
  • the sample data is first provided to buffer 144. Then, when a predetermined amount of sample data is obtained, the high quality data calculation process is started.
  • step S291 the student data generation unit 142 generates student data from the teacher data using the audio data stored in the buffer 1411 as teacher data, and generates the student data memory 14 3 and stored, and then proceed to step S292.
  • step S292 the prediction tap generation unit 144 selects one of the audio samples stored as the teacher data in the buffer 141, which has not been set as the data of interest, as the data of interest, and For the data, by reading some of the audio samples as student data stored in the student data memory 144, a prediction tap is generated and supplied to the adding section 147.
  • step S292 the class tap generation unit 144 generates a class tap for the target data in the same manner as in the prediction tap generation unit 144, and the class classification unit 144 To supply.
  • step S292 the process proceeds to step S293, where the classification is performed on the basis of the class taps from the class tap generation unit 144, and the result is obtained.
  • the supplied class code is supplied to the adding section 147.
  • step S294 the adding unit 147 reads out the data of interest from the buffer 144, and uses the data of interest and the prediction tap from the prediction tap generation unit 144, Compute the components of matrix A and vector V. Further, the adding unit 147 performs the processing for the matrix A and vector V components stored in the user component storage unit 149 corresponding to the class code from the class classification unit 146. Then, the components of the matrix A and the vector V obtained from the target data and the prediction taps are added, and the process proceeds to step S295. In step S295, the prediction tap generation unit 144 determines whether or not there is still teacher data in the buffer 1441, which has not been set as the data of interest. Returning to 2, the same processing is repeated hereafter, with teacher data that has not been regarded as attention data as new attention data.
  • step S295 If it is determined in step S295 that there is no teacher data in the buffer 144 that is not the target data, the adding unit 147 stores the user component storage unit 149 The normal equation of Expression (8) composed of the components of the matrix A and the vector V for each class stored in is supplied to the tap coefficient determination unit 150, and the process proceeds to step S296.
  • step S296 the tap coefficient determination section 150 solves a normal equation for each class supplied from the adding section 147 to obtain a tap coefficient for each class. Then, the process proceeds to step S297, where the tap coefficient determination unit 150 supplies the tap coefficient for each class together with the update information to the storage unit 425 to correspond to the source of the sample data. Then, the data is overwritten and stored, and the high quality data calculation process ends.
  • the quality-enhanced data calculation unit 4 24 performs the quality-enhanced data calculation process (learning process) based on the newly input voice data and the voice data used for past learning.
  • learning process the quality-enhanced data calculation process
  • the other party of the mobile phone which is the source of the feature information, decodes the coded audio data using such tap coefficients, thereby performing processing suitable for the characteristics of the user's voice.
  • decoded voice data with sufficiently improved sound quality can be obtained, and when the user uses the mobile phone 421, higher quality voice is output to the other party of the call.
  • the switching station 4 23 has been described as calculating the high quality data and storing the calculated high quality data, but as shown in FIG. 36, the calculation of the high quality data is performed. Is calculated on the mobile phone that extracts the features.
  • the storage of the quality-enhanced data may be performed at the exchange 423.
  • the transmission unit 1 1 3 has a learning section 1 2 5, that are used in classification adaptive processing Tap coefficients (high quality data) can be generated.
  • the switching center 423 has a storage unit 425, and the user information data in which the optimum high quality data is associated with the user information such as a telephone number. Database.
  • step S 311 the transmitting unit 113 of the mobile phone 101 i, which is the calling mobile phone, transmits the mobile phone of the user to be the call partner based on the user's instruction. performs calling processing for the 1 0 1 2 performs the connection request by accessing to the exchange 4 2 3.
  • a connection request receiving-side mobile phone is a mobile phone 1 0 1 2 accesses.
  • Mobile phone 1 0 1 2 of the transmitter 1 1 3 and the receiving portion 1 1 4, in step S 3 5 1, in step S 3 5 2 obtains the connection request, the line Le ,, the mobile phone 1 the incoming process Establish a connection with 0 1.
  • the CPU 4441 of the exchange 4 When the connection is established, the CPU 4441 of the exchange 4 23, in step S 3 33, sends the user information database stored in the storage section 4 25 to the mobile phones 101 j and 110 2 . A search is made for the corresponding optimal quality-enhancing data, and if the optimal quality-enhancing data exists, the communication unit 464 is controlled to supply the data to the corresponding mobile phone. If it is determined that there is no corresponding optimum quality-enhancing data, the CPU 4 41 of the exchange 4 2 3 transmits the default data stored in the storage section 4 25. 8825
  • the corresponding default data is searched from the base and the communication unit 464 is controlled to supply the data to the mobile phone instead of the optimum high quality data.
  • step S312 the receiving unit 1 1 4 of the mobile phone 1 1 1i obtains the optimal high-quality data (or default data) supplied from the exchange 4 23, and then proceeds to step S3.
  • step 13 set the acquired data.
  • the transmitting unit 113 and the receiving unit 114 of the mobile phone 101 i communicate with the mobile phone 101 2 in step S314. And performs high quality data based on the features generated in the voice communication process.
  • step S316 the generated high quality data is exchanged by the exchange 4 2 3 and the process ends. If it is determined in step S315 that the user information database is not to be updated, the transmitting unit 113 skips the process of step S316 and ends the process.
  • the receiving unit 1 14 of the mobile phone 101 2 in step S 353 selects the optimal high-quality data (step S 335) supplied by the processing of step S 333. Or the default data), in step S 354, the acquired optimal quality-enhancing data (or default data) is set.
  • the mobile phone 1 0 1 2 of the transmitter 1 1 3 and the receiving portion 1 1 4, in step S 3 5 5, performs voice communication processing with the cellular phone 1 0 1, the voice call Generates high-quality data based on the features generated in the processing.
  • step S357 the generated high-quality data is supplied to the switching center 423, and the process ends. If it is determined in step S356 that the user information database is not updated, the transmitting unit 113 skips the processing of step S357 and ends the processing.
  • step S333 the CPU 414 of the switching center 423 that has supplied the optimum quality-enhancing data (or default data) is processed from the mobile phone 101i by the processing of step S313.
  • the CPU 414 of the switching center 423 that has supplied the optimum quality-enhancing data (or default data) is processed from the mobile phone 101i by the processing of step S313.
  • high-quality data or, when supplied with high-quality data from the mobile phone 1 0 1 2 by the processing in step S 3 5 7, in scan Tetsupu S 3 3 4, high supplied quality Obtain coded data.
  • step S335 the CPU 441 of the switching center 432 determines whether or not the high-quality data has been obtained. Then, the storage unit 425 is controlled to reflect and update the acquired high quality data in the user information database, and the processing is terminated.
  • step S 2 5 if the quality of the data the mobile telephone 1 0 1 also determines that it has not acquired from 1 0 1 2, CPU 4 4 1 switching centers 4 2 3 Step S 3 3 Omit the processing of 6 and end the processing.
  • high-quality data generated in the portable telephone 1 0 1 and 1 0 1 2 is supplied to the switching station 4 2 3, on the basis of the supplied high-quality data, switching station 4 2 3
  • the user information database stored in the storage unit 425 is updated. This eliminates the need for the mobile phone 101 to store the user information database, and can increase the free space in the storage area.
  • the exchange 423 calculates high-quality data, and the calculated high-quality data is transferred to the mobile phone as shown in FIG. May be supplied and stored.
  • the mobile phone 101 is provided with a storage unit 126 and a storage unit 126 shown in FIG. It has a storage section 481-1 including a storage section 136 shown in FIG. 4, and stores a user information database created based on the high-quality data supplied from the exchange 423. .
  • the mobile phone 101 also has a storage unit 481 1 2 similar to the storage unit 481 1, and is created based on the high quality data supplied from the exchange 423. The stored user information database is stored.
  • Switching station 4 2 3 based on the quality data calculator 4 has two 4, mobile phone 1 0 1 i and 1 0 1 2 feature quantity information supplied from, as shown in FIG. 3 2 To calculate high quality data.
  • step S371 the transmitting unit 113 of the mobile phone 10, which is the calling mobile phone, transmits, based on the user's instruction, the mobile phone 10 performs transmission processing for one 2 performs the connection request by accessing to the exchange 4 2 3.
  • a connection request receiving-side mobile phone is a mobile phone 1 0 1 2 accesses.
  • Mobile phone 1 0 1 2 of the transmitter 1 1 3 and the receiving portion 1 1 4, in step S 4 1 1, in step S 4 1 2 When acquiring the connection request, the line Le ,, the mobile phone 1 the incoming process 0 1 Establish connection with i.
  • the receiving unit 114 of the mobile phone 101 i retrieves the optimum high quality data from the user information database stored in the storage unit 481-1 in step S 373. If there is optimal quality-enhancing data, the data is set. If it does not exist, default data is set. Their to mobile phone 1 0 1 of the transmitter 1 1 3 and the receiving portion 1 1 4, in step S 3 7 4, performs voice communication processing with the cellular phone 1 0 1 2, the voice communication processing The feature amount information generated in is extracted.
  • the receiving unit 1 1 4 of the mobile phone 1 0 1 2 in step S 4 1 4, stored in the storage unit 4 8 1 _ 2 Search the user information database for the optimal quality-enhancing data. If the optimal quality-enhancing data exists, set the data. If not, set the default data predetermined.
  • Voice call process is completed, the line is disconnected between the cellular phone 1 0 1 i, the transmission unit 1 1 3 of the portable phone 1 0 1 2 in step S 4 1 6, extracted feature quantity information To the exchange 4 2 3.
  • Step S 3 9 acquires the mobile phone 1 0 1 i and 1 0 1 2 supplied feature amount information from, The acquired feature amount information is supplied to the high quality data calculation unit 4 2 4.
  • step S395 the quality improvement data calculation unit 4224 of the switching center 423 calculates the quality improvement data based on the supplied feature amount information. Then, in step S396, the CPU 414 of the switching center 423 sends the high quality data
  • the quality of data calculated by 4, through the communication unit 4 6 4 is supplied to the mobile phone 1 0 1 or 1 0 1 2 is a supply source of the feature amount information, the process ends.
  • the receiving unit 1 1 4 of the mobile phone 101 i that has supplied the feature information includes a step S 3 7
  • step 6 when the high-quality data supplied from the switching center 4 23 is obtained, the user information database is stored in step S377 based on the user's instruction input via the operation unit 115. It is determined whether or not to update, and if it is determined to be updated, in step S378, the acquired high-quality data is stored in the storage unit 481-1. The user information database is updated by reflecting the updated user information database, and the processing is terminated. If it is determined in step S377 that the user information database is not to be updated, the receiving unit 114 skips the processing in step S378 and ends the processing.
  • step S 418 it is determined in step S 418 whether or not to update the user information database based on the user's instruction input via the operation unit 115, and if it is determined to be updated, In step S 419, the acquired high-quality data is reflected in the user information database stored in the storage unit 481-2 to update the user information database, and the process ends. If it is determined in step S418 that the user information database is not to be updated, the receiving unit 114 skips the processing of step S419, and ends the processing.
  • high-quality data generated in the exchange station 4 2 3 is supplied to the mobile phone 1 0 1 and 1 0 1 2, on the basis of the supplied high-quality data, the storage unit 4 8
  • the user information database stored in 1-1 and 481-2 is updated. As a result, it is possible to reduce the load on the mobile phone 101 for calculating the high quality data.
  • each process of calculating and storing the quality-enhanced data is performed on the mobile phone side of the transmission system as shown in FIG. 1, FIG. 30, FIG. 36, or FIG. May be used, or may be performed by the exchange.
  • the processing on the exchange side has been described as being performed in the exchange 4 23. or it may be executed in the base station 1 0 2 2. If this happens, the base station 1 0 2 or base station 1 0 2 2 is configured, for example, like the exchange ⁇ 4 2 3 shown in FIG 2.
  • Each process of calculating and storing the quality-enhanced data may be performed using the home servers 501-1 and 501-2, which are installed in the home of the second user.
  • a home server 501-1 is a computer installed in the home of the mobile phone 101, and is a computer that can communicate with the mobile phone 101 by wire or wirelessly.
  • the home server 5 0 1 2 is the installed computer to the mobile phone 1 0 1 2 houses a computer that can communicate with the mobile phone 1 0 1 2 wired or wireless.
  • the home server 5 0 1 1 and 5 0 1 2, respectively, and the cellular phone 1 0 1 and 1 0 1 2, and the switching station 4 2 3 separately, are connected by wire or wireless, 3 0, 3
  • the processing related to the high quality data in the exchange 42, described with reference to 6, or 38, is performed.
  • the home server 501-1 performs the processing related to the high-quality data in the switching center 423 corresponding to the mobile phone 101i, and the home server 501-1-2 performs the exchange. process relating to high-quality data at station 4 2 3, the processing corresponding to the mobile phone 1 0 1 2 performed.
  • home servers 501-1-1 and 501-1-2 will be referred to as home servers 501, unless otherwise required.
  • FIG. 41 is a diagram showing an example of the internal configuration of the home server 501.
  • the home server 501 is configured in the same manner as the switching center 4 23 shown in FIG. That is, the CPUs 51 1 to the semiconductor memory 53 4 of the home server 501 shown in FIG. 41 are replaced with the CPUs 44 1 to the semiconductor memory 47 4 of the exchange 42 3 shown in FIG. 32. Each corresponds.
  • the communication section 524 of the home server 501 communicates with the mobile phone 101 by wire or wirelessly.
  • step S 4 3 the transmitting unit 1 13 and the receiving unit 1 1 4 of the mobile phone 101 connect the line to the mobile phone of the other party via the switching center 4 2 3. Perform processing. That is, 'in the mobile phone 1 0 1, processing of stearyl-up S 2 3 1 of 3 4 takes place, the mobile phone 1 0 1 2, then Step S 2 7 1 and S 2 7 in FIG. 3 4 Step 2 is performed, and the line is connected.
  • the transmitting unit 113 of the mobile phone 101 accesses the home server 501 in step S432 to request high quality data.
  • the CPU 511 of the home server 501 acquires this request in step S 451, in step S 452, a call is made from the user information database stored in the storage unit 523. Searches for the high-quality data corresponding to the user information of the partner, and if there is such high-quality data, controls the communication unit 524 to supply the high-quality data to the mobile phone 101. If not, the communication unit 524 is controlled to supply default data to the mobile phone 101.
  • the receiving unit 111 of the mobile phone 101 obtains the optimum high-quality data or the default data supplied from the home server 101 in step S433, the receiving unit 111 in step S433 In, set the acquired optimal quality-enhancing data or default data.
  • step S 435 the transmitting unit 113 and the receiving unit 114 of the mobile phone 101 perform a voice call process, and the feature is information relating to a characteristic amount generated in the voice call process. Extract quantity information.
  • the transmitting unit 113 of the mobile phone 101 transmits the message via the operating unit 115 in step S436. It is determined whether or not to update the user information database in the storage unit 52 3 of the home server 501 based on the user's instruction input in step S 437. The extracted feature amount information is used as a home server 5 0 1 and the process ends. If it is determined in step S436 that the user information database is not to be updated, the transmitting unit 113 skips the processing in step S433 and ends the processing.
  • step S 452 the CPU 511 of the home server 501, which supplied the optimum high-quality data (or default data), is characterized by the processing of step S 434 from the mobile phone 101.
  • the supplied feature quantity information is acquired in step S4453.
  • step S 454 the CPU 511 of the home server 501 determines in step S 454 whether or not the feature amount information has been obtained.
  • the high quality data calculating unit 5 14 is controlled to calculate high quality data based on the acquired feature amount information, and the calculated high quality data and user information of the storage unit 5 23 Using the information in the database, calculate new and optimal high-quality data, update the user information database in the storage unit 523, and end the processing.
  • step S 454 If it is determined in step S 454 that the feature information has not been obtained from the mobile phone 101, the CPU 511 of the home server 101 determines in step S 445
  • the feature amount information is supplied from the mobile phone 101 to the home server 501, and the high quality data calculation unit 514 of the home server 501 calculates the optimum high quality data.
  • the updated user information database is stored in the storage unit 523. As a result, it is possible to reduce the load of the mobile phone 101 due to the processing related to the high quality data.
  • step S471 the transmission unit 113 and the reception unit 114 of the mobile phone 101 perform the voice call connection process in the same manner as in step S431 of FIG. .
  • the transmitting unit 113 of the mobile phone 101 accesses the home server 501 in step S472 in the same manner as in step S433 of FIG. Demand higher quality data.
  • the CPU 511 of the home server 501 acquires this request in step S491, as in steps S451 and S452 in FIG. 9
  • the high quality data corresponding to the user information of the other party is searched for, and if there is a corresponding high quality data, the high quality data is retrieved.
  • the data is supplied to the mobile phone 101, and if not present, the default data is supplied to the mobile phone 101.
  • step S 473 the receiving unit 1 1 4 of the mobile phone 101 receives the optimum high-quality data or default data in step S 4 73, as in the case of steps S 4 3 3 and S 4 3 4 in FIG. Are obtained, they are set in step S474. Then, in step S475, the transmitting unit 113 and the receiving unit 114 of the mobile phone 101 perform a voice call process, and based on feature amount information generated in the voice call process, Generate high quality data.
  • step S476 it is determined whether or not to update the user information database based on the user's instruction. If it is determined that the user information database is to be updated, in step S475, the generated high quality data is stored in the home. Supply to the server 501 and end the processing. Further, in step S 4 7 6, user information when it is determined that the database does not update the transmission unit 1 1 3 omits the processing in step S 4 7 7, c home server 5 0 1 of the CPU ends the process 511 indicates that if the mobile phone 101 supplied the quality-enhancing data by the processing in step S477, it To get.
  • the CPU 511 of the home server 501 determines whether or not the high-quality data has been obtained in step S494, and if it is determined that the high-quality data has been obtained, the CPU 511 obtains the high-quality data in step S495.
  • the CPU 511 uses the updated high quality data and the information of the user information database of the storage section 523, new and optimum quality improvement data is calculated, the user information database of the storage section 523 is updated, and the processing is performed. finish.
  • step S494 If it is determined in step S494 that the high quality data has not been obtained from the mobile phone 101, the CPU 511 of the home server 101 executes the processing of step S495. Is omitted and the process ends. .
  • the high-quality data calculated in the mobile phone 101 is supplied to the home server 501, and the user information database updated in the home server 501 is stored in the storage unit 523. Is done. As a result, the mobile phone 101 does not need to store the user information database, and the free space in the storage area can be increased.
  • step S511 the transmitting unit 113 and the receiving unit 114 of the mobile phone 101 perform a voice call connection process in the same manner as in step S431 of FIG. .
  • the transmitting unit 113 and the receiving unit 114 of the mobile phone 101 connect the storage unit 126 or 1336 (storage unit 481) in step S514. Search and set the optimal high quality data from the user information database. If there is no suitable high quality data, the transmitting unit 113 and the receiving unit 114 of the mobile phone 101 will store the default data such as the default data memory 1337. Select and set the default data from the source.
  • step S515 the transmitting unit 113 and the receiving unit 114 of the mobile phone 101 perform the voice call processing in the same manner as in step S435 of FIG. Then, feature amount information, which is information on feature amounts generated in the voice call processing, is extracted.
  • the transmitting unit 113 of the mobile phone 101 sends the extracted feature amount information to the home server in step S516. Feed to 501.
  • the CPU 511 of the home server 501 to which the feature amount information has been supplied acquires it in step S533 and supplies it to the high quality data calculation unit 514.
  • the high quality data calculation unit 514 of the home server 501 calculates high quality data based on the supplied feature amount information in step S533. Then, in step S535, the CPU 511 of the home server 501 transmits the high-quality data calculated by the high-quality data calculating unit 514 via the communication unit 524. The information is supplied to the mobile phone 101, which is the source of the characteristic information, and the process is terminated.
  • the receiving unit 111 of the mobile phone 101 Upon receiving the high-quality data supplied from the home server 501 in step S 517, the receiving unit 111 of the mobile phone 101 receives the operation unit 111 in step S 518. It is determined whether or not to update the user information database based on the user's instruction input through step 5, and if it is determined that the user information database is to be updated, the acquired high quality data is stored in step S519. The user information database is updated by reflecting it in the user information database stored in the section 126 or 133 (storage section 4881), and the processing is terminated. If it is determined in step S518 that the user information database is not updated, the receiving unit 114 skips the processing of step S519 and ends the processing.
  • the high-quality data generated in the home server 501 is supplied to the mobile phone 101, and based on the supplied high-quality data, the storage unit 1 26 or 1 3 6 (The user information database stored in the storage unit 4 Be updated. As a result, it is possible to reduce the load on the mobile phone 101 for calculating the high quality data.
  • FIG. 45 shows a configuration example of an embodiment of a computer in which a program for executing the above-described series of processes of the mobile phone 101 is installed.
  • the program can be recorded in advance on a hard disk 605 or a ROM 603 as a recording medium built in the computer.
  • the program may be stored on a removable recording medium 611 such as a flexible disk, CD-ROM (Compact Disc Read Only Memory), M0 (Magneto optical) disk, DVD (Digital Versatile Disc), magnetic disk, or semiconductor memory. It can be stored (recorded) temporarily or permanently.
  • a removable recording medium 611 can be provided as so-called package software.
  • the program can be installed on the computer from the removable recording medium 611 as described above, or transmitted from the download site wirelessly to a computer via a digital satellite broadcasting artificial satellite, or via a LAN ( Local area network), the Internet, and the like, are transmitted to the computer by wire, and the computer receives the transmitted program in the communication section 608 and stores the internal hard disk 60 5 can be installed.
  • a computer via a digital satellite broadcasting artificial satellite, or via a LAN ( Local area network), the Internet, and the like, are transmitted to the computer by wire, and the computer receives the transmitted program in the communication section 608 and stores the internal hard disk 60 5 can be installed.
  • the computer has a built-in CPU602.
  • An input / output interface 610 is connected to the CPU 602 via the bus 601.
  • the CPU 602 is connected to the keyboard ⁇ ⁇ ⁇ , mouse,
  • the program stored in R0M603 is executed.
  • the CPU 602 may include a program stored on the hard disk 605, a program transferred from a satellite or a network, received by the communication unit 608, and installed on the hard disk 605,
  • the program read from the removable recording medium 411 mounted on the drive 609 and installed on the hard disk 605 is loaded into the RAM 604 and executed.
  • the CPU 602 performs the processing according to the above-described flowchart or the processing performed by the configuration of the above-described block diagram. Then, the CPU 602 outputs the processing result as necessary, for example, from the output unit 606 constituted by an LCD speed or the like via the input / output interface 610, or The data is transmitted from the communication unit 608, and further recorded on the hard disk 605.
  • processing steps for describing a program for causing a computer to perform various types of processing do not necessarily need to be processed in chronological order in the order described as a flowchart. It also includes processes that are executed either individually or individually (for example, parallel processing or object processing).
  • the program may be processed by one computer, or may be processed in a distributed manner by a plurality of computers. Further, the program may be transferred to a remote computer and executed.
  • the telephone number transmitted from the calling side at the time of an incoming call is used as the specific information for specifying the calling side, but in addition, for example, the user, etc. It is also possible to assign a unique ID (Identification) and use that ID as specific information.
  • encoded audio data can be transmitted.
  • encoded audio data can be transmitted with optimal settings, and high-quality audio can be decoded on the receiving side.
  • encoded voice data can be received.
  • coded voice data can be received with the optimal settings, and high-quality voice can be decoded.
  • encoded voice data can be transmitted / received.
  • coded voice data can be transmitted and received with the optimal settings, and high-quality voice can be decoded.
  • the first communication device the first communication method, and the third program of the present invention
  • communication with a transmitting / receiving device can be performed.
  • the required storage area of the transmitting / receiving device can be reduced.
  • the second communication device the second communication method, and the fourth program of the present invention
  • communication with the transmitting / receiving device can be performed.
  • the load on the transmission / reception device can be reduced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Telephonic Communication Services (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本発明は、高音質の音声を復号することができる送信装置および送信方法、受信装置および受信方法、送受信装置、通信装置および方法、記録媒体、並びにプログラムに関する。携帯電話機421−1は、符号化音声データを出力するとともに、符号化される前の音声サンプルデータを非通話時に交換局423に供給する。交換局423は、符号化音声データを受信する携帯電話機421−2において出力される音声の品質を向上させる高品質化データの算出処理を、過去の算出処理に用いられた音声データと、新たに入力された音声データに基づいて行い、最適な高品質化データをユーザ情報データベースとして携帯電話機421−1と対応付けて記憶する。携帯電話機421−2は、交換局423より供給された最適な高品質化データに基づいて、符号化音声データを復号する。本発明は、携帯電話機に適用できる。

Description

明細書
送信装置および送信方法、 受信装置および受信方法、 送受信装置、 通信装置およ び方法、 記録媒体、 並びにプログラム 技術分野
本発明は、 送信装置および送信方法、 受信装置および受信方法、 送受信装置、 通信装置および方法、 記録媒体、 並びにプログラムに関し、 特に、 例えば、 携帯 電話機等において、 高音質の音声による通話を行うことができるようにする送信 装置および送信方法、 受信装置および受信方法、 送受信装置、 通信装置および方 法、 記録媒体、 並びにプログラムに関する。
背景技術
例えば、 携帯電話機での音声通話においては、 伝送帯域が制限されていること 等に起因して、 受信された音声の音質は、 ユーザが発した実際の音声の音質より も比較的大きく劣化したものとなる。
そこで、 従来の携帯電話機では、 受信した音声の音質を改善するために、 受信 した音声に対して、 例えば、 その音声の周波数スペク トルを調整するフィルタリ ング等の信号処理が施される。
しかしながら、 ユーザの音声は、 ユーザごとに特徴があるため、 同一のタップ 係数のフィルタによって、 受信した音声のフィルタリングを行うのでは、 ユーザ ごとに異なる音声の周波数特性によっては、 その音声の音質を十分に改善するこ とができない場合がある。 発明の開示
本発明は、 このような状況に鑑みてなされたものであり、 ユーザごとに、 音質 を十分に改善した音声を得ることができるようにするものである。
本発明の送信装置は、 音声データを符号化し、 符号化音声データを出力する符 号化手段と、 符号化音声データを送信する送信手段と、 符号化手段による符号化 に関するパラメータ、 および送信手段による送信に関するパラメータを、 符号化 音声データを受信する受信側を特定する特定情報に対応させて記憶するパラメ一 タ記憶手段と、 特定情報に基づいて、 パラメータ記憶手段により記憶されている 符号化手段による符号化に関するパラメータ、 および送信手段による送信に関す るパラメータを選択し、 設定するパラメータ設定手段とを備えることを特徴とす る。
本発明の送信方法は、 音声データを符号化し、 符号化音声データを出力する符 号化ステップと、 符号化音声データの送信を制御する送信制御ステップと、 符号 化ステップの処理による符号化に関するパラメータ、 および送信制御ステップの 処理により制御された送信に関するパラメータを符号化音声データの、 受信する 受信側を特定する特定情報に対応させた記憶を制御するパラメータ記憶制御ステ ップと、 特定情報に基づいて、 パラメータ記憶制御ステップの処理により記憶が 制御されている符号化ステツプの処理による符号化に関するパラメータ、 および 送信制御ステップの処理により制御された送信に関するパラメータを選択し、 設 定するパラメータ設定ステップとを含むことを特徴とする。
本発明の第 1の記録媒体は、 音声データを符号化し、 符号化音声データを出力 する符号化ステップと、 符号化音声データの送信を制御する送信制御ステップと、 符号化ステップの処理による符号化に関するパラメータ、 および送信制御ステッ プの処理により制御された送信に関するパラメータを符号化音声データの、 受信 する受信側を特定する特定情報に対応させた記憶を制御するパラメータ記憶制御 ステップと、 特定情報に基づいて、 パラメータ記憶制御ステップの処理により記 憶が制御されている符号化ステップの処理による符号化に関するパラメータ、 お よび送信制御ステップの処理により制御された送信に関するパラメータを選択し、 設定するパラメータ設定ステップとを含むことを特徴とする。
本発明の第 1のプログラムは、 音声データを符号化し、 符号化音声データを出 力する符号化ステップと、 符号化音声データの送信を制御する送信制御ステップ と、 符号化ステップの処理による符号化に関するパラメータ、 および送信制御ス テップの処理により制御された送信に関するパラメータを符号化音声データの、 受信する受信側を特定する特定情報に対応させた記憶を制御するパラメータ記憶 制御ステップと、 特定情報に基づいて、 パラメータ記憶制御ステップの処理によ り記憶が制御されている符号化ステップの処理による符号化に関するパラメータ、 および送信制御ステップの処理により制御された送信に関するパラメータを選択 し、 設定するパラメータ設定ステップとをコンピュータに実現させることを特徴 とする。
本発明の受信装置は、 符号化音声データを受信する受信手段と、 受信手段にお いて受信された符号化音声データを復号する復号手段と、 受信手段による受信に 関するパラメータ、 および復号手段による復号に関するパラメータを、 符号化音 声データを送信する送信側を特定する特定情報に対応させて記憶するパラメータ 記憶手段と、 特定情報に基づいて、 パラメータ記憶手段により記憶されている受 信手段による受信に関するパラメータ、 および復号手段による復号に関するパラ メータを選択し、 設定するパラメータ設定手段とを備えることを特徴とする。 本発明の受信方法は、 符号化音声データの受信を制御する受信制御ステップと、 受信制御ステップの処理において受信が制御された符号化音声データを復号する 復号ステツプと、 受信制御ステップの処理により制御された受信に関するパラメ ータ、 および復号ステップの処理による復号に関するパラメータの、 符号化音声 データを送信する送信側を特定する特定情報に対応させた記憶を制御するパラメ ータ記憶制御ステップと、 特定情報に基づいて、 パラメータ記憶制御ステップの 処理により記憶が制御されている受信制御ステップの処理により制御された受信 に関するパラメータ、 および復号ステップの処理による復号に関するパラメータ を選択し、 設定するパラメータ設定ステップとを含むことを特徴とする。
本発明の第 2の記録媒体は、 符号化音声データの受信を制御する受信制御ステ ップと、 受信制御ステップの処理において受信が制御された符号化音声データを 復号する復号ステップと、 受信制御ステップの処理により制御された受信に関す るパラメータ、 および復号ステップの処理による復号に関するパラメータの、 符 号化音声データを送信する送信側を特定する特定情報に対応させた記憶を制御す るパラメータ記憶制御ステップと、 特定情報に基づいて、 パラメータ記憶制御ス テツプの処理により記憶が制御されている受信制御ステップの処理により制御さ れた受信に関するパラメータ、 および復号ステップの処理による復号に関するパ ラメータを選択し、 設定するパラメータ設定ステップとを含むことを特徴とする。 本発明の第 2のプログラムは、 符号化音声データの受信を制御する受信制御ス テツプと、 受信制御ステップの処理において受信が制御された符号化音声データ を復号する復号ステップと、 受信制御ステップの処理により制御された受信に関 するパラメータ、 および復号ステップの処理による復号に関するパラメータの、 符号化音声データを送信する送信側を特定する特定情報に対応させた記憶を制御 するパラメータ記憶制御ステップと、 特定情報に基づいて、 パラメータ記憶制御 ステップの処理により記憶が制御されている受信制御ステップの処理により制御 された受信に関するパラメータ、 および復号ステップの処理による復号に関する パラメータを選択し、 設定するパラメータ設定ステップとをコンピュータに実現 させることを特徴とする。
本発明の送受信装置は、 音声データを符号化し、 符号化音声データを出力する 符号化手段と、 符号化音声データを送信する送信手段と、 符号化手段による符号 化に関するパラメータ、 および送信手段による送信に関するパラメータを、 符号 化音声データを受信する受信側を特定する第 1の特定情報に対応させて記憶する 第 1のパラメータ記憶手段と、 第 1の特定情報に基づいて、 第 1のパラメータ記 憶手段により記憶されている符号化手段による符号化に関するパラメータ、 およ び送信手段による送信に関するパラメータを選択し、 設定する第 1のパラメータ 設定手段と、 符号化音声データを受信する受信手段と、 受信手段により受信され た符号化音声データを復号する復号手段と、 受信手段による受信に関するパラメ ータ、 および復号手段による復号に関するパラメータを、 符号化音声データを送 信する送信側を特定する第 2の特定情報に対応させて記憶する第 2のパラメータ 記憶手段と、 第 2の特定情報に基づいて、 第 2のパラメータ記憶手段により記憶 されている受信手段による受信に関するパラメータ、 および復号手段による復号 に関するパラメータを選択し、 設定する第 2のパラメータ設定手段とを備えるこ とを特徴とする。
本発明の第 1の通信装置は、 送受信装置より符号化音声データを復号した復号 音声データの品質を向上させる高品質化データを取得する取得手段と、 取得手段 により取得された高品質化データを、 送受信装置を特定する特定情報に対応させ て記憶する記憶手段と、 記憶手段により記憶されている高品質化データを、 特定 情報が特定する送受信装置に供給する供給手段とを備えることを特徴とする。 本発明の第 1の通信方法は、 送受信装置から供給された符号化音声データを復 号した復号音声データの品質を向上させる高品質化データの取得を制御する取得 制御ステップと、 取得制御ステップの処理により取得が制御された高品質化デー タの、 送受信装置を特定する特定情報に対応させた記憶を制御する記憶制御ステ ップと、 記憶制御ステップの処理により記憶が制御されている高品質化データの、 特定情報が特定する送受信装置への供給を制御する供給制御ステップとを含むこ とを特徴とする。
本発明の第 3の記録媒体は、 送受信装置から供給された符号化音声データを復 号した復号音声データの品質を向上させる高品質化データの取得を制御する取得 制御ステップと、 取得制御ステップの処理により取得が制御された高品質化デー タの、 送受信装置を特定する特定情報に対応させた記憶を制御する記憶制御ステ ップと、 記憶制御ステップの処理により記憶が制御されている高品質化データの、 特定情報が特定する送受信装置への供給を制御する供給制御ステップとを含むこ とを特徴とする。
本発明の第 3のプログラムは、 送受信装置から供給された符号化音声データを 復号した復号音声データの品質を向上させる高品質化データの取得を制御する取 得制御ステップと、 取得制御ステップの処理により取得が制御された高品質化デ ータの、 送受信装置を特定する特定情報に対応させた記憶を制御する記憶制御ス テツプと、 記憶制御ステップの処理により記憶が制御されている高品質化データ の、 特定情報が特定する送受信装置への供給を制御する供給制御ステップとをコ ンピュータに実現させることを特徴とする。
本発明の第 2の通信装置は、 送受信装置より符号化音声データの送受信に関す る特徴量を取得する取得手段と、 取得手段により取得された特徴量に基づいて、 符号化音声データを復号した復号音声データの品質を向上させる高品質化データ を算出する算出手段と、 算出手段により算出された高品質化データを、 特徴量を 取得した送受信装置に供給する供給手段とを備えることを特徴とする。
本発明の第 2の通信方法は、 送受信装置より供給された符号化音声データの送 受信に関する特徴量の取得を制御する取得制御ステップと、 取得制御ステップの 処理により取得が制御された特徴量に基づいて、 符号化音声データを復号した復 号音声データの品質を向上させる高品質化データを算出する算出ステップと、 算 出ステップの処理により算出された高品質化データの、 特徴量を取得した送受信 装置への供給を制御する供給制御ステップとを含むことを特徴とする。
本発明の第 4の記録媒体は、 送受信装置より供給された符号化音声データの送 受信に関する特徴量の取得を制御する取得制御ステップと、 取得制御ステップの 処理により取得が制御された特徴量に基づいて、 符号化音声データを復号した復 号音声データの品質を向上させる高品質化データを算出する算出ステップと、 算 出ステップの処理により算出された高品質化データの、 特徴量を取得した送受信 装置への供給を制御する供給制御ステップとを含むことを特徴とする。
本発明の第 4のプログラムは、 送受信装置より供給された符号化音声データの 送受信に関する特徴量の取得を制御する取得制御ステップと、 取得制御ステップ の処理により取得が制御された特徴量に基づいて、 符号化音声データを復号した 復号音声データの品質を向上させる高品質化データを算出する算出ステップと、 算出ステップの処理により算出された高品質化データの、 特徴量を取得した送受 信装置への供給を制御する供給制御ステップとをコンピュータに実現させること を特徴とする。 本発明の送信装置および送信方法、 並びに第 1のプログラムにおいては、 音声 データが符号化され、 符号化音声データが送信される。 一方、 符号化に関するパ ラメータ送信に関するパラメータが、 符号化音声データを受信する受信側を特定 する特定情報に対応させて記憶されており、 その特定情報に基づいて、 記憶され ている符号化に関するパラメータおよび送信に関するパラメータが選択されて設 定される。
本発明の受信装置及び受信方法、 並びに第 2のプログラムにおいては、 符号化 音声データが受信されて復号される。 また、 その受信に関するパラメータおよび 復号に関するパラメータが、 符号化音声データを送信する送信側を特定する特定 情報に対応させて記憶されており、 その特定情報に基づいて、 記憶されている受 信に関するパラメータおよび復号に関するパラメータが選択されて設定される。 本発明の送受信装置においては、 音声データが符号化されて、 符号化音声デー タが出力されて送信される。 一方、 符号化に関するパラメータおよび送信に関す るパラメータが、 符号化音声データを受信する受信側を特定する第 1の特定情報 に対応させて記憶されており、 第 1の特定情報に基づいて、 その記憶されている 符号化に関するパラメータおよび送信に関するパラメータが選択されて設定され る。 また、 符号化音声データが受信されて復号される。 一方、 その受信に関する パラメータおよび復号に関するパラメータが、 前記符号化音声データを送信する 送信側を特定する第 2の特定情報に対応させて記憶されており、 第 2の特定情報 に基づいて、 その記憶されている受信に関するパラメータおよび復号に関するパ ラメータが選択されて設定される。
本発明の第 1の通信装置および第 1の通信方法、 並びに第 3のプログラムにお いては、 送受信装置より符号化音声データを復号した復号音声データの品質を向 上させる高品質化データが取得され、 その取得された高品質化データが、 送受信 装置を特定する特定情報に対応させて記憶され、 その記憶されている高品質化デ ータが、 特定情報が特定する送受信装置に供給される。
本発明の第 2の通信装置及び第 2の通信方法、 並びに第 4のプログラムにおい ては、 送受信装置より符号化音声データの送受信に関する特徴量が取得され、 そ の取得された特徴量に基づいて、 符号化音声データを復号した復号音声データの 品質を向上させる高品質化データが算出され、 算出された高品質化データが、 特 徴量を取得した送受信装置に供給される。 図面の簡単な説明
図 1は、 本発明を適用した伝送システムの一実施の形態の構成例を示すプロッ ク図である。
図 2は、 携帯電話機 1 0 1の構成例を示すブロック図である。
図 3は、 送信部 1 1 3の構成例を示すブロック図である。
図 4は、 受信部 1 1 4の構成例を示すブロック図である。
図 5は、 受信部 1 1 4による高品質化データ設定処理を説明するフローチヤ一 トである。
図 6は、 発信側の高品質化データ送信処理の第 1実施の形態を示すフローチヤ ートである。
図 7は、 着信側の高品質化データ更新処理の第 1実施の形態を示すフ口一チヤ 一トである。
図 8は、 発信側の高品質化データ送信処理の第 2実施の形態を示すフローチヤ 一トである。
図 9は、 着信側の高品質化データ更新処理の第 2実施の形態を示すフローチヤ 一トである。
図 1 0は、 発信側の高品質化データ送信処理の第 3実施の形態を示すフローチ ヤートである。
図 1 1は、 着信側の高品質化データ更新処理の第 3実施の形態を示すフローチ ヤートである。
図 1 2は、 発信側の高品質化データ送信処理の第 4実施の形態を示すフローチ ヤー卜である。 5
9
図 1 3は、 着信側の高品質化データ更新処理の第 4実施の形態を示すブローチ ヤートである。
図 1 4は、 学習部 1 2 5の構成例を示すプロック図である。
図 1 5は、 学習部 1 2 5の学習処理を説明するフローチャートである。
図 1 6は、 復号部 1 3 2の構成例を示すブロック図である。
図 1 7は、 復号部 1 3 2の処理を説明するフローチヤ一トである。
図 1 8は、 C E L P方式の符号化部 1 2 3の構成例を示すブロック図である。 図 1 9は、 C E L P方式の符号化部 1 2 3を採用した場合の復号部 1 3 2の構 成例を示すプロック図である。
図 2 0は、 C E L P方式の符号化部 1 2 3を採用した場合の学習部 1 2 5の構 成例を示すブロック図である。
図 2 1は、 ベタ トル量子化を行う符号化部 1 2 3の構成例を示すブロック図で ある。
図 2 2は、 符号化部 1 2 3がべク トル量子化を行う場合の学習部 1 2 5の構成 例を示すブロック図である。
図 2 3は、 符号化部 1 2 3がべク トル量子化を行う場合の学習部 1 2 5の学習 処理を説明するフローチヤ一トである。
図 2 4は、 符号化部 1 2 3がべク トル量子化を行う場合の復号部 1 3 2の構成 例を示すブロック図である。
図 2 5は、 符号化部 1 2 3がべク トル量子化を行う場合の復号部 1 3 2の処理 を説明するフローチヤ一トである。
図 2 6 Aは、 デフォルトデータベースの例を示す図である。
図 2 6 Bは、 デフオルトデータベースの例を示す図である。
図 2 6 Cは、 デフオルトデータベースの例を示す図である。
図 2 7 Aは、 ユーザ情報データベースの例を示す図である。
図 2 7 Bは、 ユーザ情報データベースの例を示す図である。
図 2 8は、 受信部 1 1 4の他の構成例を示すブロック図である。 図 2 9は、 高品質化データ最適値設定処理を説明するフローチャートである。 図 3 0は、 本発明を適用した伝送システムの他の構成例を示すブロック図であ る。
図 3 1は、 送信部 1 1 3の他の構成例を示すブロック図である。
図 3 2は、 交換局 4 2 3の構成例を示すブロック図である。
図 3 3は、 高品質データ算出部 4 2 4の構成例を示すプロック図である。 図 3 4は、 図 3 0の伝送システムにより実行される処理を説明するフローチヤ ―トである。
図 3 5は、 高品質化データ算出処理を説明するフローチヤ一トである。
図 3 6は、 本発明を適用した伝送システムの、 さらに他の構成例を示すプロッ ク図である。
図 3 7は、 図 3 6の伝送システムにより実行される処理を説明するフローチヤ ートである。
図 3 8は、 本発明を適用した伝送システムの、 さらに他の構成例を示すブロッ ク図である。
図 3 9は、 図 3 8の伝送システムにより実行される処理を説明するフローチヤ 一トである。
図 4 0は、 本発明を適用した伝送システムの、 さらに他の構成例を示すブロッ ク図である。
図 4 1は、 ホームサーバ 5 0 1の構成例を示すブロック図である。
図 4 2は、 図 4 0の伝送システムにより実行される処理を説明するフローチヤ 一トである。
図 4 3は、 図 4 0の伝送システムにより実行される処理の他の例を説明するフ 口一チヤ一トである。
図 4 4は、 図 4 0の伝送システムにより実行される処理の、 さらに他の例を説 明するフローチャートである。
図 4 5は、 本発明を適用したコンピュータの一実施の形態の構成例を示すプロ ック図である。 発明を実施するための最良の形態
図 1は、 本発明を適用した伝送システム (システムとは、 複数の装置が論理的 に集合した物をいい、 各構成の装置が同一筐体中にあるか否かは問わない) の一 実施の形態の構成を示している。
この伝送システムでは、 携帯電話機 1 0 1 1と 1 0 1 2が、 基地局 1 0 2 1と 1 0 2 2それぞれとの間で、 無線による送受信を行うとともに、 基地局 1 0 2 丄と 1 0 2 2それぞれが、 交換局 1 0 3との間で送受信を行うことにより、 最終的に は、 携帯電話機 1 0 1 と 1 0 1 2との間において、 基地局 1 0 2 および 1 0 2 2、 並びに交換局 1 0 3を介して、 音声の送受信を行うことができるようになつ ている。 なお、 基地局 1 0 2 と 1 0 2 2は、 同一の基地局であっても良いし、 異なる基地局であつても良い。
ここで、 以下、 特に区別する必要がない限り、 携帯電話機 1 0 1 iと 1 0 1 2 を、 携帯電話機 1 0 1と記述する。
次に、 図 2は、 図 1の携帯電話機 1 0 1 iの構成例を示している。 なお、 携帯 電話機 1 0 1 2も、 以下説明する携帯電話機 1 0 1 iと同様に構成されるため、 その説明は省略する。
アンテナ 1 1 1は、 基地局 1 0 2 iまたは 1 0 2 2からの電波を受信し、 変復 調部 1 1 2に供給するとともに、 変復調部 1 1 2からの信号を、 電波で、 基地局 1 0 2 iまたは 1 0 2 2に送信する。 変復調部 1 1 2は、 アンテナ 1 1 1からの 信号を、 例えば、 C D M A (Code Div i s ion Mul t ipl e Acces s)方式等によって 復調し、 その結果得られる復調信号を、 受信部 1 1 4に供給する。 また、 変復調 部 1 1 2は、 送信部 1 1 3から供給される送信データを、 例えば、 C D M A方式 等で変調し、 その結果得られる変調信号を、 アンテナ 1 1 1に供給する。 送信部 1 1 3は、 そこに入力されるユーザの音声を符号化する等の所定の処理を行い、 送信データを得て、 変復調部 1 1 2に供給する。 受信部 1 1 4は、 変復調部 1 1 2からの復調信号である受信データを受信し、 高音質の音声を復号して出力する。 操作部 1 1 5は、 発呼先の電話番号や、 所定のコマンド等を入力するときに、 ユーザによって操作され、 その操作に対応する操作信号は、 送信部 1 1 3や受信 部 1 1 4に供給される。
なお、 送信部 1 1 3と受信部 1 1 4との間では、 必要に応じて情報をやりとり することができるようになっている。
次に、 図 3は、 図 2の送信部 1 1 3の構成例を示している。
マイク 1 2 1には、 ユーザの音声が入力され、 マイク 1 2 1は、 そのユーザの 音声を、 電気信号としての音声信号として、 A / D (Analog/Digital)変換部 1 2 2に出力する。 八 0変換部1 2 2は、 マイク 1 2 1からのアナログの音声信 号を A/D変換することにより、 ディジタルの音声データとし、 符号化部 1 2 3 および学習部 1 2 5に出力する。
符号化部 1 2 3は、 AZD変換部 1 2 2からの音声データを所定の符号化方式 によって符号化し、 その結果得られる符号化音声データを、 送信制御部 1 2 4に 出力する。
送信制御部 1 2 4は、 符号化部 1 2 3が出力する符号化音声データと、 後述す る管理部 1 2 7が出力するデータの送信制御を行う。 即ち、 送信制御部 1 2 4は、 符号化部 1 2 3が出力する符号化音声データ、 または後述する管理部 1 2 7が出 力するデータを選択し、 所定の送信タイミングにおいて、 送信データとして、 変 復調部 1 1 2 (図 2 ) に出力する。 なお、 送信制御部 1 2 4は、 符号化音声デー タおよび高品質化データの他、 操作部 1 1 5が操作されることによって入力され る、 発信先の電話番号や、 発信元である自身の電話番号、 その他の必要な情報を、 必要に応じて、 送信データとして出力する。
学習部 1 2 5は、 符号化部 1 2 3が出力する符号化音声データを受信する受信 側において出力される音声の品質を向上させる高品質化データの学習を、 過去の 学習に用いられた音声データと、 新たに A/D変換部 1 2 2から入力される音声 データに基づいて行う。 学習部 1 2 5は、 学習を行うことにより、 新たな高品質 化データを得ると、 その高品質化データを、 記憶部 1 2 6に供給する。
記憶部 1 2 6は、 学習部 1 2 5から供給される高品質化データを記憶する。 管理部 1 2 7は、 受信部 1 1 4から供給される情報を必要に応じて参照しなが ら、 記憶部 1 2 6に記憶された高品質化データの送信を管理する。
以上のように構成される送信部 1 1 3では、 マイク 1 2 1に入力されたユーザ の音声が、 A/D変換部 1 2 2を介して、 符号化部 1 2 3および学習部 1 2 5に 供給される。
符号化部 1 2 3は、 AZD変換部 1 2 2から供給される音声データを符号化し、 その結果得られる符号化音声データを、 送信制御部 1 2 4に出力する。 送信制御 部 1 2 4は、 符号化部 1 2 3から供給される符号化音声データを送信データとし て、 変復調部 1 1 2 (図 2 ) に出力する。
一方、 学習部 1 2 5は、 過去の学習に用いられた音声データと、 新たに A/D 変換部 1 2 2から入力される音声データに基づいて、 高品質化データを学習し、 その結果得られる高品質化データを、 記憶部 1 2 6に供給して記憶させる。
ここで、 このように、 学習部 1 2 5では、 新たに入力されたユーザの音声デー タだけではなく、 過去の学習に用いられた音声データにも基づいて、 高品質化デ ータの学習が行われるので、 ユーザが通話を行うほど、 より、 そのユーザの音声 データを符号化した符号化音声データを、 高品質の音声データに復号することの できる高品質化データが得られることになる。
そして、 管理部 1 2 7は、 所定のタイミングにおいて、 記憶部 1 2 6に記憶さ れた高品質化データを、 記憶部 1 2 6から読み出し、 送信制御部 1 2 4に供給す る。 送信制御部 1 2 4は、 管理部 1 2 7が出力する高品質化データを、 所定の送 信タイミングにおいて、 送信データとして、 変復調部 1 1 2 (図 2 ) に出力する。 以上のように、 送信部 1 1 3では、 通常の通話のための音声としての符号化音 声データの他に、 高品質化データも送信される。
次に、 図 4は、 図 2の受信部 1 1 4の構成例を示している。
図 2の変復調部 1 1 2が出力する復調信号としての受信データは、 受信制御部 1 3 1に供給され、 受信制御部 1 3 1は、 その受信データを受信する。 そして、 受信制御部 1 3 1は、 受信データが符号化音声データである場合には、 その符号 化音声データを、 復号部 1 3 2に供給し、 受信データが高品質化データである場 合には、 その高品質化データを、 管理部 1 3 5に供給する。
なお、 受信データには、 符号化音声データおよび高品質化データの他、 必要に 応じて、 発信元の電話番号その他の情報が含まれており、 受信制御部 1 3 1は、 そのような情報を、 必要に応じて、 管理部 1 3 5や、 送信部 1 1 3 (の管理部' 1 2 7) に供給する。
復号部 1 3 2は、 受信制御部 1 3 2から供給される符号化音声データを、 管理 部 1 3 5から供給される高品質化データを用いて復号し、 これにより、 高品質の 復号音声データを得て、 D/A (Digital/Analog)変換部 1 3 3に供給する。
D/A変換部 1 3 3は、 復号部 1 3 2が出力するディジタルの復号音声データ を D/A変換し、 その結果得られるアナログの音声信号を、 スピーカ 1 34に供 給する。 スピーカ 1 34は、 DZA変換部 1 3 3からの音声信号に対応する音声 を出力する。
管理部 1 3 5は、 高品質化データの管理を行う。 即ち、 管理部 1 3 5は、 着呼 時に、 受信制御部 1 3 1から、 発信元の電話番号を受信し、 その電話番号に基づ いて、 記憶部 1 3 6またはデフォルトデータメモリ 1 3 7に記憶された高品質化 データを選択し、 復号部 1 3 2に供給する。 また、 管理部 1 3 5は、 受信制御部 1 3 1から、 最新の高品質化データを受信し、 その最新の高品質化データによつ て、 記憶部 1 3 6の記憶内容を更新する。
記億部 1 3 6は、 例えば、 書き換え可能な E E P R OM (Electrically Erasable Programmable Read-only Memory)で構成され、 管理部 1 3 5力 ら供 給される高品質化データを、 その高品質化データを送信してきた発信元を特定す る特定情報としての、 例えば、 その発信元の電話番号と対応付けて記憶する。 デフォルトデータメモリ 1 3 7は、 例えば、 ROM (Read-only Memory) で 構成され、 デフォルトの高品質化データを、 あらかじめ記憶している。 3 008825
15
以上のように構成される受信部 1 1 4では、 着呼があると、 受信制御部 1 3 1 は、 そこに供給される受信データを受信し、 その受信データに含まれる発信元の 電話番号を、 管理部 1 3 5に供給する。 管理部 1 3 5は、 例えば、 受信制御部 1 3 1から発信元の電話番号を受信し、 音声通話が可能な状態となると、 その音声 通話で用いる高品質化データを設定する高品質化データ設定処理を、 図 5のフロ 一チヤ一トにしたがって行う。
即ち、 高品質化データ設定処理では、 まず最初に、 ステップ S 1 4 1において、 管理部 1 3 5は、 発信元の電話番号を、 記憶部 1 3 6から検索し、 ステップ S 1 4 2に進む。 ステップ S 1 4 2では、 管理部 1 3 5は、 ステップ S 1 4 1の検索 によって、 発信元の電話番号が見つかったかどうカゝ (記憶部 1 3 6に記憶されて いるかどう力 を判定する。
ステップ S 1 4 2において、 発信元の電話番号が見つかつたと判定された場合、 ステップ S 1 4 3に進み、 管理部 1 3 5は、 記憶部 1 3 6に記憶されている高品 質化データの中から、 発信元の電話番号に対応付けられている高品質化データを 選択し、 復号部 1 3 2に供給、 設定して、 高品質化データ設定処理を終了する。 また、 ステップ S 1 4 2において、 発信元の電話番号が見つからなかったと判 定された場合、 ステップ S 1 4 4に進み、 管理部 1 3 5は、 デフォルトデ一タメ モリ 1 3 7から、 デフォルトの高品質化データ (以下、 適宜、 デフォルトデータ という) を読み出し、 復号部 1 3 2に供給、 設定して、 高品質化データ設定処理 を終了する。
なお、 図 5の実施の形態では、 発信元の電話番号が見つかった場合、 即ち、 発 信元の電話番号が、 記憶部 1 3 6に記憶されている場合に、 その発信元の電話番 号に対応付けられている高品質化データを、 復号部 1 3 2に設定するようにした 力 S、 操作部 1 1 5 (図 2 ) を操作することにより、 発信元の電話番号が見つかつ た場合であっても、 デフォルトデータを、 復号部 1 3 2に設定するように、 管理 部 1 3 5を制御することが可能である。
以上のようにして、 高品質化データが、 復号部 1 3 2に設定された後、 受信制 御部 1 3 1に対し、 受信データとして、 発信元から送信されてきた符号化音声デ ータの供給が開始されると、 その符号化音声データは、 受信制御部 1 3 1から復 号部 1 3 2に供給される。 復号部 1 3 2は、 受信制御部 1 3 1から供給される、 発信元から送信されてきた符号化音声データを、 着呼直後に行われた図 5の高品 質化データ設定処理で設定された高品質化データ、 即ち、 発信元の電話番号と対 応付けられている高品質化データに基づいて復号し、 復号音声データを出力する。 この復号音声データは、 復号部 1 3 2から、 D ZA変換部 1 3 3を介してスピー 力 1 3 4に供給されて出力される。
一方、 受信制御部 1 3 1は、 受信データとして、 発信元から送信されてきた高 品質化データを受信すると、 その高品質化データを、 管理部 1 3 5に供給する。 管理部 1 3 5は、 受信制御部 1 3 1から供給される高品質化データを、 その高品 質化データを送信してきた発信元の電話番号と対応付け、 記憶部 1 3 6に供給し て BD'I© せる。
ここで、 上述のように、 記憶部 1 3 5において、 発信元の電話番号と対応付け られて記憶される高品質化データは、 発信元の送信部 1 1 3 (図 3 ) の学習部 1 2 5において、 その発信元のユーザの音声に基づいて学習を行うことにより得ら れたものであり、 発信元のユーザの音声を符号化した符号化音声データを、 高品 質の復号音声データに復号するものである。
そして、 受信部 1 1 4の復号部 1 3 2では、 発信元から送信されてきた符号化 音声データが、 発信元の電話番号と対応付けられている高品質化データに基づい て復号されるので、 発信元から送信されてきた符号化音声データに適した復号処 理 (その符号化音声データに対応する音声を発話したユーザの音声の特性ごとに 異なる復号処理) が施されることになり、 高品質の復号音声データを得ることが できる。
ところで、 上述のように、 発信元から送信されてきた符号化音声データに適し た復号処理を施すことにより、 高品質の復号音声データを得るには、 復号部 1 3 2において、 その発信元の送信部 1 1 3 (図 3 ) の学習部 1 2 5で学習された高 品質化データを用いて処理を行う必要があり、 さらに、 そのためには、 記憶部 1 3 6に、 その高品質符号化データが、 発信元の電話番号と対応付けて記憶されて いる必要がある。
そこで、 発信元 (送信側) の送信部 1 1 3 (図 3 ) は、 学習により得られた最 新の高品質化データを、 着信側 (受信側) に送信する高品質化データ送信処理を 行い、 着信側の受信部 1 1 4は、 発信元において、 その高品質化データ送信処理 が行われることにより送信されてくる高品質化データによって、 記憶部 1 3 6の 記憶内容を更新する高品質化データ更新処理を行うようになっている。
そこで、 いま、 例えば、 携帯電話機 1 0 1 を発信元とするとともに、 携帯電 話機 1 0 1 2を着信側として、 高品質化データ送信処理と、 高品質化データ更新 処理について説明する。
図 6は、 高品質化データ送信処理の第 1実施の形態を示すフローチャートであ る。
発信元である携帯電話機 1 0 1 iでは、 ユーザが、 操作部 1 1 5 (図 2 ) を操 作して、 着信側としての携帯電話機 1 0 1 2の電話番号を入力すると、 送信部 1 1 3において、 高品質化データ送信処理が開始される。
即ち、 高品質化データ送信処理では、 まず最初に、 ステップ S 1において、 送 信部 1 1 3 (図 3 ) の送信制御部 1 2 4が、 操作部 1 1 5が操作されることによ り入力された携帯電話機 1 0 1 2の電話番号を、 送信データとして出力すること 〖こより、 携帯電話機 1 0 1 2の呼び出しが行われる。
そして、 携帯電話機 1 0 1 2のユーザが、 携帯電話機 1 0 1 iからの呼び出し に応じて、 操作部 1 1 5を操作することにより、 携帯電話機 1 0 1 2をオフフッ ク状態にすると、 ステップ S 2に進み、 送信制御部 1 2 4は、 着信側の携帯電話 機 1 0 1 2との間の通信リンクを確立し、 ステップ S 3に進む。
ステップ S 3では、 管理部 1 2 7が、 記憶部 1 2 6に記憶された高品質化デー タの更新の状況を表す更新情報を、 送信制御部 1 2 4に送信し、 送信制御部 1 2 4は、 その更新情報を、 送信データとして選択、 出力して、 ステップ S 4に進む。 ここで、 学習部 1 2 5は、 学習を行って、 新たな高品質化データを得ると、 例 えば、 その高品質化データを得た日時 (年月を含む) を、 その高品質化データと 対応付けて、 記憶部 1 2 6に記憶させるようになつており、 更新情報としては、 この高品質化データと対応付けられている日時を用いることができる。
着信側の携帯電話機 1 0 1 2は、 発信元の携帯電話機 1 0 1 から更新情報を 受信すると、 後述するように、 最新の高品質化データが必要な場合は、 その送信 を要求する転送要求を送信してくるので、 ステップ S 4において、 管理部 1 2 7 は、 着信側の携帯電話機 1 0 1 2から転送要求が送信されてきたかどうかを判定 する。
ステップ S 4において、 転送要求が送信されてきていないと判定された場合、 即ち、 携帯電話機 1 0 1 の受信部 1 1 4の受信制御部 1 3 1において、 受信デ ータとして、 着信側の携帯電話機 1 0 1 2からの転送要求が受信されなかった場 合、 ステップ S 5をスキップして、 ステップ S 6に進む。
また、 ステップ S 4において、 転送要求が送信されてきたと判定された場合、 即ち、 携帯電話機 1 0 1 の受信部 1 1 4の受信制御部 1 3 1において、 受信デ ータとして、 着信側の携帯電話機 1 0 1 2からの転送要求が受信され、 その転送 要求が、 送信部 1 1 3の管理部 1 2 7に供給された場合、 ステップ S 5に進み、 管理部 1 2 7は、 記憶部 1 2 6から最新の高品質化データを読み出し、 送信制御 部 1 2 4に供給する。 さらに、 ステップ S 5では、 送信制御部 1 2 4が、 管理部 1 2 7からの最新の高品質化データを選択し、 送信データとして送信する。 なお、 高品質化データは、 その高品質化データが学習によって得られた S時、 即ち、 更 新情報とともに送信されるようになっている。
その後、 ステップ S 5から S 6に進み、 管理部 1 2 7は、 準備完了通知が、 着 信側の携帯電話機 1 0 1 2から送信されてきたかどうかを判定する。
即ち、 着信側の携帯電話機 1 0 1 2は、 通常の音声通話が可能な状態となると、 音声通話の準備が完了したことを表す準備完了通知を送信するようになっており、 ステップ S 6では、 そのような準備完了通知が、 携帯電話機 1 0 1 2から送信さ れてきたかどうかが判定される。
ステップ S 6において、 準備完了通知が送信されてきていないと判定された場 合、 即ち、 携帯電話機 1 0 1 iの受信部 1 1 4の受信制御部 1 3 1において、 受 信データとして、 着信側の携帯電話機 1 0 1 2からの準備完了通知が受信されて いない場合、 ステップ S 6に戻り、 準備完了通知が送信されてくるまで待つ。 そして、 ステップ S 6において、 準備完了通知が送信されてきたと判定された 場合、 即ち、 携帯電話機 1 0 の受信部 1 1 4の受信制御部 1 3 1において、 受信データとして、 着信側の携帯電話機 1 0 1 2からの準備完了通知が受信され、 その準備完了通知が、 送信部 1 1 3の管理部 1 2 7に供給された場合、 ステップ S 7に進み、 送信制御部 1 2 4は、 符号化部 1 2 3の出力を選択することにより、 音声通話が可能な状態、 即ち、 符号化部 1 2 3が出力する符号化音声データを、 送信データとして選択する伏態となつて、 高品質化データ送信処理を終了する。 . 次に、 図 7のフローチャートを参照して、 発信側の携帯電話機 1 0 1 で図 6 の高品質化データ送信処理が行われる場合の、 着信側の携帯電話機 1 0 1 2によ る高品質化データ更新処理について説明する。
着信側の携帯電話機 1 0 1 2では、 例えば、 着呼があると、 受信部 1 1 4 (図 4 ) において、 高品質化データ更新処理が開始される。
即ち、 高品質化データ更新処理では、 まず最初に、 ステップ S 1 1において、 受信制御部 1 3 1が、 ユーザが操作部 1 1 5を操作することによりオフフック状 態とされたかどうかを判定し、 オフフック状態とされていないと判定した場合、 ステップ S 1 1に戻る。
また、 ステップ S 1 1において、 オフフック状態とされたと判定された場合、 ステップ S 1 2に進み、 受信制御部 1 3 1は、 発信側の携帯電話機 1 0 1 1との 通信リンクを確立し、 ステップ S 1 3に進む。
ステップ S 1 3では、 図 6のステップ S 3で説明したように、 発信側の携帯電 話機 1 0 1 から更新情報が送信されてくるので、 受信制御部 1 3 1は、 この更 新情報を含む受信データを受信し、 管理部 1 3 5に供給する。 管理部 1 3 5は、 ステップ S 1 4において、 発信側の携帯電話機 1 0 1 iから 受信した更新情報を参照し、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 のュ 一ザについての最新の高品質化データが記憶されているかどうかを判定する。 即ち、 図 1の伝送システムにおける通信では、 発信側の携帯電話機 1 0 1 (または 1 0 1 2 ) から、 着信側の携帯電話機 1 0 1 2 (または 1 0 1 J の着呼 時に、 発信側の携帯電話機 1 0 1 iの電話番号が送信されるようになっており、 この電話番号は、 受信データとして、 受信制御部 1 3 1で受信され、 管理部 1 3 5に供給されるようになっている。 管理部 1 3 5は、 その発信側である携帯電話 機 1 ◦ 1 の電話番号と対応付けられている高品質化データが、 記憶部 1 3 6に 既に記憶されているかどうか、 さらに、 記憶されている場合には、 その記憶され ている高品質化データが最新のものかどうかを調査することにより、 ステップ S 1 4の判定処理を行う。
ステップ S 1 4において、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 iのュ 一ザについての最新の高品質化データが記憶されていると判定された場合、 即ち、 記憶部 1 3 6に、 発信元の携帯電話機 1 0 1ェの電話番号と対応付けられている 高品質化データが記憶されており、 その高品質化データに対応付けられている更 新情報が表す日時が、 ステップ S 1 3で受信された更新情報が表す日時と一致す る場合、 記憶部 1 3 6における、 発信元の携帯電話機 1 0 1ェの電話番号と対応 付けられている高品質化データを更新する必要はないので、 ステップ S 1 5乃至 S 1 8をスキップして、 ステップ S 1 9に進む。
ここで、 図 6のステップ S 5で説明したように、 発信側の携帯電話機 1 0 1 i は、 高品質化データを、 その更新情報とともに送信してくるようになっており、 着信側の携帯電話機 1 0 1 2の管理部 1 3 5は、 発信側の携帯電話機 1 0 1 iか らの高品質化データを記憶部 1 3 6に記憶させる場合、 その高品質化データに、 その高品質化データとともに送信されてくる更新情報を対応付けて記憶させるよ うになつている。 ステップ S 1 4では、 このようにして、 記憶部 1 3 6に記憶さ れている高品質化データに対応付けられている更新情報と、 ステップ S 1 3で受 信された更新情報とを比較することにより、 記憶部 1 3 6に記憶されている高品 質化データが最新のものであるかどうかが判定される。
一方、 ステップ S 1 4において、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 のユーザについての最新の高品質化データが記憶されていないと判定された場 合、 即ち、 記憶部 1 3 6に、 発信元の携帯電話機 1 0 の電話番号と対応付け られている高品質化データが記憶されていないか、 または記憶されていても、 そ の高品質化データに対応付けられている更新情報が表す S時が、 ステップ S 1 3 で受信された更新情報が表す日時よりも過去を表す (古い) ものである場合、 ス テツプ S 1 5に進み、 管理部 1 3 5は、 最新の高品質化データへの更新が禁止さ れているかどうかを判定する。
即ち、 例えば、 ユーザは、 操作部 1 1 5を操作することにより、 高品質化デー タの更新を行わないように、 管理部 1 3 5を設定することが可能であり、 管理部 1 3 5は、 高品質化データの更新を行うかどうかの設定に基づいて、 ステップ S 1 5の判定処理を行う。
ステップ S 1 5において、 最新の高品質化データへの更新が禁止されていると 判定された場合、 即ち、 管理部 1 3 5が、 高品質化データの更新を行わないよう に設定されている場合、 ステップ S 1 6乃至 S 1 8をスキップして、 ステップ S 1 9に進む。
また、 ステップ S 1 5において、 最新の高品質化データへの更新が禁止されて いないと判定された場合、 即ち、 管理部 1 3 5が、 高品質化データの更新を行わ ないように設定されていない場合、 ステップ S 1 6に進み、 管理部 1 3 5は、 発 信元の携帯電話機 1 0 1 iに対して、 最新の高品質化データの送信を要求する転 送要求を、 送信部 1 1 3 (図 3 ) の送信制御部 1 2 4に供給する。 これにより、 送信部 1 1 3の送信制御部 1 2 4は、 転送要求を、 送信データとして送信する。 図 6のステップ S 4および S 5で説明したように、 転送要求を受信した発信元 の携帯電話機 1 0 1 iは、 最新の高品質化データを、 その更新情報とともに送信 してくるので、 受信制御部 1 3 1は、 ステップ S 1 7において、 その最新の高品 質化データおよび更新情報を含む受信データを受信し、 管理部 1 3 5に供給する。 管理部 1 3 5は、 ステップ S 1 8において、 ステップ S 1 7で得た最新の高品 質化データを、 着呼時に受信した発信側の携帯電話機 1 0 1 iの電話番号、 さら には、 その高品質化データとともに送信されてきた更新情報と対応付けて、 記憶 部 1 3 6に記憶させることにより、 記憶部 1 3 6の記憶内容を更新する。
即ち、 管理部 1 3 5は、 発信側の携帯電話機 1 0 1 の電話番号と対応付けら れた高品質化データが、 記憶部 1 3 6に記憶されていない場合には、 ステップ S 1 7で得た最新の高品質化データ、 着呼時に受信した発信側の携帯電話機 1 0 1 iの電話番号、 および更新情報 (最新の高品質化データの更新情報) を、 記憶部 1 3 6に、 新たに記憶させる。
また、 管理部 1 3 5は、 発信側の携帯電話機 1 0 1 iの電話番号と対応付けら れた高品質化データ (最新でない高品質化データ) 、 記憶部 1 3 6に記憶され ている場合には、 その高品質化データと、 その高品質化データに対応付けられて いる電話番号および更新情報に代えて、 ステップ S 1 7で得た最新の高品質化デ ータ、 着呼時に受信した発信側の携帯電話機 1 0 1ェの電話番号、 および更新情 報を、 記憶部 1 3 6に記憶させる (上書きする) 。
そして、 ステップ S 1 9に進み、 管理部 1 3 5は、 送信部 1 1 3の送信制御部 1 2 4を制御することにより、 音声通話の準備が完了したことを表す準備完了通 知を、 送信データとして送信させ、 ステップ S 2 0に進む。
ステップ S 2 0では、 受信制御部 1 3 1は、 そこに供給される受信データに含 まれる符号化音声データを復号部 1 3 2に出力する、 音声通話が可能な状態とな つて、 高品質化データ更新処理を終了する。
次に、 図 8は、 高品質化データ送信処理の第 2実施の形態を示すフローチヤ一 トである。
図 6における場合と同様に、 発信元である携帯電話機 1 0 1 では、 ユーザが、 操作部 1 1 5 (図 2 ) を操作して、 着信側としての携帯電話機 1 0 1 2の電話番 号を入力すると、 送信部 1 1 3において、 高品質化データ送信処理が開始される。 即ち、 高品質化データ送信処理では、 まず最初に、 ステップ S 3 1において、 送信部 1 1 3 (図 3) の送信制御部 1 24が、 操作部 1 1 5が操作されることに より入力された携帯電話機 10 12の電話番号を、 送信データとして出力するこ とにより、 携帯電話機 1 0 12の呼び出しが行われる。
そして、 携帯電話機 1 0 12のユーザが、 携帯電話機 1 0 1 iからの呼び出し に応じて、 操作部 1 1 5を操作することにより、 携帯電話機 1 0 12をオフフッ ク状態にすると、 ステップ S 32に進み、 送信制御部 1 24は、 着信側の携帯電 話機 1 0 12との間の通信リンクを確立し、 ステップ S 1 3に進む。
ステップ S 3 3では、 管理部 1 27は、 記憶部 1 26から最新の高品質化デー タを読み出し、 送信制御部 1 24に供給する。 さらに、 ステップ S 3 3では、 送 信制御部 1 24が、 管理部 1 27からの最新の高品質化データを選択し、 送信デ ータとして送信する。 なお、 高品質化データは、 上述したように、 その高品質化 データが学習によって得られた日時を表す更新情報とともに送信される。
その後、 ステップ S 3 3から S 34に進み、 管理部 1 2 7は、 図 6のステップ S 6における場合と同様に、 準備完了通知が、 着信側の携帯電話機 1 0 12から 送信されてきたかどうかを判定し、 準備完了通知が送信されてきていないと判定 した場合、 ステップ S 34に戻り、 準備完了通知が送信されてくるまで待つ。 そして、 ステップ S 34において、 準備完了通知が送信されてきたと判定され た場合、 ステップ S 35に進み、 送信制御部 1 24は、 図 6のステップ S 7にお ける場合と同様に、 音声通話が可能な状態となって、 高品質化データ送信処理を 終了する。
次に、 図 9のフローチャートを参照して、 発信側の携帯電話機 1 0 1 で図 8 の高品質化データ送信処理が行われる場合の、 着信側の携帯電話機 1 0 12によ る高品質化データ更新処理について説明する。
着信側の携帯電話機 1 0 12では、 図 7における場合と同様に、 着呼があると、 受信部 1 1 4 (図 4) において、 高品質化データ更新処理が開始され、 まず最初 に、 ステップ S 41において、 受信制御部 1 3 1が、 ユーザが操作部 1 1 5を操 作することによりオフフック状態としたかどうかを判定し、 オフフック状態とさ れていないと判定した場合、 ステップ S 4 1に戻る。
また、 ステップ S 4 1において、 オフフック状態とされたと判定された場合、 ステップ S 4 2に進み、 図 7のステップ S 1 2における場合と同様に、 通信リン クが確立され、 ステップ S 4 3に進む。 ステップ S 4 3では、 受信制御部 1 3 1 は、 発信側の携帯電話機 1 0 1 iから送信されてくる最新の高品質化データを含 む受信データを受信し、 管理部 1 3 5に供給する。
即ち、 図 8の高品質化データ送信処理では、 上述したように、 ステップ S 3 3 において、 携帯電話機 1 0 1 iが、 最新の高品質化データを、 更新情報とともに 送信してくるので、 ステップ S 4 3では、 その高品質化データと更新情報が受信 される。
その後、 ステップ S 4 4に進み、 管理部 1 3 5は、 図 7のステップ S 1 4にお ける場合と同様にして、 発信側の携帯電話機 1 0 1 から受信した更新情報を参 照し、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 のユーザについての最新の 高品質化データが記憶されているかどうかを判定する。
ステップ S 4 4において、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 iのュ 一ザについての最新の高品質化データが記憶されていると判定された場合、 ステ ップ S 4 5に進み、 管理部 1 3 5は、 ステップ S 4 3で受信した高品質化データ と更新情報を破棄し、 ステップ S 4 7に進む。
また、 ステップ S 4 4において、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 1のユーザについての最新の高品質化データが記憶されていないと判定された場 合、 ステップ S 4 6に進み、 管理部 1 3 5は、 図 7のステップ S 1 8における場 合と同様に、 ステップ S 4 3で得た最新の高品質化データを、 着呼時に受信した 発信側の携帯電話機 1 0 1 iの電話番号、 さらには、 その高品質化データととも に送信されてきた更新情報と対応付けて、 記憶部 1 3 6に記憶させることにより、 記憶部 1 3 6の記憶内容を更新する。
そして、 ステップ S 4 7に進み、 管理部 1 3 5は、 送信部 1 1 3の送信制御部 1 2 4を制御することにより、 音声通話の準備が完了したことを表す準備完了通 知を、 送信データとして送信させ、 ステップ S 4 8に進む。
ステップ S 4 8では、 受信制御部 1 3 1は、 そこに供給される受信データに含 まれる符号化音声データを復号部 1 3 2に出力する、 音声通話が可能な状態とな つて、 高品質化データ更新処理を終了する。
図 9の高品質化データ更新処理によれば、 着信側の携帯電話機 1 0 1 2におい て、 発信側の携帯電話機 1 0 1 のユーザについての最新の高品質化データが記 憶されていない限り、 必ず、 記憶部 1 3 6の記憶内容が更新されることになる。 次に、 図 1 0は、 高品質化データ送信処理の第 3実施の形態を示すフローチヤ ートである。
発信元である携帯電話機 1 0 1 では、 ユーザが、 操作部 1 1 5 (図 2 ) を操 作して、 着信側としての携帯電話機 1 0 1 2の電話番号を入力すると、 送信部 1
1 3 (図 3 ) において、 高品質化データ送信処理が開始され、 まず最初に、 ステ ップ S 5 1において、 管理部 1 2 7は、 操作部 1 1 5が操作されることにより入 力された電話番号に対応する携帯電話機 1 0 1 2への高品質化データの送信履歴 を検索する。
即ち、 図 1 0の実施の形態では、 管理部 1 2 7は、 後述するステップ S 5 8に おいて、 高品質化データを、 着信側へ送信した場合、 その高品質化データの送信 履歴として、 着信側の電話番号と、 送信した高品質化データの更新情報を、 その 内蔵するメモリ (図示せず) に記憶しておくようになっており、 ステップ S 5 2 では、 そのような送信履歴の中から、 操作部 1 1 5が操作されることにより入力 された着信側の電話番号が記述されているものが検索される。
そして、 ステップ S 5 2に進み、 管理部 1 2 7は、 ステップ S 5 1での検索結 果に基づき、 着信側に対して、 最新の高品質化データが、 既に送信されているか どうかを判定する。
ステップ S 5 2において、 最新の高品質化データが、 着信側に対して送信され ていないと判定された場合、 即ち、 送信履歴の中に、 着信側の電話番号が記述さ れたものがなかったか、 または、 そのような送信履歴があっても、 その送信履歴 に記述されている更新情報が、 最新の高品質化データの更新情報と一致しない場 合、 ステップ S 5 3に進み、 管理部 1 2 7は、 最新の高品質化データを送信すベ きであるかどうかを表す転送フラグをオン状態にして、 ステップ S 5 5に進む。 また、 ステップ S 5 2において、 最新の高品質化データが、 着信側に対して、 既に送信されていると判定された場合、 即ち、 送信履歴の中に、 着信側の電話番 号が記述されたものがあり、 その送信履歴に記述されている更新情報が、 最新の 更新情報と一致する場合、 ステップ S 5 4に進み、 管理部 1 2 7は、 転送フラグ をオフ状態にして、 ステップ S 5 5に進む。
ステップ S 5 5では、 送信制御部 1 2 4力 操作部 1 1 5が操作されることに より入力された着信側である携帯電話機 1 0 1 2の電話番号を、 送信データとし て出力することにより、 携帯電話機 1 0 1 2の呼び出しが行われる。
そして、 携帯電話機 1 0 1 2のユーザが、 携帯電話機 1 0 1 iからの呼び出し に応じて、 操作部 1 1 5を操作することにより、 携帯電話機 1 0 1 2をオフフッ ク状態にすると、 ステップ S 5 6に進み、 送信制御部 1 2 4は、 着信側の携帯電 話機 1 0 1 2との間の通信リンクを確立し、 ステップ S 5 7に進む。
ステップ S 5 7では、 管理部 1 2 7は、 転送フラグがオン状態になっているか どうかを判定し、 オン状態になっていないと判定した場合、 即ち、 転送フラグが オフ状態になっている場合、 ステップ S 5 8をスキップして、 ステップ S 5 9に 進む。
また、 ステップ S 5 7において、 転送フラグがオン状態になっていると判定さ れた場合、 ステップ S 5 8に進み、 管理部 1 2 7は、 記憶部 1 2 6から最新の高 品質化データと更新情報を読み出し、 送信制御部 1 2 4に供給する。 さらに、 ス テツプ S 5 8では、 送信制御部 1 2 4が、 管理部 1 2 7からの最新の高品質化デ ータと更新情報を選択し、 送信データとして送信する。 さらに、 ステップ S 5 8 では、 管理部 1 2 7は、 最新の高品質化データを送信した携帯電話機 1 0 1 2の 電話番号 (着信側の電話番号) と、 その更新情報を、 送信履歴として記憶し、 ス テツプ S 5 9に進む。
ステップ S 5 9では、 管理部 1 2 7は、 図 6のステップ S 6における場合と同 様に、 準備完了通知が、 着信側の携帯電話機 1 0 1 2から送信されてきたかどう かを判定し、 送信されてきていないと判定した場合、 ステップ S 5 9に戻り、 準 備完了通知が送信されてくるまで待つ。
そして、 ステップ S 5 9において、 準備完了通知が送信されてきたと判定され た場合、 ステップ S 6 0に進み、 送信制御部 1 2 4は、 音声通話が可能な状態と なって、 高品質化データ送信処理を終了する。
次に、 図 1 1のフローチャートを参照して、 発信側の携帯電話機 1 0 1 ,で図 1 0の高品質化データ送信処理が行われる場合の、 着信側の携帯電話機 1 0 1 2 による高品質化データ更新処理について説明する。
着信側の携帯電話機 1 0 1 2では、 例えば、 着呼があると、 受信部 1 1 4 (図 4 ) において、 高品質化データ更新処理が開始される。
即ち、 高品質化データ更新処理では、 まず最初に、 ステップ S 7 1において、 受信制御部 1 3 1力 ユーザが操作部 1 1 5を操作することによりオフフック状 態とされたかどうかを判定し、 オフフック状態とされていないと判定した場合、 ステップ S 7 1に戻る。
また、 ステップ S 7 1において、 オフフック状態とされたと判定された場合、 ステップ S 7 2に進み、 受信制御部 1 3 1は、 発信側の携帯電話機 1 0 1 iとの 通信リンクを確立し、 ステップ S 7 3に進む。
ステップ S 7 3では、 受信制御部 1 3 1が、 高品質化データが送信されてきた かどうかを判定し、 送信されてこなかったと判定した場合、 ステップ S 7 4およ び S 7 5をスキップして、 ステップ S 7 6に進む。
また、 ステップ S 7 3において、 高品質化データが送信されてきたと判定され た場合、 即ち、 図 1 0のステップ S 5 8において、 発信側の携帯電話機 1 0 1 から、 最新の高品質化データおよび更新情報が送信された場合、 ステップ S 7 4 に進み、 受信制御部 1 3 1は、 その最新の高品質化データおよび更新情報を含む 受信データを受信し、 管理部 1 3 5に供給する。
管理部 1 3 5は、 ステップ S 7 5において、 図 7のステップ S 1 8における場 合と同様に、 ステップ S 7 4で得た最新の高品質化データを、 着呼時に受信した 発信側の携帯電話機 1 0 1 iの電話番号、 さらには、 その高品質化データととも に送信されてきた更新情報と対応付けて、 記憶部 1 3 6に記憶させることにより、 記憶部 1 3 6の記憶内容を更新する。
そして、 ステップ S 7 6に進み、 管理部 1 3 5は、 送信部 1 1 3の送信制御部 1 2 4を制御することにより、 音声通話の準備が完了したことを表す準備完了通 知を、 送信データとして送信させ、 ステップ S 7 7に進む。
ステップ S 7 7では、 受信制御部 1 3 1は、 音声通話が可能な状態となって、 高品質化データ更新処理を終了する。
次に、 図 6乃至図 1 1で説明した高品質化データ送信処理または高品質化デー タ更新処理は、 発呼時または着呼時に行われるが、 高品質化データ送信処理また は高品質化データ更新処理は、 その他、 任意のタイミングで行うことも可能であ る。
そこで、 図 1 2は、 発信側としての携帯電話機 1 0 1 において、 例えば、 最 新の高品質化データが学習により得られた後に、 送信部 1 1 3 (図 3 ) で行われ る高品質化データ送信処理を示すフローチヤ一トである。
まず最初に、 ステップ S 8 1において、 管理部 1 2 7は、 電子メールのメッセ ージとして、 記憶部 1 2 6に記憶された最新の高品質化データとその更新情報、 および自身の電話番号を配置し、 ステップ S 8 2に進む。
ステップ S 8 2では、 管理部 1 2 7は、 最新の高品質化データ、 その更新情報、 自身の電話番号をメッセージとして配置した電子メール (以下、 適宜、 高品質化 データ送信用電子メールという) のサブジェク ト (件名) として、 その電子メー ルが、 最新の高品質化データを含むものであることを表すものを配置する。 即ち、 管理部 1 2 7は、 例えば、 「更新通知」 等を、 高品質化データ送信用電子メール のサブジェク トに配置する。 そして、 ステップ S 8 3に進み、 管理部 1 2 7は、 高品質化データ送信用電子 メールに、 その宛先となるメールアドレスを設定する。 ここで、 高品質化データ 送信用電子メールの宛先となるメールア ドレスとしては、 例えば、 過去に電子メ ールのやり とりをしたことがある相手のメールァドレスを記憶しておき、 そのメ ールア ドレスすべて、 あるいは、 そのメールアドレスのうちのユーザが指定した もの等を配置することが可能である。
その後、 ステップ S 8 4に進み、 管理部 1 2 7は、 高品質化データ送信用電子 メールを、 送信制御部 1 2 4に供給し、 送信データとして送信させ、 高品質化デ ータ送信処理を終了する。
以上のようにして送信された高品質化データ送信用電子メールは、 所定のサー バを経由して、 高品質化データ送信用電子メールの宛先に配置されたメールァド レスの端末で受信されることになる。
次に、 図 1 3のフローチャートを参照して、 発信側の携帯電話機 1 0 1 で図 1 2の高品質化データ送信処理が行われる場合の、 着信側の携帯電話機 1 0 1 2 による高品質化データ更新処理について説明する。
着信側の携帯電話機 1 0 1 2では、 例えば、 任意のタイミングや、 ユーザから の指示に応じて、 所定のメールサーバに対して、 電子メールの受信が要求され、 この要求が行われると、 受信部 1 1 4 (図 4 ) において、 高品質化データ更新処 理が開始される。
即ち、 まず最初に、 ステップ S 9 1において、 上述の電子メールの受信の要求 に応じてメールサーバから送信されてくる電子メールが、 受信データとして、 受 信制御部 1 3 1で受信され、 管理部 1 3 5に供給される。
管理部 1 3 5は、 ステップ S 9 2において、 受信制御部 1 3 1から供給された 電子メールのサブジェク トが、 最新の高品質化データを含むものであることを表 す 「更新通知」 であるかどうかを判定し、 「更新通知」 でないと判定した場合、 即ち、 電子メールが、 高品質化データ送信用電子メールではない場合、 高品質化 データ更新処理を終了する。 08825
30
また、 ステップ S 9 2において、 電子メールのサブジェク トが、 「更新通知」 であると判定された場合、 即ち、 電子メールが、 高品質化データ送信用電子メー ルである場合、 ステップ S 9 3に進み、 管理部 1 3 5は、 その高品質化データ送 信用電子メールのメッセージとして配置されている最新の高品質化データ、 更新 情報、 および発信側の電話番号を取得し、 ステップ S 9 4に進む。
ステップ S 9 4では、 管理部 1 3 5は、 図 7のステップ S 1 4における場合と 同様にして、 高品質化データ送信用電子メールから取得した更新情報および発信 側の電話番号を参照し、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 のユーザ についての最新の高品質化データが記憶されているかどうかを判定する。
ステップ S 9 4において、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 のュ 一ザについての最新の高品質化データが記憶されていると判定された場合、 ステ ップ S 9 5に進み、 管理部 1 3 5は、 ステップ S 9 3で取得した高品質化データ、 更新情報、 および電話番号を破棄し、 高品質化データ更新処理を終了する。
また、 ステップ S 9 4において、 記憶部 1 3 6に、 発信側の携帯電話機 1 0 1 iのユーザについての最新の高品質化データが記憶されていないと判定された場 合、 ステップ S 9 6に進み、 管理部 1 3 5は、 図 7のステップ S 1 8における場 合と同様に、 ステップ S 9 3で取得した高品質化データ、 更新情報、 および発信 側の携帯電話機 1 0 1 の電話番号を、 記憶部 1 3 6に記憶させることにより、 記憶部 1 3 6の記憶内容を更新し、 高品質化データ更新処理を終了する。
次に、 図 1 4は、 図 3の送信部 1 1 3における学習部 1 2 5の構成例を示して レヽる。
図 1 4の実施の形態においては、 学習部 1 2 5は、 本件出願人が先に提案した クラス分類適応処理に用いられるタップ係数を、 高品質化データとして学習する ようになっている。
クラス分類適応処理は、 クラス分類処理と適応処理とからなり、 クラス分類処 理によって、 データが、 その性質に基づいてクラス分けされ、 各クラスごとに適 応処理が施される。 ここで、 適応処理について、 低音質の音声 (以下、 適宜、 低音質音声という) を、 高音質の音声 (以下、 適宜、 高音質音声という) に変換する場合を例に説明 する。
この場合、 適応処理では、 低音質音声を構成する音声サンプル (以下、 適宜、 低音質音声サンプルという) と、 所定のタップ係数との線形結合により、 その低 音質音声の音質を向上させた高音質音声の音声サンプルの予測値を求めることで、 その低音質音声の音質を高く した音声が得られる。
具体的には、 例えば、 いま、 ある高音質音声データを教師データとするととも に、 その高音質音声の音質を劣化させた低音質音声データを生徒データとして、 高音質音声を構成する音声サンプル (以下、 適宜、 高音質音声サンプルという) yの予測値 E [y] を、 幾つかの低音質音声サンプル (低音質音声を構成する音 声サンプル) X l, X 2, · · ' の集合と、 所定のタップ係数 wい w2 ) · · · の線形結合により規定される線形 1次結合モデルにより求めることを考える。 こ の場合、 予測値 E [y] は、 次式で表すことができる。
E [ y ] =w1 x 1 + w2 x ^ + " · ·
• · · (1) 式 ( 1) を一般化するために、 タップ係数 の集合でなる行列 W、 生徒デー タ X i jの集合でなる行列 X、 および予測値 E [y j] の集合でなる行列 Y' を、 [数 1]
X" X12 X1J
X21 22 X2J
XII 12 XlJ
Figure imgf000033_0001
で定義すると、 次のような観測方程式が成立する, XW= Y
e
2 i (2) ここで、 行列 Xの成分 は、 i件目の生徒データの集合 ( i件目の教師デー タ y;の予測に用いる生徒データの集合) の中の j番目の生徒データを意味し、 行列 Wの成分 は、 生徒データの集合の中の j番目の生徒データとの積が演算 されるタップ係数を表す。 また、 Y iは、 i件目の教師データを表し、 従って、 E [y J は、 i件目の教師データの予測値を表す。 なお、 式 (1) の左辺にお ける yは、 行列 Yの成分 y iのサフィックス iを省略したものであり、 また、 式
( 1 ) の右辺における Xい X 2 ) · · · も、 行列 Xの成分 X i jのサフィックス iを省略したものである。
式 (2) の観測方程式に最小自乗法を適用して、 高音質音声サンプル yに近い 予測値 E [y] を求めることを考える。 この場合、 教師データとなる高音質音声 サンプルの真値 yの集合でなる行列 Y、 およぴ高音質音声サンプル yの予測値 E
[y] の残差 (真値 yに対する誤差) eの集合でなる行列 Eを、
[数 2]
Figure imgf000034_0001
で定義すると、 式 (2) から、 次のような残差方程式が成立する,
XW= Y+ E
(3) この場合、 高音質音声サンプル yに近い予測値 E [y] を求めるためのタップ 係数 W jは、 自乗誤差
[数 3]
I
i=1 を最小にすることで求めることができる。
従って、 上述の自乗誤差をタップ係数 W jで微分したものが 0になる場合、 即 ち、 次式を満たすタップ係数 w;が、 高音質音声サンプル yに近い予測値 E [y] を求めるため最適値ということになる。
[数 4] lf+ +· !¾ ^ 12,…,」)
• · · (4) そこで、 まず、 式 (3) を、 タップ係数 W jで微分することにより、 次式が成 立する。
[数 5]
=x , =xi2l ···, -^i- =Xij, (1=1,2,.· ·,Ι)
8w1 8w2 ' 8wj 11
• · · (5) 式 (4) および (5) より、 式 (6) が得られる。
[数 6]
Figure imgf000035_0001
• · · (6) さらに、 式 (3) の残差方程式における生徒データ x i;、 タップ係数 W j、 教 師データ y i、 および残差 e;の関係を考慮すると、 式 (6 ) から、 次のような 正規方程式を得ることができる。
[数 7] I I I I
(∑ ii ii)wi+(∑XiiXi2) 2-(--.-+(∑ iiXij)wj=(∑Xiiyi)
1»1 l i=1
(∑ i2Xil) l+(^Xi2 i2) 2+-.-+(∑Xi2 ij)Wj=(∑Xi2yi)
1=1 i=1 i 1
Figure imgf000036_0001
• · · (7) なお、 式 (7) に示した正規方程式は、 行列 (共分散行列) Aおよびべク トル Vを、
[数 8]
Figure imgf000036_0002
Figure imgf000036_0003
で定義するとともに、 ベク トル Wを、 数 1で示したように定義すると、 式 2003/008825
35
AW= v
• · · (8) で表すことができる。
式 (7) における各正規方程式は、 生徒データ X i;および教師データ y iのセ ッ トを、 ある程度の数だけ用意することで、 求めるべきタップ係数 W jの数 j と 同じ数だけたてることができ、 従って、 式 (8) を、 ベク トル Wについて解くこ とで (但し、 式 (8) を解くには、 式 (8) における行列 Aが正則である必要が ある) 、 最適なタップ係数 を求めることができる。 なお、 式 (8) を解くに あたっては、 例えば、 掃き出し法 (Gauss-Jordan の消去法) などを用いること が可能である。
以上のように、 生徒データと教師データを用いて、 最適なタップ係数 W jを求 める学習をしておき、 さらに、 そのタップ係数 W jを用い、 式 (1 ) により、 教 師データ yに近い予測値 E [y ] を求めるのが適応処理である。
なお、 適応処理は、 低音質音声には含まれていないが、 高音質音声に含まれる 成分が再現される点で、 単なる補間とは異なる。 即ち、 適応処理では、 式 ( 1 ) だけを見る限りは、 いわゆる補間フィルタを用いての単なる補間と同一に見える 力 その補間フィルタのタップ係数に相当するタップ係数 wが、 教師データ yを 用いての、 いわば学習により求められるため、 高音質音声に含まれる成分を再現 することができる。 このことから、 適応処理は、 いわば音声の創造作用がある処 理ということができる。
また、 上述の場合には、 高音質音声の予測値を、 線形一次予測するようにした 力 その他、 予測値は、 2以上の式によって予測することも可能である。
図丄 4の学習部 1 2 5は、 以上のようなクラス分類適応処理で用いられるタツ プ係数を、 高品質化データとして学習する。
即ち、 バッファ 1 4 1には、 八/0変換部1 2 2 (図 3 ) が出力する音声デー タが、 学習用のデータとして供給されるようになっており、 バッファ 1 4 1は、 その音声データを、 学習の教師となる教師データとして一時記憶する。 08825
36
生徒データ生成部 1 4 2は、 バッファ 1 4 1に記憶された教師データとしての 音声データから、 学習の生徒となる生徒データを生成する。
即ち、 生徒データ生成部 1 4 2は、 エンコーダ 1 4 2 Eとデコーダ 1 4 2 Dと から構成されている。 エンコーダ 1 4 2 Eは、 送信部 1 1 3 (図 3 ) の符号化部 1 2 3と同様に構成されており、 バッファ 1 4 1に記憶された教師データを、 符 号化部 1 2 3と同様にして符号化して、 符号化音声データを出力する。 デコーダ 1 4 2 Dは、 後述する図 1 6のデコーダ 1 6 1と同様に構成されており、 符号化 音声データを、 符号化部 1 2 3における符号化方式に対応する復号方式で復号し、 その結果得られる復号音声データを、 生徒データとして出力する。
なお、 ここでは、 教師データを、 符号化部 1 2 3における場合と同様に、 符号 化音声データに符号化し、 さらに、 その符号化音声データを復号することによつ て、 生徒データを生成するようにしたが、 その他、 生徒データは、 例えば、 教師 データとしての音声データを、 ローパスフィルタ等によってフィルタリングする ことで、 その音質を劣化させることにより生成すること等が可能である。
また、 生徒データ生成部 1 4 2を構成するエンコーダ 1 4 2 Eとしては、 符号 化部 1 2 3を用いることが可能であり、 さらに、 デコーダ 1 4 2 Dとしては、 後 述する図 1 6のデコーダ 1 6 1を用いることが可能である。
生徒データメモリ 1 4 3は、 生徒データ生成部 1 4 2のデコーダ 1 4 2 Dが出 力する生徒データを一時記憶する。
予測タップ生成部 1 4 4は、 バッファ 1 4 1に記憶された教師データの音声サ ンプノレを、 順次、 注目データとし、 さらに、 その注目データを予測するのに用い る生徒データとしての幾つかの音声サンプルを、 生徒データメモリ 1 4 3から読 み出すことにより、 予測タップ (注目データの予測値を求めるためのタップ) を 生成する。 この予測タップは、 予測タップ生成部 1 4 4から足し込み部 1 4 7に 供給される。
クラスタップ生成部 1 4 5は、 注目データをクラス分けするクラス分類に用い る生徒データとしての幾つかの音声サンプルを、 生徒データメモリ 1 4 3から読 み出すことにより、 クラスタップ (クラス分類に用いるタップ) を生成する。 こ のクラスタップは、 クラスタップ生成部 1 4 5からクラス分類部 1 4 6に供給さ れる。
ここで、 予測タップやクラスタップを構成する音声サンプルとしては、 例えば、 注目データとなっている教師データの音声サンプルに対応する生徒データの音声 サンプルに対して時間的に近い位置にある音声サンプルを用いることができる。 また、 予測タップとクラスタップを構成する音声サンプルとしては、 同一の音 声サンプルを用いることもできるし、 異なる音声サンプルを用いることも可能で ある。
クラス分類部 1 4 6は、 クラスタップ生成部 1 4 5からのクラスタップに基づ き、 注目データをクラス分類し、 その結果得られるクラスに対応するクラスコー ドを、 足し込み部 1 4 7に出力する。
ここで、 クラス分類を行う方法としては、 例えば、 ADRC (Adapt ive Dynamic
Range Coding)等を採用することができる。
ADRC を用いる方法では、 クラスタップを構成する音声サンプルが、 ADRC 処理 され、 その結果得られる ADRC コードにしたがって、 注目データのクラスが決定 される。
なお、 K ビット ADRC においては、 例えば、 クラスタップを構成する音声サン プルの最大値 MAX と最小値 MINが検出され、 DR=MAX-MINを、 集合の局所的なダ イナミックレンジとし、 このダイナミックレンジ DR に基づいて、 クラスタップ を構成する音声サンプルが K ビットに再量子化される。 即ち、 クラスタップを 構成する各音声サンプルから、 最小値 MINが減算され、 その減算値が DR/ 2 Kで 除算 (量子化) される。 そして、 以上のようにして得られる、 クラスタップを構 成する K ビットの各音声サンプルを、 所定の順番で並べたビッ ト列が、 ADRC コ ードとして出力される。 従って、 クラスタップが、 例えば、 1ビット ADRC 処理 された場合には、 そのクラスタップを構成する各音声サンプルは、 最小値 MIN が減算された後に、 最大値 MAX と最小値 MIN との平均値で除算され、 これによ り、 各音声サンプルが 1ビッ トとされる (2ィ直ィ匕される) 。 そして、 その 1ビッ トの音声サンプルを所定の順番で並べたビッ ト列が、 ADRC コードとして出力さ れる。
なお、 クラス分類部 1 4 6には、 例えば、 クラスタップを構成する音声サンプ ルのレベル分布のパターンを、 そのままクラスコードとして出力させることも可 能であるが、 この場合、 クラスタップが、 N個の音声サンプルで構成され、 各音 声サンプルに、 Kビットが割り当てられているとすると、 クラス分類部 1 4 6力 S 出力するクラスコードの場合の数は、 (2 N) K 通り となり、 音声サンプルのビ ッ ト数 Kに指数的に比例した膨大な数となる。
従って、 クラス分類部 1 4 6においては、 クラスタップの情報量を、 上述の ADRC 処理や、 あるいはべク トル量子化等によって圧縮してから、 クラス分類を 行うのが好ましい。
足し込み部 1 4 7は、 ノ ッファ 1 4 1から、 注目データとなっている教師デー タの音声サンプルを読み出し、 予測タップ生成部 1 4 4からの予測タップを構成 する生徒データ、 および注目データとしての教師データを対象とした足し込みを、 初期コンポーネント記憶部 1 4 8およびユーザ用コンポーネント記憶部 1 4 9の 記憶内容を必要に応じて用いながら、 クラス分類部 1 4 6から供給されるクラス ごとに行う。
即ち、 足し込み部 1 4 7は、 基本的には、 クラス分類部 1 4 6から供給される クラスコードに対応するクラスごとに、 予測タップ (生徒データ) を用い、 式 ( 8 ) の行列 Aにおける各コンポーネントとなっている、 生徒データどうしの乗 算 (x i n x i m) と、 サメーシヨ ン (∑) に相当する演算を行う。
さらに、 足し込み部 1 4 7は、 やはり、 クラス分類部 1 4 6から供給されるク ラスコードに対応するクラスごとに、 予測タップ (生徒データ) および注目デー タ (教師データ) を用い、 式 (8 ) のベク トル Vにおける各コンポーネントとな つている、 生徒データと教師データの乗算 (x i n y i ) と、 サメーシヨン (∑) に相当する演算を行う。 一方、 初期コンポーネント記憶部 1 4 8は、 例えば、 R OMで構成され、 あら かじめ用意された不特定多数の話者の音声データを学習用のデータとして学習を 行うことにより得られた、 式 (8 ) における行列 Aのコンポーネントと、 べク ト ル Vのコンポーネントを、 クラスごとに記憶している。
また、 ユーザ用コンポーネント記憶部 1 4 9は、 例えば、 E E P R O Mで構成 され、 足し込み部 1 4 7において前回の学習で求められた式 (8 ) における行列 Aのコンポーネントと、 ベク トル Vのコンポーネントを、 クラスごとに記憶する。 足し込み部 1 4 7は、 新たに入力された音声データを用いて学習を行う場合、 ユーザ用コンポーネント記憶部 1 4 9に記憶された、 前回の学習で求められた式 ( 8 ) における行列 Aのコンポーネントと、 ベク トノレ Vのコンポーネントを読み 出し、 その行列 Aまたはベク トル Vのコンポーネントに対して、 新たに入力され た音声データから得られる教師データ y iおよび生徒データ X in (xinj)を用いて計 算される、 対応するコンポーネント x in x imまたは x in y;を足し込むことにより (行列 A、 ベク トル Vにおけるサメーシヨンで表される加算を行うことにより) 、 各クラスについて、 式 (8 ) に示した正規方程式をたてる。
従って、 足し込み部 1 4 7では、 新たに入力された音声データだけではなく、 過去の学習に用いられた音声データにも基づいて、 式 (8 ) の正規方程式がたて られる。
なお、 学習部 1 2 5で、 初めて学習が行われる場合や、 ユーザ用コンポーネン ト記憶部 1 4 9がクリアされた直後等に学習が行われる場合おいては、 ユーザ用 コンポーネント記憶部 1 4 9には、 前回の学習で求められた行列 Aとべク トル V のコンポーネントは記憶されていないため、 式 (8 ) の正規方程式は、 ユーザか ら入力された音声データだけを用いてたてられることになる。
この場合、 入力される音声データのサンプル数が十分でないこと等に起因して、 タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じること があり得る。
そこで、 初期コンポーネント記憶部 1 4 8は、 あらかじめ用意された不特定十 分な数の話者の音声データを学習用のデータとして学習を行うことにより得られ た、 式 (8 ) .における行列 Aのコンポーネントと、 ベク トル Vのコンポーネント を、 クラスごとに記憶しており、 学習部 1 2 5は、 この初期コンポーネント記憶 部 1 4 8に記憶された行列 Aおよびべク トル Vのコンポ一ネントと、 入力された 音声データから得られる行列 Aおよびべク トル Vのコンポーネントとを必要に応 じて用いて、 式 (8 ) の正規方程式をたてることで、 タップ係数を求めるのに必 要な数の正規方程式が得られないクラスが生じることを防止するようになってい る。
足し込み部 1 4 7は、 新たに入力された音声データから得られた行列 Aおよび ベク トル Vのコンポーネントと、 ユーザ用コンポーネント記憶部 1 4 9 (または 初期コンポーネント記憶部 1 4 8 ) に記憶された行列 Aおよびべク トル Vのコン ポーネントと用いて、 新たに、 クラスごとの行列 Aおよびベク トル Vのコンポ一 ネントを求めると、 それらのコンポーネントを、 ユーザ用コンポーネント記憶部
1 4 9に供給し、 上書きする形で記憶させる。
さらに、 足し込み部 1 4 7は、 新たに求めたクラスごとの行列 Aおよびべク ト ル Vのコンポーネントで構成される式 (8 ) の正規方程式を、 タップ係数決定部
1 5 0に供給する。
その後、 タップ係数決定部 1 5 0は、 足し込み部 1 4 7から供給されるクラス ごとの正規方程式を解くことにより、 クラスごとに、 タップ係数を求め、 このク ラスごとのタップ係数を、 高品質化データとして、 その更新情報とともに、 記憶 部 1 2 6に供給し、 上書きする形で記憶させる。
次に、 図 1 5のフローチヤ一トを参照して、 図 1 4の学習部 1 2 5で行われる、 高品質化データとしてのタップ係数の学習処理について説明する。
例えば、 ユーザが通話時に行った発話、 あるいは任意のタイミングで行った発 話による音声データが、 0変換部 1 2 2 (図 3 ) からバッファ 1 4 1に供給 され、 ノくッファ 1 4 1は、 そこに供給される音声データを記憶する。
そして、 例えば、 ユーザが通話を終了すると、 あるいは、 発話を開始してから 所定時間が経過すると、 学習部 1 2 5は、 通話中に、 バッファ 1 4 1に記憶され た音声データ、 あるいは、 一連の発話を開始してから終了するまでに、 バッファ 1 4 1に記憶された音声データを、 新たに入力された音声データとして、 学習処 理を開始する。
即ち、 まず最初に、 生徒データ生成部 1 4 2は、 ステップ S 1 0 1において、 バッファ 1 4 1に記憶された音声データを教師データとして、 その教師データか ら生徒データを生成し、 生徒データメモリ 1 4 3に供給して記憶させ、 ステップ S 1 0 2に進む。
ステップ S 1 0 2では、 予測タップ生成部 1 4 4は、 ノくッファ 1 4 1に記憶さ れた教師データとしての音声サンプルのうち、 まだ注目データとしていないもの の 1つを注目データとして、 その注目データについて、 生徒データメモリ 1 4 3 に記憶された生徒データとしての音声サンプルの幾つかを読み出すことにより、 予測タップを生成して、 足し込み部 1 4 7に供給する。
さらに、 ステップ S 1 0 2では、 クラスタップ生成部 1 4 5力 S、 予測タップ生 成部 1 4 4における場合と同様にして、 注目データについて、 クラスタップを生 成し、 クラス分類部 1 4 6に供給する。
ステップ S 1 0 2の処理後は、 ステップ S 1 0 3に進み、 クラス分類部 1 4 6 力 クラスタップ生成部 1 4 5からのクラスタップに基づいて、 クラス分類を行 い、 その結果得られるクラスコードを、 足し込み部 1 4 7に供給する。
そして、 ステップ S 1 0 4に進み、 足し込み部 1 4 7は、 ノくッファ 1 4 1から 注目データを読み出し、 その注目データと、 予測タップ生成部 1 4 4からの予測 タップを用いて、 行列 Aとベク トル Vのコンポーネントを計算する。 さらに、 足 し込み部 1 4 7は、 ユーザ用コンポーネント記憶部 1 4 9に記憶された行列 Aと ベタ トル Vのコンポーネントのうち、 クラス分類部 1 4 6からのクラスコードに 対応するものに対して、 注目データと予測タップから求められた行列 Aとべタ ト ノレ Vのコンポーネントを足し込み、 ステップ S 1 0 5に進む。
ステップ S 1 0 5では、 予測タップ生成部 1 4 4が、 ノくッファ 1 4 1に、 まだ、 注目データとしていない教師データが存在するかどうかを判定し、 存在すると判 定した場合、 ステップ S 1 0 2に戻り、 まだ、 注目データとされていない教師デ ータを、 新たに注目データとして、 以下、 同様の処理が繰り返される。
また、 ステップ S 1 0 5において、 ノ ッファ 1 4 1に、 注目データとしていな い教師データが存在しないと判定された場合、 足し込み部 1 4 7は、 ユーザ用コ ンポーネント記憶部 1 4 9に記憶されたクラスごとの行列 Aおよびべク トル Vの コンポーネントで構成される式 (8 ) の正規方程式を、 タップ係数決定部 1 5 0 に供給し、 ステップ S 1 0 6に進む。
ステップ S 1 0 6では、 タップ係数決定部 1 5 0は、 足し込み部 1 4 7力、ら供 給される各クラスごとの正規方程式を解くことにより、 各クラスごとに、 タップ 係数を求める。 さらに、 ステップ S 1 0 6では、 タップ係数決定部 1 5 0は、 各 クラスごとのタップ係数を、 更新情報とともに、 記憶部 1 2 6に供給し、 上書き する形で記憶させ、 学習処理を終了する。
なお、 ここでは、 学習処理をリアルタイムで行わないようにしたが、 ハードウ. エアが十分な性能を有する場合には、 リアルタイムで行っても良い。
以上のように、 学習部 1 2 5では、 新たに入力された音声データと、 過去の学 習に用いられた音声データに基づく学習処理が、 通話時その他の任意のタイミン グで行われ、 これにより、 ユーザが発話を行うほど、 符号化音声データを、 その ユーザの音声に近い音声に復号することのできるタップ係数が求められる。 従つ て、 通話相手側において、 そのようなタップ係数を用いて、 符号化音声データの 復号を行うことにより、 ユーザの音声の特性に適した処理が施され、 十分に音質 を改善した復号音声データを得ることができ、 ユーザが携帯電話機 1 0 1を使い 込むことにより、 通話相手側において、 より品質の良い音声が出力されることに なる。
ここで、 送信部 1 1 3 (図 3 ) の学習部 1 2 5が図 1 4に示したように構成さ れる場合には、 高品質化データはタップ係数であるから、 受信部 1 1 4 (図 4 ) の記憶部 1 3 6には、 タップ係数が記憶される。 なお、 この場合、 受信部 1 1 4 のデフオルトデータメモリ 1 3 7には、 例えば、 図 1 4の初期コンポーネント記 憶部 1 4 8に記憶されたコンポーネントによる正規方程式を解くことによって得 られるクラスごとのタップ係数が、 デフォルトデータとして記憶される。
次に、 図 1 6は、 送信部 1 1 3 (図 3 ) の学習部 1 2 5が図 1 4に示したよう に構成される場合の、 受信部 1 1 4 (図 4 ) の復号部 1 3 2の構成例を示してい る。
デコーダ 1 6 1には、 受信制御部 1 3 1 (図 4 ) が出力する符号化音声データ が供給されるようになっており、 デコーダ 1 6 1は、 その符号化音声データを、 送信部 1 1 3 (図 3 ) の符号化部 1 2 3における符号化方式に対応する復号方式 で復号し、 その結果得られる復号音声データを、 バッファ 1 6 2に出力する。 バッファ 1 6 2は、 デコーダ 1 6 1が出力する復号音声データを一時記憶する。 予測タップ生成部 1 6 3は、 復号音声データの音質を向上させた音質向上デー タを、 順次、 注目データとして、 その注目データの予測値を、 式 (1 ) の線形一 次予測演算により求めるのに用いる予測タップを、 バッファ 1 6 2に記憶された 復号音声データのうちの幾つかの音声サンプルによって構成 (生成) し、 予測部 1 6 7に供給する。 なお、 予測タップ生成部 1 6 3は、 図 1 4の学習部 1 2 5に おける予測タップ生成部 1 4 4が生成するのと同一の予測タップを生成する。 クラスタップ生成部 1 6 4は、 バッファ 1 6 2に記憶された復号音声データの うちの幾つかの音声サンプルによって、 注目データについて、 クラスタップを構 成 (生成) し、 クラス分類部 1 6 5に供給する。 なお、 クラスタップ生成部 1 6 4は、 図 1 4の学習部 1 2 5におけるクラスタップ生成部 1 4 5が生成するのと 同一のクラスタップを生成する。
クラス分類部 1 6 5は、 クラスタップ生成部 1 6 4からのクラスタップを用い、 図 1 4の学習部 1 2 5におけるクラス分類部 1 4 6と同様のクラス分類を行い、 その結果得られるクラスコードを、 係数メモリ 1 6 6に供給する。
係数メモリ 1 6 6は、 管理部 1 3 5から供給される高品質化データとしてのク ラスごとのタップ係数を、 そのクラスに対応するアドレスに記憶する。 さらに、 係数メモリ 1 6 6は、 クラス分類部 1 6 5から供給されるクラスコードに対応す るア ドレスに記憶されているタップ係数を、 予測部 1 6 7に供給する。
予測部 1 6 7は、 予測タップ生成部 1 6 3が出力する予測タップと、 係数メモ リ 1 6 6が出力するタップ係数とを取得し、 その予測タップとタップ係数とを用 いて、 式 (1 ) に示した線形予測演算を行う。 これにより、 予測部 1 6 7は、 注 目データとしての音質向上データ (の予測値) を求め、 0 / 変換部1 3 3 (図 4 ) に供給する。
次に、 図 1 7のフローチヤ一トを参照して、 図 1 6の復号部 1 3 2の処理につ いて説明する。
デコーダ 1 6 1は、 受信制御部 1 3 1 (図 4 ) が出力する符号化音声データを 復号し、 その結果得られる復号音声データを、 バッファ 1 6 2に出力して記憶さ せている。
そして、 まず最初に、 ステップ S 1 1 1において、 予測タップ生成部 1 6 3力 復号音声データの音質を向上させた音質向上データのうち、 例えば、 時系列順で、 まだ注目データとしていない音声サンプルを、 注目データとし、 その注目データ について、 バッファ 1 6 2から復号音声データのうちの幾つかの音声サンプルを 読み出すことにより、 予測タップを構成して、 予測部 1 6 7に供給する。
さらに、 ステップ S 1 1 1では、 クラスタップ生成部 1 6 4力 ノくッファ 1 6 2に記憶された復号音声データのうちの幾つかの音声サンプルを読み出すことに より、 注目データについて、 クラスタップを構成し、 クラス分類部 1 6 5に供給 する。
クラス分類部 1 6 5は、 クラスタップ生成部 1 6 4からクラスタップを受信す ると、 ステップ S 1 1 2に進み、 そのクラスタップを用いてクラス分類を行い、 その結果得られるクラスコードを、 係数メモリ 1 6 6に供給して、 ステップ S 1 1 3に進む。
ステップ S 1 1 3では、 係数メモリ 1 6 6は、 クラス分類部 1 6 5からのクラ スコードに対応するァドレスに記憶されているタップ係数を読み出し、 予測部 1 6 7に供給して、 ステップ S 1 1 4に進む。
ステップ S 1 1 4では、 予測部 1 6 7は、 係数メモリ 1 6 6が出力するタップ 係数を取得し、 そのタップ係数と、 予測タップ生成部 1 6 3からの予測タップと を用いて、 式 ( 1 ) に示した積和演算を行い、 音質向上データ (の予測値) を得 る。
以上のようにして得られた音質向上データは、 予測部 1 6 7から、 D ZA変換 部 1 3 3 (図 4 ) を介して、 スピーカ 1 3 4に供給され、 これにより、 スピーカ 1 3 4からは、 高音質の音声が出力される。
即ち、 タップ係数は、 ユーザの音声を教師とするとともに、 その音声を符号化 し、 さらに復号したものを生徒として、 学習を行うことにより得られたものであ るので、 デコーダ 1 6 1が出力する復号音声データから、 元のユーザの音声を、 精度良く予測することを可能とするものであり、 従って、 スピーカ 1 3 4からは、 通信相手のユーザの音声の肉声により近い音声、 即ち、 デコーダ 1 6 1 (図 1 6 ) が出力する復号音声データの音質を向上させたものが出力されることになる。 ステップ S 1 1 4の処理後は、 ステップ S 1 1 5に進み、 まだ、 注目データと して処理すべき音質向上データがあるかどうかが判定され、 あると判定された場 合、 ステップ S 1 1 1に戻り、 以下、 同様の処理が繰り返される。 また、 ステツ プ S 1 1 5において、 注目データとして処理すべき音質向上データがないと判定 された場合、 処理を終了する。
なお、 携帯電話機 1 0 1!と 1 0 1 2との間で通話が行われる場合、 携帯電話 機 1 0 1 2では、 図 5で説明したことから、 高品質化データとしてのタップ係数 として、 通話相手である携帯電話機 1 0 1 の電話番号と対応付けられたもの、 即ち、 携帯電話機 1 0 1 iを所有するユーザの音声データを学習用のデータとし て学習したものが用いられる。 従って、 携帯電話機 1 0 1 から携帯電話機 1 0 1 2に対して送信されてくる音声が、 携帯電話機 1 0 1 iのユーザの音声であれ ば、 携帯電話機 1 0 1 2において、 携帯電話機 1 0 1 のユーザ用のタップ係数 を用いて復号が行われることにより、 高音質の音声が出力されることとなる。 しかしながら、 携帯電話機 1 0 1 iから携帯電話機 1 0 1 2に対して送信され てくる音声が、 携帯電話機 1 0 1 のユーザの音声でない場合、 即ち、 携帯電話 機 1 0 1 iの所有者でないユーザが、 携帯電話機 1 0 1 iを使用している場合、 携帯電話機 1 0 1 2では、 やはり、 携帯電話機 1 0 1 iのユーザ用のタップ係数 を用いて復号が行われることから、 その復号によって得られる音声は、 携帯電話 機 1 0 1 の真のユーザ (所有者) の音声における場合よりも、 音質が向上した ものにはならない。 即ち、 単純には、 携帯電話機 1 0 1 2では、 携帯電話機 1 0 1 丄を、 そのの所有者が使用していれば、 高音質の音声が出力され、 携帯電話機 1 0 1 を、 その所有者以外のユーザが使用している場合には、 あまり音質の良 い音声は出力されない。 この点に注目すれば、 携帯電話機 1 0 1によって、 簡易 な個人認証が可能であるということができる。
次に、 図 1 8は、 携帯電話機 1 0 1が、 例えば、 C E L P (Code Excited Liner Prediction coding)方式のものである場合の、 送信部 1 1 3 (図 3 ) を 構成する符号化部 1 2 3の構成例を示している。
AZD変換部 1 2 2 (図 3 ) が出力する音声データは、 演算器 3 と L P C (Liner Prediction Coefficient)分析部 4に供給される。
L P C分析部 4は、 0変換部1 2 2 (図 3 ) からの音声データを、 所定の 音声サンプルを 1フレームとして、 フレームごとに L P C分析し、 P次の線形予 測係数ひ い α 2 ) · · ■ , α Ρを求める。 そして、 L P C分析部 4は、 この P次 の線形予測係数 αρ ( ρ = 1 , 2, · · · , Ρ) を要素とするベク トルを、 音声 の特徴べク トルとして、 ベタ トル量子化部 5に供給する。
ベタ トル量子化部 5は、 線形予測係数を要素とするコードべク トノレとコードと を対応付けたコードブックを記憶しており、 そのコードブックに基づいて、 L P C分析部 4からの特徴べク トル αをべク トル量子化し、 そのべク トル量子化の結 果得られるコード (以下、 適宜、 Αコード(A_code)という) を、 コード決定部 1 5に供給する。
さらに、 ベク トル量子化部 5は、 Aコードに対応するコードベク トルひ' を構 成する要素となっている線形予測係数 α , α 2' , · · · , α Ρ' を、 音声合 成フィルタ 6に供給する。
音声合成フィルタ 6は、 例えば、 I I R (Infinite Impulse Response)型の ディジタルフィルタで、 ベク トル量子化部 5からの線形予測係数 αρ' (ρ = 1 , 2, · ■ · , Ρ) を I I Rフィルタのタップ係数とするとともに、 演算器 1 4か ら供給される残差信号 eを入力信号として、 音声合成を行う。
即ち、 L P C分析部 4で行われる L P C分析は、 現在時刻 nの音声データ (の サンプル値) s n、 およびこれに隣接する過去の P個のサンプル値 s 。— い s „.
2 , · · · , S π一 pに、 式
s n+ a 1 s n_1 + o; 2 s n-2 _'~ " · ' + a p s n_P = en
• · · ( 9 ) で示す線形 1次結合が成立すると仮定し、 現在時刻 nのサンプル値 s nの予測値 (線形予測値) s n' を、 過去の P個の標本値 s n- 1 , s n2, ■ ■ · , s n-Pを用い て、 式
S n =― ( ひ l S n- l + a 2 S n-2 + . , · + ひ P S n - P)
• · · ( 1 0) によつて線形予測したときに、 実際のサンプル値 s„ と線形予測値 s π, との間の 自乗誤差を最小にする線形予測係数 αρを求めるものである。
ここで、 式 (9 ) において、 {en} ( · · · , en—い en, en+ 1 , · ■ ■ ) は、 平均値が 0で、 分散が所定値 σ 2の互いに無相関な確率変数である。
式 (9 ) から、 サンプル値 s nは、 式
s n = en— ( x s n_1 + a 2 s + · · · + a P s n_P
… ( 1 1) で表すことができ、 これを、 z変換すると、 次式が成立する。
S = E/ ( 1 + a z— 1 + a 2 z— 2 + · · · + a P z— p)
• · · ( 1 2) 但し、 式 ( 1 2) において、 Sと Eは、 式 (1 1 ) における s nと enの Z変換を- それぞれ表す。
ここで、 式 (9) および ( 1 0) から、 enは、 式
e n= s n— s„
• · · ( 1 3) で表すことができ、 実際のサンプル値 sn と線形予測値 sn' との間の残差信号と 呼ばれる。
従って、 式 (1 2) から、 線形予測係数 αρを I I Rフィルタのタップ係数と するとともに、 残差信号 enを I I Rフィルタの入力信号とすることにより、 音 声データ snを求めることができる。
そこで、 音声合成フィルタ 6は、 上述したように、 ベク トル量子化部 5からの 線形予測係数ひ ρ' をタップ係数とするとともに、 演算器 1 4から供給される残 差信号 eを入力信号として、 式 ( 1 2) を演算し、 音声データ (合成音データ) s s 求める。
なお、 音声合成フィルタ 6では、 L P C分析部 4による L P C分析の結果得ら れる線形予測係数 αρではなく、 そのベク トル量子化の結果得られるコードに対 応するコードベク トルとしての線形予測係数 αρ' が用いられるため、 音声合成 フィルタ 6が出力する合成音信号は、 0変換部1 2 2 (図 3) が出力する音 声データとは、 基本的に同一にはならない。
音声合成フィルタ 6が出力する合成音データ s sは、 演算器 3に供給される。 演算器 3は、 音声合成フィルタ 6からの合成音データ s sから、 AZD変換部 1 2 2 (図 3) が出力する音声データ sを減算し、 その減算値を、 自乗誤差演算部 7に供給する。 自乗誤差演算部 7は、 演算器 3からの減算値の自乗和 (第 kフレ —ムのサンプル値についての自乗和) を演算し、 その結果得られる自乗誤差を、 自乗誤差最小判定部 8に供給する。
自乗誤差最小判定部 8は、 自乗誤差演算部 7が出力する自乗誤差に対応付けて, 長期予測ラグを表すコードとしての Lコード(L_code)、 ゲインを表すコードと しての Gコード(G_code)、 および符号語 (励起コードブック) を表すコードと しての I コード(I_code)を記憶しており、 自乗誤差演算部 7が出力する自乗誤 差に対応する Lコード、 Gコード、 および I コードを出力する。 Lコードは、 適応コードブック記憶部 9に、 Gコードは、 ゲイン復号器 1 0に、 Iコードは、 励起コードブック記憶部 1 1に、 それぞれ供給される。 さらに、 Lコード、 Gコ ード、 および I コードは、 コード決定部 1 5にも供給される。
適応コードブック記憶部 9は、 例えば 7ビットの Lコードと、 所定の遅延時間 (ラグ) とを対応付けた適応コードブックを記憶しており、 演算器 1 4から供給 される残差信号 eを、 自乗誤差最小判定部 8から供給される Lコードに対応付け られた遅延時間 (長期予測ラグ) だけ遅延して、 演算器 1 2に出力する。
ここで、 適応コードブック記憶部 9は、 残差信号 eを、 Lコードに対応する時 間だけ遅延して出力することから、 その出力信号は、 その遅延時間を周期とする 周期信号に近い信号となる。 この信号は、 線形予測係数を用いた音声合成におい て、 主として、 有声音の合成音を生成するための駆動信号となる。 従って、 Lコ ードは、 概念的には、 音声のピッチ周期を表す。 なお、 CELP の規格によれば、 レコードは、 2 0乃至 1 4 6の範囲の整数値をとる。
ゲイン復号器 1 0は、 Gコードと、 所定のゲイン ]3および γとを対応付けたテ 一ブルを記憶しており、 自乗誤差最小判定部 8から供給される Gコードに対応付 けられたゲイン および γを出力する。 ゲイン と γは、 演算器 1 2と 1 3に、 それぞれ供給される。 ここで、 ゲイン ]3は、 長期フィルタ状態出力ゲインと呼ば れるものであり、 また、 ゲイン γは、 励起コードブックゲインと呼ばれるもので ある。
励起コードブック記憶部 1 1は、 例えば 9ビッ トの Iコードと、 所定の励起信 号とを対応付けた励起コードブックを記憶しており、 自乗誤差最小判定部 8から 供給される I コードに対応付けられた励起信号を、 演算器 1 3に出力する。 ここで、 励起コードブックに記憶されている励起信号は、 例えば、 ホワイ トノ ィズ等に近い信号であり、 線形予測係数を用いた音声合成において、 主として、 無声音の合成音を生成するための駆動信号となる。 演算器 1 2は、 適応コードブック記憶部 9の出力信号と、 ゲイン復号器 1 0が 出力するゲイン とを乗算し、 その乗算値 1を、 演算器 1 4に供給する。 演算器 1 3は、 励起コードブック記憶部 1 1の出力信号と、 ゲイン復号器 1 0が出力す るゲイン γとを乗算し、 その乗算値 ηを、' 演算器 1 4に供給する。 演算器 1 4は、 演算器 1 2からの乗算値 1 と、 演算器 1 3からの乗算値 ηとを加算し、 その加算 値を、 残差信号 eとして、 音声合成フィルタ 6と適応コードブック記憶部 9に供 給する。
音声合成フィルタ 6では、 以上のようにして、 演算器 1 4から供給される残差 信号 eを入力信号が、 ベク トル量子化部 5から供給される線形予測係数 α ρ ' を タップ係数とする I I Rフィルタでフィルタリングされ、 その結果得られる合成 音データが、 演算器 3に供給される。 そして、 演算器 3および自乗誤差演算部 7 において、 上述の場合と同様の処理が行われ、 その結果得られる自乗誤差が、 自 乗誤差最小判定部 8に供給される。
自乗誤差最小判定部 8は、 自乗誤差演算部 7からの自乗誤差が最小 (極小) に なったかどうかを判定する。 そして、 自乗誤差最小判定部 8は、 自乗誤差が最小 になっていないと判定した場合、 上述のように、 その自乗誤差に対応する Lコー ド、 Gコード、 および Lコードを出力し、 以下、 同様の処理が繰り返される。 一方、 自乗誤差最小判定部 8は、 自乗誤差が最小になったと判定した場合、 確 定信号を、 コード決定部 1 5に出力する。 コード決定部 1 5は、 ベク トル量子化 部 5から供給される Αコードをラッチするとともに、 自乗誤差最小判定部 8から 供給される Lコード、 Gコード、 および I コードを順次ラッチするようになって おり、 自乗誤差最小判定部 8から確定信号を受信すると、 そのときラッチしてい る Aコード、 Lコード、 Gコード、 および Iコードを多重化し、 符号化音声デー タとして出力する。
以上から、 符号化音声データは、 復号に用いられる情報である Aコード、 Lコ —ド、 Gコード、 および I コードを、 フレーム単位ごとに有するものとなってい る。 ここで、 図 1 8 (後述する図 1 9および図 2 0においても同様) では、 各変数 に、 [k]が付され、 配列変数とされている。 この k は、 フレーム数を表すが、 明 細書中では、 その記述は、 適宜省略する。
次に、 図 1 9は、 携帯電話機 1 0 1力 C E L P方式のものである場合の、 受 信部 1 1 4 (図 4 ) を構成する復号部 1 3 2の構成例を示している。 なお、 図中、 図 1 6における場合と対応する部分については、 同一の符号を付してある。
受信制御部 1 3 1 (図 4 ) が出力する符号化音声データは、 D E MU X (デマ ルチプレクサ) 2 1に供給され、 D E MU X 2 1は、 符号化音声データから、 L コード、 Gコード、 I コード、 Aコードを分離し、 それぞれを、 適応コードブッ ク記憶部 2 2、 ゲイン復号器 2 3、 励起コードブック記憶部 2 4、 フィルタ係数 復号器 2 5に供給する。
適応コードブック記憶部 2 2、 ゲイン復号器 2 3、 励起コードブック記憶部 2 4、 演算器 2 6乃至 2 8は、 図 1 8の適応コードブック記憶部 9、 ゲイン復号器 1 0、 励起コードブック記憶部 1 1、 演算器 1 2乃至 1 4とそれぞれ同様に構成 されるもので、 図 1 8で説明した場合と同様の処理が行われることにより、 Lコ ード、 Gコード、 および I コードが、 残差信号 eに復号される。 この残差信号 e は、 音声合成フィルタ 2 9に対して、 入力信号として与えられる。
フィルタ係数復号器 2 5は、 図 1 8のべク トル量子化部 5が記憶しているのと 同一のコードブックを記憶しており、 Aコードを、 線形予測係数 α ρ' に復号し、 音声合成フィルタ 2 9に供給する。
音声合成フィルタ 2 9は、 図 1 8の音声合成フィルタ 6と同様に構成されてお り、 フィルタ係数復号器 2 5からの線形予測係数 α ρ ' をタップ係数とするとと もに、 演算器 2 8から供給される残差信号 eを入力信号として、 式 (1 2 ) を演 算し、 これにより、 図 1 8の自乗誤差最小判定部 8において自乗誤差が最小と判 定されたときの合成音データを生成し、 復号音声データとして出力する。
ここで、 発信側の符号化部 1 2 3から、 着信側の復号部 1 3 2に対しては、 図 1 8で説明したことから、 復号部 1 3 2の音声合成フィルタ 2 9に与えられる入 力信号としての残差信号と線形予測係数がコード化されて送信されてくるため、 復号部 1 3 2では、 そのコードが、 残差信号と線形予測係数に復号される。 しか しながら、 この復号された残差信号や線形予測係数 (以下、 適宜、 それぞれを、 復号残差信号または復号線形予測係数という) には、 量子化誤差等の誤差が含ま れるため、 発信側におけるユーザの音声を L P C分析して得られる残差信号と線 形予測係数には一致しない。
このため、 復号部 1 3 2の音声合成フィルタ 2 9が出力する合成音データであ る復号音声データは、 発信側のユーザの音声データに対して、 歪み等を有する、 音質の劣化したものとなる。
そこで、 復号部 1 3 2は、 上述のクラス分類適応処理を行うことによって、 復 号音声データを、 歪みのない (歪みを低減した) 、 発信側のユーザの音声データ に近い音質向上データに変換するようになっている。
即ち、 音声合成フィルタ 2 9が出力する合成音データである復号音声データは、 バッファ 1 6 2に供給され、 バッファ 1 6 2は、 その復号音声データを一時記憶 する。
そして、 予測タップ生成部 1 6 3は、 復号音声データの音質を向上させた音質 向上データを、 順次、 注目データとし、 その注目データについて、 バッファ 1 6 2から復号音声データのうちの幾つかの音声サンプルを読み出すことにより、 予 測タップを構成して、 予測部 1 6 7に供給する。 また、 クラスタップ生成部 1 6 4は、 バッファ 1 6 2に記憶された復号音声データのうちの幾つかの音声サンプ ルを読み出すことにより、 注目データについて、 クラスタップを構成し、 クラス 分類部 1 6 5に供給する。
クラス分類部 1 6 5は、 クラスタップ生成部 1 6 4からクラスタップを用いて クラス分類を行い、 その結果得られるクラスコードを、 係数メモリ 1 6 6に供給 する。 係数メモリ 1 6 6は、 クラス分類部 1 6 5からのクラスコードに対応する ァドレスに記憶されているタップ係数を読み出し、 予測部 1 6 7に供給する。 そして、 予測部 1 6 7は、 係数メモリ 1 6 6が出力するタップ係数と、 予測タ ップ生成部 1 6 3からの予測タップとを用いて、 式 ( 1 ) に示した積和演算を行 レ、、 音質向上データ (の予測値) を得る。
以上のようにして得られた音質向上データは、 予測部 1 6 7から、 D / A変換 部 1 3 3 (図 4 ) を介して、 スピーカ 1 3 4に供給され、 これにより、 スピーカ 1 3 4からは、 高音質の音声が出力される。
次に、 図 2 0は、 携帯電話機 1 0 1力 C E L P方式のものである場合の、 送 信部 1 1 3 (図 3 ) を構成する学習部 1 2 5の構成例を示している。 なお、 図中、 図 1 4における場合と対応する部分については、 同一の符号を付してあり、 以下 では、 その説明は、 適宜省略する。
演算器 1 8 3乃至コード決定部 1 9 5は、 図 1 8の演算器 3乃至コード決定部 1 5とそれぞれ同様に構成される。 演算器 1 8 3には、 八ノ0変換部1 2 2 (図 3 ) が出力する音声データが、 学習用のデータとして入力されるようになってお り、 従って、 演算器 1 8 3乃至コード決定部 1 9 5では、 その学習用の音声デー タに対して、 図 1 8の符号化部 1 2 3における場合と同様の処理が施される。 そして、 自乗誤差最小判定部 1 8 8において自乗誤差が最小になったと判定さ れたときの音声合成フィルタ 1 8 6が出力する合成音データが、 生徒データとし て、 生徒データメモリ 1 4 3に供給される。
その後は、 生徒データメモリ 1 4 3乃至タップ係数決定部 1 5 0において、 図 1 4および 1 5における場合と同様の処理が行われ、 これにより、 クラスごとの タップ係数が、 高品質化データとして生成される。
なお、 図 1 9または図 2 0の実施の形態では、 予測タップやクラスタップを、 音声合成フィルタ 2 9または 1 8 6が出力する合成音データから構成するように したが、 予測タップやクラスタップは、 図 1 9または図 2 0において点線で示す ように、 I コードや、 Lコード、 Gコード、 Aコード、 Aコードから得られる線 形予測係数ひ p、 Gコードから得られるゲイン β , γ、 その他の、 Lコード、 G コード、 I コード、 または Αコードから得られる情報 (例えば、 残差信号 eや、 残差信号 eを得るための 1 , n、 さらには、 1ノ β , η / γ など) のうちの 1 以上を含めて構成することが可能である。
次に、 図 2 1は、 送信部 1 1 3 (図 3 ) を構成する符号化部 1 2 3の他の構成 例を示している。
図 2 1の実施の形態においては、 符号化部 1 2 3は、 A/D変換部 1 2 2 (図 3 ) が出力する音声データをベク トル量子化することにより符号化するようにな つている。
即ち、 //0変換部1 2 2 (図 3 ) が出力する音声データは、 バッファ 2 0 1 に供給され、 バッファ 2 0 1は、 そこに供給される音声データを一時記憶する。 べク トル化部 2 0 2は、 バッファ 2 0 1に記憶された音声データを時系列に読 み出して、 所定数の音声サンプルを 1 フレームとし、 各フレームの音声データを ベタ トル化する。
ここで、 ベク トル化部 2 0 2では、 例えば、 1フレームの各音声サンプルを、 そのまま、 べク トルの各コンポーネントとすることにより、 音声データをべク ト ル化することも可能であるし、 また、 例えば、 1 フレームを構成する音声サンプ ルについて、 L P C分析等の音響分析を施し、 その結果得られる音声の特徴量を、 べク トルのコンポ一ネントとすることにより、 音声データをべク トル化すること も可能である。 なお、 ここでは、 説明を簡単にするために、 例えば、 1フレーム の各音声サンプルを、 そのまま、 ベク トルの各コンポーネントとすることにより、 音声データをべク トル化するものとする。
べク ト 化部 2 0 2は、 1フレームの各音声サンプルを、 そのままコンポーネ ントとして構成したベク トル (以下、 適宜、 音声ベク トルとする) を、 距離計算 部 2 0 3に出力する。
距離計算部 2 0 3は、 コードブック記憶部 2 0 4に記憶されたコードブックに 登録されている各コードべク トノレと、 べク トル化部 2 0 2からの音声べク トルと の距離 (例えば、 ユークリッド距離など) を計算し、 各コードべク トルについて 求められた距離を、 そのコードベク トルに対応するコードとともに、 コード決定 部 2 0 5に供給する。 即ち、 コードブック記憶部 2 0 4は、 後述する図 2 2の学習部 1 2 5における 学習によって得られる高品質化データとしてのコードブックを記憶し、 距離計算 部 2 0 3は、 そのコードブックに登録されている各コードベク トルについて、 ベ ク トル化部 2 0 2からの音声べク トルとの距離を計算して、 各コードべク トルに 対応するコードとともに、 コード決定部 2 0 5に供給する。
コード決定部 2 0 5は、 距離計算部 2 0 3から供給される、 各コードべク トル についての距離のうち、 最も短いものを検出し、 その最も短い距離を与えるコ一 ドべク トル、 即ち、 音声べク トルについての量子化誤差 (ベタ トル量子化誤差) を最も小さくするコードべク トルに対応するコードを、 ベタ トル化部 2 0 2が出 力した音声べク トルについてのべク トル量子化結果として決定する。 そして、 コ ード決定部 2 0 5は、 そのベク トル量子化結果としてのコードを、 符号化音声デ ータとして、 送信制御部 1 2 4 (図 3 ) に出力する。
次に、 図 2 2は、 符号化部 1 2 3が図 2 1に示したように構成される場合の、 図 3の送信部 1 1 3を構成する学習部 1 2 5の構成例を示している。
バッファ 2 1 1には、 AZ D変換部 1 2 2が出力する音声データが供給される ようになつており、 バッファ 2 1 1は、 そこに供給される音声データを記憶する c ベタ トル化部 2 1 2は、 ノくッファ 2 1 1に記憶された音声データを用いて、 図
2 1のべク トノレイヒ部 2 0 2における場合と同様にして、 音声べク トルを構成し、 ユーザ用べク トル記憶部 2 1 3に供給する。
ユーザ用べク トル記憶部 2 1 3は、 例えば、 E E P R O Mなどで構成され、 ベ ク トル化部 2 1 2から供給される音声べク トルを順次記憶する。 初期べク トル記 憶部 2 1 4は、 例えば、 R O IV [などで構成され、 不特定多数のユーザの音声デー タを用いて構成された多数の音声べク トルをあらかじめ記憶している。
コードブック生成部 2 1 5は、 初期べク トル記憶部 2 1 4およびユーザべク ト ル記憶部 2 1 3に記憶された音声べク トルをすベて用い、 例えば、 L B G (Linde, Buzo, Gray) アルゴリズムによって、 コードブックを生成する学習を 行い、 その学習の結果得られるコードブックを、 高品質化データとして出力する c なお、 コードブック生成部 2 1 5が出力する高品質化データとしてのコードブ ックは、 記憶部 1 2 6 (図 3 ) に供給され、 更新情報 (コードブックが得られた 日時) とともに記憶されるとともに、 符号化部 1 2 3 (図 2 1 ) にも供給され、 コードブック記憶部 2 0 4に書き込まれる (上書きされる) 。
ここで、 図 2 2の学習部 1 2 5で、 初めて学習が行われる場合や、 ユーザ用べ ク トル'記憶部 2 1 3がクリアされた直後等に学習が行われる場合おいては、 ユー ザ用べク トル記憶部 2 1 3には、 音声べク トルが記憶されていないため、 コード プック生成部 2 1 5において、 ユーザ用べク トル記憶部 2 1 3だけを参照するの では、 コードブックを生成することができない。 また、 携帯電話機 1 0 1の使用 が開始されてから間もない場合においては、 ユーザ用ベク トル記憶部 2 1 3には、 それほど多くの音声ベク トルが記憶されていない。 この場合、 コードブック生成 部 2 1 5において、 ユーザ用べク トル記憶部 2 1 3を参照するだけでも、 コード ブックを生成することは可能ではあるが、 そのようなコードブックを用いたべク トル量子化は、 かなり精度の悪いもの (量子化誤差が大きいもの) となる。
そこで、 初期べク トル記憶部 2 1 4には、 上述のように、 多数の音声べク トル が記憶されており、 コードブック生成部 2 1 5は、 ユーザ用べク トル記憶部 2 1 3だけでなく、 初期ベク トル記憶部 2 1 4も参照することで、 上述のような精度 の悪いべク トル量子化が行われるようなコードプックが生成されることを防止す るようになっている。
なお、 ユーザ用べク トル記憶部 2 1 3に、 ある程度の数の音声べク トルが記憶 された後は、 コードブック生成部 2 1 5において、 初期べク トル記憶部 2 1 4を 参照せずに、 ユーザ用べク トル記憶部 2 1 3だけを参照して、 コードブックを生 成するようにすることが可能である。
次に、 図 2 3のフローチヤ一トを参照して、 図 2 2の学習部 1 2 5で行われる、 高品質化データとしてのコードブックの学習処理について説明する。
例えば、 ユーザが通話時に行った発話、 あるいは任意のタイミングで行った発 話による音声データが、 八/ 0変換部 1 2 2 (図 3 ) からバッファ 2 1 1に供給 され、 バッファ 2 1 1は、 そこに供給される音声データを記憶する。
そして、 例えば、 ユーザが通話を終了すると、 あるいは、 発話を開始してから 所定時間が経過すると、 学習部 1 25は、 通話中に、 バッファ 2 1 1に記憶され た音声データ、 あるいは、 一連の発話を開始してから終了するまでに、 バッファ 2 1 1に記憶された音声データを、 新たに入力された音声データとして、 学習処 理を開始する。
即ち、 べク トル化部 2 1 2は、 ノ ッファ 2 1 1に記憶された音声データを時系 列に読み出し、 所定数の音声サンプルを 1フレームとして、 各フレームの音声デ ータをべク トル化する。 そして、 ベタ トル化部 2 1 2は、 そのべク トル化の結果 得られる音声べク トルを、 ユーザ用べク トル記憶部 2 1 3に供給して追加記憶さ せる。
バッファ 2 1 1に記憶された音声データすベてのベタ トル化が終了すると、 コ ードブック生成部 2 1 5は、 ステップ S 1 2 1において、 ユーザ用べク トル記憶 部 2 1 3と初期べク トル記憶部 2 1 4に記憶された各音声べク トルとの距離の総 和を最小にするベク トル y を求める。 そしてコードブック生成部 2 1 5は、 そ のべク トル y tを、 コートベク トル として、 ステップ S 1 2 2に進む。
ステップ S 1 22では、 コードブック生成部 2 1 5は、 現在得られているコー ドベク トルの総数を変数 nに設定し、 コードベク トル yい y 2, · ■ ·, ynそ れぞれを 2分割する。 即ち、 コードブック生成部 21 5は、 例えば、 △を微小な ベタ トゾレとするとき、 コードべク トノレ y i ( i = 1 , 2, · · ·, n) 力 ら、 ベ ク トノレ y i +△および y i—△を生成し、 ベタ トル y i+Aを、 新たなコードべク トル y iとするとともに、 ベク トル y i—△を、 新たなコードベク トル yn+ iと する。
そして、 ステップ S 1 2 3に進み、 コードブック生成部 2 1 5は、 ユーザ用べ ク トル記憶部 2 1 3と初期べク トル記憶部 2 14に記憶された各音声べク トル x 3 ( j = 1 , 2, · · · , J (ユーザ用ベク トル記憶部 2 1 3と初期ベク トル記 憶部 2 14に記憶された音声ベク トルの総数) ) を、 その音声ベク トル X jと最 も距離が近いコードベク トル y i ( i = l , 2 , ■ · ■, 2 n ) に分類し、 ステ ップ S 1 2 4に進む。
ステップ S 1 2 4では、 コードブック生成部 2 1 5は、 各コードベク トル y】 を、 そのコードべク トル y iに分類された各音声べク トルとの距離の総和が最小 になるように更新する。 なお、 この更新は、 例えば、 コードベク トル y iに分類 された 0個以上の音声べク トルが指す点の重心を求めることによって行うことが できる。 即ち、 その重心を指すベク トルが、 コードベク トル y;に分類された各 音声ベク トルとの距離の総和を最小にするものとなる。 但し、 コードベク トル y iに分類された音声ベク トルが 0個の場合は、 コードベク トル y iは、 そのまま とされる。
その後、 ステップ S 1 2 5に進み、 コードブック生成部 2 1 5は、 更新後の各 コー ドべク トノレ y;について、 そのコー ドべク トノレ y;に分類された各音声べク トルとの距離の総和 (以下、 適宜、 コードベク トル y ;についての距離の総和と いう) を求め、 さらに、 すべてのコードべク トノレ y;についての距離の総和の総 和 (以下、 適宜、 全総和という) を求める。 そして、 コードブック生成部 2 1 5 は、 その全総和の変化、 即ち、 今回のステップ S 1 2 5で求めた全総和 (以下、 適宜、 今回の全総和という) と、 前回のステップ S 1 2 5で求めた全総和 (以下、 適宜、 前回の全総和という) との差の絶対値が、 所定の閾値以下であるかどうか を判定する。
ステップ S 1 2 5において、 今回の全総和と前回の全総和との差の絶対値が、 所定の閾値以下でないと判定された場合、 即ち、 コードベク トル y iを更新する ことにより、 全総和が大きく変化した場合、 ステップ S 1 2 3に戻り、 以下、 同 様の処理を繰り返す。
また、 ステップ S 1 2 5において、 今回の全総和と前回の全総和との差の絶対 値が、 所定の閾値以下であると判定された場合、 即ち、 コードベク トル y iを更 新しても、 全総和がほとんど変化しない場合、 ステップ S 1 2 6に進み、 コード ブック生成部 2 1 5は、 現在得られているコードべク トルの総数を表す変数 nが、 コードブックにあらかじめ設定されているコードベク トルの数 (以下、 適宜、 設 定コードべク トノレ数という) Nに等しいかどうかを判定する。
ステップ S 1 2 6において、 変数 nが、 設定コードベク トル数 Nに等しくない と判定された場合、 即ち、 まだ、 設定コードベク トル数 Nに等しい数のコードべ ク トル y iが得られていない場合、 ステップ S 1 2 2に戻り、 以下、 同様の処理 を繰り返す。
また、 ステップ S 1 2 6において、 変数 n力 設定コードベク トル数 Nに等し いと判定された場合、 即ち、 設定コードべク トル数 Nに等しい数のコードべク ト ル が得られた場合、 コードブック生成部 2 1 5は、 その N個のコードべタ ト ノレ y iで構成されるコードブックを、 高品質化データとして出力し、 学習処理を 終了する。
なお、 図 2 3の学習処理では、 ユーザ用べク トル記憶部 2 1 3に、 いままでに 入力された音声べク トルを記憶しておき、 その音声べク トルを用いて、 コードブ ックを更新 (生成) するようにしたが、 コードブックの更新は、 過去に入力され た音声べク トルを記憶しておかずに、 今回入力された音声べク トルと、 既に得ら れているコードブックを用い、 ステップ S 1 2 3および S 1 2 4の処理により、 いわば簡略化した形で行うことも可能である。
即ち、 この場合、 コードブック生成部 2 1 5は、 ステップ S 1 2 3において、 今回入力された各音声ベク トル X i ( j = 1 , 2, ■ · ·, J (今回入力された 音声ベク トルの総数) ) を、 その音声ベク トル X;と最も距離が近いコードべク トノレ y i ( i = 1 , 2 , · · ■ , Ν (コードブックにおけるコードべタ トノレの総 数) ) に分類し、 ステップ S 1 2 4に進む。
ステップ S 1 2 4では、 コードブック生成部 2 1 5は、 各コードべク トノレ y を、 そのコードべク トル y ;に分類された各音声べク トルとの距離の総和が最小 になるように更新する。 なお、 この更新は、 上述したように、 コードベク トル y iに分類された 0個以上の音声べク トルが指す点の重心を求めることによって行 うことができるから、 例えば、 いま、 更新後のコードベク トルを y i ' と、 更新 前のコードべク トル y ;に分類されている過去に入力された音声べク トルを Xい
X 2, · · · , xM-L と、 コードベク トル y iに分類された今回の音声ベク トルを
X M-L+i , xM-い 2 , · · · , xM と、 それぞれ表すと、 更新前のコードベク トル y i と、 更新後のコードべク トル y; ' は、 それぞれ式 ( 1 4) と式 (1 5) を計算 することによって求めることができる。
y i = (x !+x 2+ · . - + H.L)/( - L)
• · · ( 1 4) y =( X X X -L + X M-L+ 1 + x M-L+2 + xM)/M
• · · ( 1 5) ところで、 いまの場合、 過去に入力された音声べク トル X l, X 2 , · · xM-Lは記憶されていない。 そこで、 式 ( 1 5) を次式にように変形する。
y i χ i+ x 2+ · + χΜL+xM-L+1)/M X M- 2 + ■ + χ Μ) /Μ
= X α + X π+ * + XM-L+ XM-L+I) (M-L) X (M_ L)/M
Figure imgf000062_0001
( 1 6 式 ( 1 6) に、 式 (1 4) を代入すると次式が得られる。
y i ' =y i X (M-L)/M+(xH_L+2+ - - · +χΜ)/Μ
( 1 7) 式 ( 1 7) によれば、 今回入力された音声べク トル xM-いい xM-L+2
xM と、 既に得られているコードブックにおけるコードべク トル y iを用いるこ とによって、 そのコードベク トル y iを更新し、 更新後のコードべク トル y〗を 求めることができる。
この場合、 過去に入力された音声べク トルを記憶しておく必要がないので、 ュ —ザ用べク トル記憶部 2 1 3の記憶容量が少なくて済む。 但し、 この場合、 ユー ザ用べク トル記憶部 2 1 3には、 今回入力された音声べク トルの他、 いままでに 各コードべク トル y .に分類された音声べク トルの総数を記憶させておくととも に、 コードベク トル y ;の更新に伴って、 その更新後のコードベク トル y i ' に ついても、 そのコードベク トル y i ' に分類された音声ベク トルの総数を更新す る必要がある。 さらに、 初期べク トル記憶部 2 1 4には、 不特定多数のユーザの 音声データを用いて構成された多数の音声べク トルではなく、 そのような多数の 音声べク トルを用いて生成されたコードブックと各コードべク トルに分類された 音声ベク トルの総数を記憶させておく必要がある。 図 2 2の学習部 1 2 5で、 初 めて学習が行われる場合や、 ユーザ用べク トル記憶部 2 1 3がクリアされた直後 等に学習が行われる場合おいては、 初期べク トル記憶部 2 1 4に記憶されたコ一 ドブックを用いて、 そのコードブックの更新が行われることになる。
以上のように、 図 2 2の実施の形態における学習部 1 2 5でも、 新たに入力さ れた音声データと、 過去の学習に用いられた音声データに基づく図 2 3の学習処 理が、 通話時その他の任意のタイミングで行われ、 これにより、 ユーザが発話を 行うほど、 そのユーザに適したコードブック、 即ち、 そのユーザの音声に対して 量子化誤差を小さくするコードブックが求められる。 従って、 通話相手側におい て、 そのようなコードブックを用いて、 符号化音声データの復号 (ここでは、 ベ ク トル逆量子化) を行うことにより、 やはり、 ユーザの音声の特性に適した処理 (ベタ トル逆量子化処理) が施され、 従来の場合 (不特定多数の話者の発話から 求められたコードブックを用いる場合) に比較して、 十分に音質を改善した復号 音声データを得ることができることになる。
次に、 図 2 4は、 送信部 1 1 3 (図 3 ) の学習部 1 2 5が図 2 2に示したよう に構成される場合の、 受信部 1 1 4 (図 4 ) の復号部 1 3 2の構成例を示してい る。
バッファ 2 2 1は、 受信制御部 1 3 1 (図 4 ) が出力する符号化音声データ (ここでは、 べク トル量子化結果としてのコード) を一時記憶する。 べク トル逆 量子化部 2 2 2は、 ノくッファ 2 2 1に記憶されたコードを読み出し、 コードブッ ク記憶部 2 2 3に記憶されたコードブックを参照することでベタ トル逆量子化を 行うことにより、 そのコードを、 音声べク トルに復号し、 逆べク トル化部 2 2 4 に供給する。
コ一ドブック記憶部 2 2 3は、 管理部 1 3 5が高品質化データとして供給する コードブックを記憶する。
ここで、 送信部 1 1 3 (図 3 ) の学習部 1 2 5が図 2 2に示したように構成さ れる場合には、 高品質化データはコードブックであるから、 受信部 1 1 4 (図 4 ) の記憶部 1 3 6には、 コードブックが記憶される。 なお、 この場合、 受信部 1 1 4のデフォルトデータメモリ 1 3 7には、 例えば、 図 2 2の初期べク トル記 憶部 2 1 4に記憶された音声べク トルを用いて生成されたコードブックが、 デフ オルトデータとして記憶される。
逆ベク トル化部 2 2 4は、 ベク トル逆量子化部 2 2 2が出力する音声ベク トル を、 時系列の音声データに逆べク トル化して出力する。
次に、 図 2 5のフローチャートを参照して、 図 2 4の復号部 1 3 2の処理 (復 号処理) について説明する。
バッファ 2 2 1は、 そこに供給される符号化音声データとしてのコードを順次 記憶する。
そして、 べク トル逆量子化部 2 2 2は、 ステップ S 1 3 1において、 バッファ 2 2 1に記憶されたコードのうち、 まだ読み出していない時間的に最も古いもの を、 注目コードとして読み出し、 ベク トル逆量子化する。 即ち、 ベク トル逆量子 化部 2 2 2は、 コードブック記憶部 2 2 3に記憶されたコードブックのコードべ タ トルのうち、 注目コードが対応付けられているものを検出し、 そのコードべク トルを、 音声べク トルとして、 逆べク トル化部 2 2 4に出力する。
逆べク トル化部 2 2 4は、 ステップ S 1 3 2において、 べク トル逆量子化部 2 2からの音声べク トルを逆べク トル化することにより、 音声データに復号して出 力し、 ステップ S 1 3 3に進む。
ステップ S 1 3 3では、 べク トル逆量子化部 2 2 2力 ノくッファ 2 2 1に、 注 目コードとされていないコードが、 まだ記憶されているかどうかを判定する。 ス テツプ S 1 3 3において、 ノ ッファ 2 2 1に、 注目コードとされていないコード 1S まだ記憶されていると判定された場合、 ステップ S 1 3 1に戻り、 バッファ 2 2 1に記憶されたコードのうち、 まだ読み出していない時間的に最も古いもの を、 新たな注目コードとして、 以下、 同様の処理が繰り返される。
また、 ステップ S 1 3 3において、 ノくッファ 2 2 1に、 注目コードとされてい ないコードが記憶されていないと判定された場合、 処理を終了する。
以上においては、 高品質化データとして、 クラス分類適応処理のタップ係数や コードブック等を用いる場合について説明したが、 これ以外にも、 例えば、 変調 方式ゃビッ トレート等の伝送形態に関するパラメータ、 符号化方式等の符号化構 造に関するパラメータ、 並びに、 クラス構造や予測構造等のクリエーションに関 するパラメータ等であってもよい。
以上のように、 生成され、 利用される高品質化データは、 記憶部 1 3 6または 記憶部 1 2 6に通話相手 (電話番号) に対応付けられてデータベース化されて (ユーザ情報データベースとして) 記憶される。 また、 上述したように、 学習部
1 2 5の学習により高品質化データが生成されるまで、 初期値として供給される デフォルトデータベースがデフォルトデータメモリ 1 3 7、 記憶部 1 3 6または 記憶部 1 2 6に記憶され、 使用される。 例えば、 管理部 1 3 5は、 後述するユー ザ情報データベースより発信元電話番号を検索し、 見つからない場合、 図 2 6 A、 図 2 6 B、 および図 2 6 Cに示されるようなデフオルトデータベースを用いて、 高品質化データを設定する。
デフォルトデータメモリ 1 3 7のデフォルトデータベースには、 高品質化デー タとして使用される各種のパラメータが、 計測される特徴量と関連付けて記憶さ れている。 例えば、 図 2 6 Aにおいては、 高品質化データがノイズ量に関連付け られており、 受信信号に含まれるノイズ量に応じて、 変調方式、 ビットレート、 符号化方式、 コードブック、 クラス構造、 予測構造、 および予測係数等の値が選 択されるようになつている。
例えば、 受信信号のノイズ量が所定の 2つの基準値より大きく、 「大」 である と判定された場合、 管理部 1 3 5は、 デフォルトデータメモリ 1 3 7にアクセス し、 図 2 6 Aのデフォルトデータベースに基づいて、 変調方式を 「A」 に設定し、 ビットレートを 「B」 に設定し、 符号化方式を 「C」 に設定し、 コードブックを 「A」 に設定し、 クラス構造を 「B」 に設定し、 予測構造を 「C j に設定し、 予 測係数を 「A」 に設定する。
また、 それ以外にも、 高品質化データが、 図 2 6 Bのように、 受信信号の信号 強度に関連付けられていてもよいし、 図 2 6 Cのように、 受信信号のキャリア周 波数に関連付けられていてもよい。 また、 高品質化データは、 それ以外の特徴量 に対応付けられていてももちろんよいし、 これらの特徴量の組み合わせに対して 関連付けられていてもよレ、。
図 2 7 Aおよび図 2 7 Bは、 記憶部 1 3 6に記憶されるユーザ情報データべ一 スの例を示す図である。
ユーザ情報データベースは、 使用された高品質化データの値を、 その時の通話 相手 (電話番号等) に対応付けたデータベースである。 記憶部 1 3 6に記憶され ているユーザ情報データベースにおいては、 図 2 7 Aに示されるように、 変調方 式、 ビッ トレート、 符号化方式、 コードブック、 クラス構造、 予測構造、 および 予測係数等の高品質化データの設定値がユーザ毎に関連付けられている。
すなわち、 例えば、 第 1のユーザと音声通信を行う場合、 管理部 1 3 5は、 図 2 7 Aのユーザ情報データベースに基づいて、 変調方式を 「A」 に設定し、 ビッ トレートを 「C」 に設定し、 符号化方式を 「A J に設定し、 コードブックを 「D」 に設定し、 クラス構造を 「B」 に設定し、 予測構造を 「C」 に設定し、 予 測係数を 「B」 に設定する。
なお、 これらの値は、 最も新しい設定値が通話相手と関連付けて記憶されるよ うにしてもよいが、 通話相手と相関がある場合が多く、 過去に使用された頻度の 最も多い値が通信相手と関連付けて記憶されるようにするのが望ましい。
また、 図 2 7 Bのように、 一人の通信相手に対して複数の設定値を対応付ける ようにしてもよい。 図 2 7 Aおよび図 2 7 Bにおいては、 第 1のユーザに対して、 複数の設定値が対応付けられており、 それぞれ、 優先度が設定されている。 従って、 例えば、 管理部 1 2 5は、 通話相手が第 1のユーザの場合、 最初、 図 2 7 Bのユーザ情報データベースに基づいて、 優先度が 「 1」 の高品質化データ を設定し、 通信環境等により、 高品質な音声が得られない場合、 ユーザの指示等 に基づいて、 優先度が 「2」 以降の高品質化データを選択し、 設定する。
上述したように、 高品質化データは、 上述したタップ係数やコードブックのよ うに、 通話相手の携帯電話機が生成し、 受信部 1 1 4が取得するものだけでなく、 例えば、 クラスコードや予測タップ等のように、 受信部 1 1 4の復号部 1 3 2等 において生成される情報であっても良い。
図 2 8は、 受信部 1 1 4の内部の構成の、 他の例を示す図である。
図 2 8において、 管理部 4 0 1は、 受信制御部 1 3 1より供給された高品質化 データ等を復号部 1 3 2に供給し、 設定するだけでなく、 復号部 1 3 2において 生成される高品質化データ等を復号部 1 3 2より取得する。
これらの高品質化データは、 管理部 4 0 1により、 記憶部 4 0 2に供給され、 記憶部 4 0 2に内蔵される一時蓄積部 4 1 1に一度保持される。 そして、 後述す るように、 ユーザの指示等に基づいて、 ユーザ情報データベース 4 1 2の更新が 決定されると、 一時蓄積部 4 1 1に保持されている高品質化データがユーザ情報 データベース 4 1 2に反映される。 ユーザ情報データベース 4 1 2は、 ユーザ毎 に (通話相手毎に) 、 最適な高品質化データが登録されており、 一時蓄積部 4 1 1より高品質化データが供給されると、 その高品質化データも含めて算出された 最適な高品質化データを記憶する。 ' 管理部 4 0 1は、 以上のように記憶された、 通話相手に対応する高品質化デー タの最適値を取得し、 復号部 1 3 2に設定したり、 関連情報を送信制御部 1 2 4 に供給し、 通話相手の携帯電話機に供給したりする。
管理部 4 0 1による高品質化データ最適値設定処理を、 図 2 9のフローチヤ一 トを参照して説明する。
最初に、 ステップ S 2 0 1において、 管理部 4 0 1は、 通話相手の電話番号等 の通話相手情報を受信制御部 1 3 1より取得すると、 その情報に基づいて、 記憶 部 4 0 2のユーザ情報データベース 4 1 2より、 通話相手情報に対応する高品質 化データの最適値を検索する。
そして、 ステップ S 2 0 2において、 管理部 4 0 1は、 ユーザ情報データべ一 ス 4 1 2より供給される検索結果に基づいて、 該当する情報が存在するか否かを 判定する。 通話相手情報に対応する高品質化データの最適値がユーザ情報データ ベース 4 1 2に存在すると判定した場合、 管理部 4 0 1は、 ステップ S 2 0 3に おいて、 通話相手情報に対応付けられている高品質化データの最適値を選択し、 復号部 1 3 2に供給して設定する。 高品質化データの最適値を設定した管理部 4 0 1は、 処理をステップ S 2 0 5に進める。
また、 ステップ S 2 0 2において、 通話相手情報に対応する高品質化データの 最適値がユーザ情報データベース 4 1 2に存在しないと判定した場合、 管理部 4 0 1は、 処理をステップ S 2 0 4に進め、 デフォルトデータメモリ 1 3 7に記憶 されている図 2 6 A、 図 2 6 B、 および図 2 6 Cに示されるようなデフォルトデ ータベースより、 該当するデフォルトデータを取得し、 復号部 1 3 2に供給して 設定する。 デフォルトデータを設定した管理部 4 0 1は、 処理をステップ S 2 0 5に進める。
高品質化データの最適値またはデフォルトデータが設定されると、 音声通話が 開始され、 復号部 1 3 2において高品質化データが生成され管理部 4 0 1に供給 されたり、 通話相手より供給された高品質化データが、 受信制御部 1 3 1より、 管理部 4 0 1に供給されたりする。
ステップ S 2 0 5において、 管理部 4 0 1は、 これらの新たな高品質化データ を取得したか否かを判定する。 そして、 新たな高品質化データを取得したと判定 した場合、 管理部 4 0 1は、 処理をステップ S 2 0 6に進め、 取得した新たな高 品質化データを記憶部 4 0 2の一時蓄積部 4 1 1に供給して保持させ、 処理をス テツプ S 2 0 7に進める。
また、 ステップ S 2 0 5において、 新たな高品質化データを取得していないと 判定した場合、 管理部 4 0 1は、 ステップ S 2 0 6の処理を省略し、 ステップ S 2 0 7に処理を進める。
音声通話中に音質が良くないと感じたユーザは、 操作部 1 1 5を操作して、 最 初にステップ S 2 0 3または S 2 0 4において設定されたデータの変更を、 管理 部 4 0 1に要求する。 すなわち、 ユーザは、 現在行われている音声通話に対して 生成された高品質化データを設定値に反映させるために、 操作部 1 1 5を操作し て、 設定変更要求を管理部 4 0 1に供給する。
管理部 4 0 1は、 ステップ S 2 0 7において、 その設定変更要求を取得したか 否かを判定し、 取得したと判定した場合、 処理をステップ S 2 0 8に進め、 保持 している新たな高品質化データを反映させた仮の最適値を算出し、 復号部 1 3 2 に供給して設定し、 処理をステップ S 2 0 9に進める。
また、 ステップ S 2 0 7において、 設定変更要求を取得していないと判定した 場合、 管理部 4 0 1は、 ステップ S 2 0 8の処理を省略し、 ステップ S 2 0 9に 処理を進める。
ステップ S 2 0 9において、 管理部 4 0 1は、 音声通話が終了したか否かを判 定し、 終了していないと判定した場合、 処理をステップ S 2 0 5に戻し、 それ以 降の処理を繰り返す。 音声通話が終了したと判定した場合、 管理部 4 0 1は、 処 理をステップ S 2 1 0に進める。
音声通話が終了すると、 管理部 4 0 1は、 ステップ S 2 1 0において、 ユーザ 情報データベース 4 1 2を更新するか否かをユーザに選択させる所定の GUI (Graphi cal User Interface) 情報を図示せぬディスプレイ等に表示し、 操作 部 1 1 5を介して入力を受け付ける。
そして、 ステップ S 2 1 1において、 管理部 4 0 1は、 入力されたユーザの指 示に基づいて、 ユーザ情報データベース 4 1 2を更新するか否かを判定し、 更新 すると判定した場合、 処理をステップ S 2 1 2に進め、 保持している仮の最適値 を用いて、 ユーザ情報データベース 4 1 2を更新し、 高品質化データ最適値設定 処理を終了する。
また、 ステップ S 2 1 1において、 ユーザ情報データベース 4 1 2を更新しな いと判定した場合、 管理部 4 0 1は、 ステップ S 2 1 2の処理を省略し、 高品質 化データ最適値設定処理を終了する。
以上においては、 携帯電話機において、 高品質化データを算出し、 記憶するよ うに説明したが、 これに限らず、 例えば、 図 3 0に示すように、 交換局において、 高品質化データを算出し、 記憶するようにし、 音声通話時に携帯電話機に供給す るようにしてもよレ、。
図 3 0において、 交換局 4 2 3は、 高品質化データ算出部 4 2 4と記憶部 4 2 5を有しており、 携帯電話機 4 2 1— 1および携帯電話機 4 2 1一 2において用 いられる高品質化データを生成し、 記憶する。 そして、 例えば、 携帯電話機 4 2 1一 1と携帯電話機 4 2 1— 2の間で音声通話が開始される際に、 交換局 4 2 3 は、 対応する高品質化データを携帯電話機 4 2 1 - 1 と携帯電話機 4 2 1— 2の 両方にそれぞれ供給し、 設定させる。
ここで、 以下、 特に区別する必要がない限り、 携帯電話機 4 2 1— 1 と 4 2 1 _ 2を、 携帯電話機 4 2 1と記述する。
次に、 クラス分類適応処理に用いられるタップ係数が高品質化データとして用 いられる場合について説明する。
クラス分類適応処理に用いられるタップ係数が高品質化データとして用いられ る場合、 携帯電話機 4 2 1は、 図 2に示される携帯電話機 1 0 1と同様に構成さ れているので、 図 2に示される携帯電話機 1 0 1の内部の構成例を、 携帯電話機 4 2 1の内部の構成例としても引用する。 但し、 送信部 1 1 3の内部の構成は、 携帯電話機 4 2 1の場合、 図 3 1に示されるような構成であり、 図 3に示される 送信部 1 1 3の構成例とは異なる。
図 3 1に示される送信部 1 1 3には、 図 3の送信部 1 1 3の学習部 1 2 5の代 わりに、 サンプルデータ生成部 4 3 1が構成されている。 サンプルデータ生成部 4 3 1は、 A/D 変換部 1 2 2において、 ディジタル化された音声データより、 所 定の数のデータを抽出し、 サンプルデータとして、 記憶部 1 2 6に記憶させる。 また、 図 3 1の管理部 4 3 2は、 図 3の管理部 1 2 7とは異なり、 記憶部 1 2 6に記憶されている非圧縮の音声データであるサンプルデータを取得し、 送信制 御部 1 2 4を介して、 交換局 4 2 3に供給する。
図 3 2は、 交換局 4 2 3の内部の構成例を示す図である。
図 3 2におレヽて、 交換局 4 2 3の CPU (Central Processing Unit) 4 4 1は、 R0M 4 4 2に記憶されているプログラム、 または記憶部 4 2 5から RAM (Random Access Memory) 4 4 3にロードされたプログラムに従って各種の処理を実行す る。 RAM 4 4 3にはまた、 CPU 4 4 1が各種の処理を実行する上において必要な データなども適宜記憶される。
CPU 4 4 1、 ROM 4 4 2 N および RAM 4 4 3は、 バス 4 5 0を介して相互に接続 されている。 このバス 4 5 0にはまた、 高品質化データ算出部 4 2 4が接続され ており、 通信部 4 6 4を介して取得されたサンプルデータより、 クラス分類適応 処理に用いられるタップ係数が生成される。
さらに、 このバス 4 5 0にはまた、 入出力インタフェース 4 6 0も接続されて いる。 入出力インタフェース 4 6 0には、 キーボード、 マウスなどよりなる入力 部 4 6 1、 CRT (Cathode Ray Tube ) 、 LCD (Liqui d Crystal Di splay ) など よりなるディスプレイ、 並びにスピーカなどよりなる出力部 4 6 2、 ハードディ スクなどより構成される記憶部 4 2 5、 基地局 1 0 2等と通信を行う通信部 4 6 4が接続されている。
記憶部 4 2 5は、 交換局 4 2 3において実行されるプログラムやデータを記憶 するとともに、 高品質化データ算出部 4 2 4において算出された高品質化データ の最適値をユーザに対応させたユーザ情報データベースを記憶している。
入出力インタフェース 4 6 0にはまた、 必要に応じてドライブ 4 7 0が接続さ れ、 磁気ディスク 4 7 1、 光ディスク 4 7 2、 光磁気ディスク 4 7 3、 或いは半 導体メモリ 4 7 4などが適宜装着され、 それらから読み出されたコンピュータプ ログラムが、 必要に応じて記憶部 4 2 5にインス トールされる。
図 3 3は、 図 3 2の高品質化データ算出部 4 2 4の内部の構成例を示すプロッ ク図である。 08825
70
図 3 3に示される各部の構成と動作は、 図 1 4に示される学習部 1 2 5の各部 の場合の構成と動作と同様であり、 その説明は省略する。 なお、 高品質化データ 算出部 4 2 4の場合、 バッファ 1 4 1に入力される音声データは、 通信部 4 6 4 を介して入力された、 非圧縮の音声データであるサンプルデータであり、 高品質 化データ算出部 4 2 4は、 このサンプルデータに基づいて、 タップ係数を算出し、 高品質化データとして出力する。
次に、 図 3 0の伝送システムの携帯電話機 4 2 1 - 1および 4 2 1— 2、 並び に交換局 4 2 3による、 高品質化データを利用する高品質化データ利用処理につ いて、 図 3 4のフローチャートを参照して説明する。 なお、 以下においては、 携 帯電話機 4 2 1— 1が発信側の携帯電話機であり、 携帯電話機 4 2 1— 2が着信 側の携帯電話機であるものとする。
最初に、 ステップ S 2 3 1において、 発信側の携帯電話機である携帯電話機 4 2 1 _ 1の送信部1 1 3および受信部 1 1 4は、 ユーザの指示に基づいて、 通話 相手となるユーザが有する携帯電話機 4 2 1一 2に対する発信処理を行い、 交換 局 4 2 3にアクセスして接続要求を行う。
交換局 4 2 3の CPU 4 4 1は、 ステップ S 2 5 1において、 その接続要求を取 得すると、 ステップ S 2 5 2において、 通信部 4 6 4を制御して、 接続処理を行 い、 着信側携帯電話機である携帯電話機 4 2 1一 2にアクセスして接続要求を行 。
携帯電話機 4 2 1 _ 2の送信部 1 1 3および受信部 1 1 4は、 ステップ S 2 7 1において、 その接続要求を取得するとステップ S 2 7 2において、 着信処理を 行い、 携帯電話機 4 2 1 - 1との接続を確立する。
接続が確立すると、 交換局 4 2 3の CPU 4 4 1は、 ステップ S 2 5 3において、 記憶部 4 2 5に記憶されているユーザ情報データベースより携帯電話機 4 2 1 - 1および 4 2 1一 2に対応する最適な高品質化データを検索し、 最適な高品質化 データが存在する場合は、 通信部 4 6 4を制御してそのデータを対応する携帯電 話機に供給する。 また、 対応する最適な高品質化データが存在しないと判定した 場合、 交換局 4 2 3の CPU 4 4 1は、 記憶部 4 2 5に記憶されているデフォルト データベースより対応するデフォルトデータを検索し、 通信部 4 6 4を制御して、 最適な高品質化データの代わりに携帯電話機に供給する。
携帯電話機 4 2 1 - 1の受信部 1 1 4は、 ステップ S 2 3 2において、 交換局 4 2 3より供給された最適な高品質化データ (またはデフォルトデータ) を取得 すると、 ステップ S 2 3 3において、 取得したデータを設定する。
最適な高品質化データ (またはデフォルトデータ) を設定すると、 携帯電話機 4 2 1 - 1の送信部 1 1 3および受信部 1 1 4は、 ステップ S 2 3 4において、 携帯電話機 4 2 1 - 2との音声通話処理を行い、 その音声通話処理において生成 される特徴量に関する情報である特徴量情報を抽出する。
そして、 音声通話処理が完了し、 携帯電話機 4 2 1— 2との回線が切断される と、 携帯電話機 4 2 1一 1の送信部 1 1 3は、 ステップ S 2 3 5において、 操作 部 1 1 5を介して入力されるユーザの指示に基づいて、 ユーザ情報データベース を更新するか否かを判定し、 更新すると判定した場合は、 ステップ S 2 3 6にお いて、 抽出した特徴量情報を交換局 4 2 3に供給し、 処理を終了する。 また、 ス テツプ S 2 3 5において、 ユーザ情報データベースを更新しないと判定した場合、 送信部 1 1 3は、 ステップ S 2 3 6の処理を省略し、 処理を終了する。
携帯電話機 4 2 1 - 1の場合と同様に、 携帯電話機 4 2 1一 2の受信部 1 1 4 は、 ステップ S 2 7 3において、 ステップ S 2 5 3の処理により供給された最適 な高品質化データ (またはデフォルトデータ) を取得すると、 ステップ S 2 7 4 において、 取得した最適な高品質化データ (またはデフォルトデータ) を設定す る。
データが設定されると、 携帯電話機 4 2 1— 2の送信部 1 1 3および受信部 1 1 4は、 ステップ S 2 7 5において、 携帯電話機 4 2 1 - 1との音声通話処理を 行い、 その音声通話処理において生成される特徴量に関する情報である特徴量情 報を抽出する。
そして、 音声通話処理が完了し、 携帯電話機 4 2 1— 1 との回線が切断される と、 携帯電話機 4 2 1 _ 2の送信部 1 1 3は、 ステップ S 2 7 6において、 操作 部 1 1 5を介して入力されるユーザの指示に基づいて、 ユーザ情報データベース を更新するか否かを判定し、 更新すると判定した場合は、 ステップ S 2 7 7にお いて、 抽出した特徴量情報を交換局 4 2 3に供給し、 処理を終了する。 また、 ス テツプ S 2 7 6において、 ユーザ情報データベースを更新しないと判定した場合、 送信部 1 1 3は、 ステップ S 2 7 7の処理を省略し、 処理を終了する。
ステップ S 2 5 3において、 最適な高品質化データ (またはデフォルトデー タ) を供給した交換局 4 2 3の CPU 4 4 1は、 ステップ S 2 3 6の処理により携 帯電話機 4 2 1— 1から特徴量情報を供給された場合、 または、 ステップ S 2 7 7の処理により携帯電話機 4 2 1— 2から特徴量情報を供給された場合、 ステツ プ S 2 5 4において、 供給された特徴量情報を取得する。
そして、 交換局 4 2 3の CPU 4 4 1は、 ステップ S 2 5 5において、 それらの 特徴量情報を取得したか否かを判定し、 取得したと判定した場合、 ステップ S 2 5 6において、 高品質化データ算出部 4 2 4を制御して、 取得した特徴量情報に 基づいて、 高品質化データを算出させ、 算出させた高品質化データを用いて最適 な高品質化データを算出させ、 ユーザ情報データベースを更新し、 処理を終了す る。
また、 ステップ S 2 5 5において、 特徴量情報を携帯電話機 4 2 1— 1または 4 2 1— 2より取得していないと判定した場合、 交換局 4 2 3の CPU 4 4 1は、 ステップ S 2 5 6の処理を省略し、 処理を終了する。
以上のようにして、 携帯電話機 4 2 1— 1および 4 2 1— 2より特徴量情報が 交換局 4 2 3に供給され、 交換局 4 2 3の高品質化データ算出部 4 2 4において、 最適な高品質化データが算出され、 更新されたユーザ情報データベースが記憶部 4 2 5に記憶される。 これにより、 携帯電話機 1 0 1の、 高品質化データに関す る処理による負荷を軽減することができる。
次に、 図 3 3の高品質化データ算出部 4 2 4による高品質化データ算出処理を 図 3 5のフローチャートを参照して説明する。 例えば、 非圧縮の音声データよりタップ係数を高品質化データとして算出する 図 3 3の高品質化データ算出部 4 2 4において、 通信部 4 6 4より供給された、 非圧縮の音声データであるサンプルデータは、 最初に、 バッファ 1 4 1に供給さ れる。 そして、 所定量のサンプルデータが取得されると、 高品質化データ算出処 理が開始される。
最初に、 生徒データ生成部 1 4 2は、 ステップ S 2 9 1において、 バッファ 1 4 1に記憶された音声データを教師データとして、 その教師データから生徒デー タを生成し、 生徒データメモリ 1 4 3に供給して記憶させ、 ステップ S 2 9 2に 進む。
ステップ S 2 9 2では、 予測タップ生成部 1 4 4は、 バッファ 1 4 1に記憶さ れた教師データとしての音声サンプルのうち、 まだ注目データとしていないもの の 1つを注目データとして、 その注目データについて、 生徒データメモリ 1 4 3 に記憶された生徒データとしての音声サンプルの幾つかを読み出すことにより、 予測タップを生成して、 足し込み部 1 4 7に供給する。
さらに、 ステップ S 2 9 2では、 クラスタップ生成部 1 4 5が、 予測タップ生 成部 1 4 4における場合と同様にして、 注目データについて、 クラスタップを生 成し、 クラス分類部 1 4 6に供給する。
ステップ S 2 9 2の処理後は、 ステップ S 2 9 3に進み、 クラス分類部 1 4 6 力 クラスタップ生成部 1 4 5からのクラスタップに基づいて、 クラス分類を行 レ、、 その結果得られるクラスコードを、 足し込み部 1 4 7に供給する。
そして、 ステップ S 2 9 4に進み、 足し込み部 1 4 7は、 ノくッファ 1 4 1から 注目データを読み出し、 その注目データと、 予測タップ生成部 1 4 4からの予測 タップを用いて、 行列 Aとベク トル Vのコンポーネントを計算する。 さらに、 足 し込み部 1 4 7は、 ユーザ用コンポーネント記憶部 1 4 9に記憶された行列 Aと ベク トル Vのコンポーネントのうち、 クラス分類部 1 4 6からのクラスコードに 対応するものに対して、 注目データと予測タップから求められた行列 Aとべク ト ル Vのコンポーネントを足し込み、 ステップ S 2 9 5に進む。 ステップ S 2 9 5では、 予測タップ生成部 1 4 4が、 バッファ 1 4 1に、 まだ、 注目データとしていない教師データが存在するかどうかを判定し、 存在すると判 定した場合、 ステップ S 2 9 2に戻り、 まだ、 注目データとされていない教師デ ータを、 新たに注目データとして、 以下、 同様の処理が繰り返される。
また、 ステップ S 2 9 5において、 ノくッファ 1 4 1に、 注目データとしていな い教師データが存在しないと判定された場合、 足し込み部 1 4 7は、 ユーザ用コ ンポーネント記憶部 1 4 9に記憶されたクラスごとの行列 Aおよびべク トル Vの コンポーネントで構成される式 (8 ) の正規方程式を、 タップ係数決定部 1 5 0 に供給し、 ステップ S 2 9 6に進む。
ステップ S 2 9 6では、 タップ係数決定部 1 5 0は、 足し込み部 1 4 7力ゝら供 給される各クラスごとの正規方程式を解く ことにより、 各クラスごとに、 タップ 係数を求める。 そして、 ステップ S 2 9 7に処理を進め、 タップ係数決定部 1 5 0は、 各クラスごとのタップ係数を、 更新情報とともに、 記憶部 4 2 5に供給し、 サンプルデータの供給元に対応させて、 上書きする形で記憶させ、 高品質化デー タ算出処理を終了する。
以上のように、 高品質化データ算出部 4 2 4では、 新たに入力された音声デー タと、 過去の学習に用いられた音声データに基づく高品質化データ算出処理 (学 習処理) が行われ、 これにより、 ユーザが発話を行うほど、 符号化音声データを、 そのユーザの音声に近い音声に復号することのできるタップ係数が求められる。 従って、 特徴量情報の供給元である携帯電話機の通話相手側において、 そのよう なタップ係数を用いて、 符号化音声データの復号を行うことにより、 ユーザの音 声の特性に適した処理が施され、 十分に音質を改善した復号音声データを得るこ とができ、 ユーザが携帯電話機 4 2 1を使い込むことにより、 通話相手側におい て、 より品質の良い音声が出力されることになる。
以上の例では、 交換局 4 2 3において、 高品質化データを算出し、 算出した高 品質化データを記憶するように説明したが、 図 3 6に示すように、 高品質化デー タの算出は、 特徴量を抽出する携帯電話機において行われるようにし、 算出され た高品質化データ (ユーザ情報データベース) の記憶は、 交換局 4 2 3において 行われるようにしてもよレ、。
図 3 6において、 携帯電話機 l O l iおよび 1 0 1 2は、 図 3に示されるよう に、 送信部 1 1 3に学習部 1 2 5を有しており、 クラス分類適応処理に用いられ るタップ係数 (高品質化データ) を生成することができる。
また、 交換局 4 2 3は、 図 3 2に示されるように、 記憶部 4 2 5を有しており、 最適な高品質化データが電話番号等のユーザ情報に対応付けられたユーザ情報デ ータベースを記憶している。
図 3 6に示されるような伝送システムにおける、 例えば、 携帯電話機 1 0 1 丄 から携帯電話機 1 0 1 2に電話をかける場合の各装置により実行される処理につ いて、 図 3 7のフローチャートを参照して説明する。
最初に、 発信側携帯電話機である携帯電話機 1 0 1 iの送信部 1 1 3は、 ステ ップ S 3 1 1において、 ユーザの指示に基づいて、 通話相手となるユーザが有す る携帯電話機 1 0 1 2に対する発信処理を行い、 交換局 4 2 3にアクセスして接 続要求を行う。
交換局 4 2 3の CPU 4 4 1は、 ステップ S 3 3 1において、 その接続要求を取 得すると、 ステップ S 3 3 2において、 通信部 4 6 4を制御して、 接続処理を行 い、 着信側携帯電話機である携帯電話機 1 0 1 2にアクセスして接続要求を行う。 携帯電話機 1 0 1 2の送信部 1 1 3および受信部 1 1 4は、 ステップ S 3 5 1 において、 その接続要求を取得するとステップ S 3 5 2において、 着信処理を行 レ、、 携帯電話機 1 0 1 との接続を確立する。
接続が確立すると、 交換局 4 2 3の CPU 4 4 1は、 ステップ S 3 3 3において、 記憶部 4 2 5に記憶されているユーザ情報データベースより携帯電話機 1 0 1 j および 1 0 1 2に対応する最適な高品質化データを検索し、 最適な高品質化デー タが存在する場合は、 通信部 4 6 4を制御してそのデータを対応する携帯電話機 に供給する。 また、 対応する最適な高品質化データが存在しないと判定した場合、 交換局 4 2 3の CPU 4 4 1は、 記憶部 4 2 5に記憶されているデフォルトデータ 8825
76
ベースより対応するデフォルトデータを検索し、 通信部 4 6 4を制御して、 最適 な高品質化データの代わりに携帯電話機に供給する。
携帯電話機 1 ◦ 1 iの受信部 1 1 4は、 ステップ S 3 1 2において、 交換局 4 2 3より供給された最適な高品質化データ (またはデフォルトデータ) を取得す ると、 ステップ S 3 1 3において、 取得したデータを設定する。
最適な高品質化データ (またはデフォルトデータ) を設定すると、 携帯電話機 1 0 1 iの送信部 1 1 3および受信部 1 1 4は、 ステップ S 3 1 4において、 携 帯電話機 1 0 1 2との音声通話処理を行い、 その音声通話処理において生成され る特徴量に基づいて、 高品質化データを生成する。
そして、 音声通話処理が完了し、 携帯電話機 1 0 1 2との回線が切断されると、 携帯電話機 1 0 1 の送信部 1 1 3は、 ステップ S 3 1 5において、 操作部 1 1 5を介して入力されるユーザの指示に基づいて、 ユーザ情報データベースを更新 するか否かを判定し、 更新すると判定した場合は、 ステップ S 3 1 6において、 生成した高品質化データを交換局 4 2 3に供給し、 処理を終了する。 また、 ステ ップ S 3 1 5において、 ユーザ情報データベースを更新しないと判定した場合、 送信部 1 1 3は、 ステップ S 3 1 6の処理を省略し、 処理を終了する。
携帯電話機 1 ◦ 1 の場合と同様に、 携帯電話機 1 0 1 2の受信部 1 1 4は、 ステップ S 3 5 3において、 ステップ S 3 3 3の処理により供給された最適な高 品質化データ (またはデフォルトデータ) を取得すると、 ステップ S 3 5 4にお いて、 取得した最適な高品質化データ (またはデフォルトデータ) を設定する。 データが設定されると、 携帯電話機 1 0 1 2の送信部 1 1 3および受信部 1 1 4は、 ステップ S 3 5 5において、 携帯電話機 1 0 1 との音声通話処理を行い、 その音声通話処理において生成される特徴量に基づいて、 高品質化データを生成 する。
そして、 音声通話処理が完了し、 携帯電話機 1 0 1 iとの回線が切断されると、 携帯電話機 1 0 1 2の送信部 1 1 3は、 ステップ S 3 5 6において、 操作部 1 1 5を介して入力されるユーザの指示に基づいて、 ユーザ情報データベースを更新 するか否かを判定し、 更新すると判定した場合は、 ステップ S 3 5 7において、 生成した高品質化データを交換局 4 2 3に供給し、 処理を終了する。 また、 ステ ップ S 3 5 6において、 ユーザ情報データベースを更新しないと判定した場合、 送信部 1 1 3は、 ステップ S 3 5 7の処理を省略し、 処理を終了する。
ステップ S 3 3 3において、 最適な高品質化データ (またはデフォルトデー タ) を供給した交換局 4 2 3の CPU 4 4 1は、 ステップ S 3 1 6の処理により携 帯電話機 1 0 1 iから高品質化データを供給された場合、 または、 ステップ S 3 5 7の処理により携帯電話機 1 0 1 2から高品質化データを供給された場合、 ス テツプ S 3 3 4において、 供給された高品質化データを取得する。
そして、 交換局 4 2 3の CPU 4 4 1は、 ステップ S 3 3 5において、 それらの 高品質化データを取得したか否かを判定し、 取得したと判定した場合、 ステップ S 3 3 6において、 記憶部 4 2 5を制御して、 取得した高品質化データをユーザ 情報データベースに反映させて更新し、 処理を終了する。
また、 ステップ S 2 5 5において、 高品質化データを携帯電話機 1 0 1 また は 1 0 1 2より取得していないと判定した場合、 交換局 4 2 3の CPU 4 4 1は、 ステップ S 3 3 6の処理を省略し、 処理を終了する。
以上のようにして、 携帯電話機 1 0 1 および 1 0 1 2において生成された高 品質化データが交換局 4 2 3に供給され、 供給された高品質化データに基づいて、 交換局 4 2 3の記憶部 4 2 5に記憶されているユーザ情報データベースが更新さ れる。 これにより、 携帯電話機 1 0 1がユーザ情報データベースを記憶する必要 がなくなり、 記憶領域の空き容量を増やすことができる。
以上^例では、 高品質化データの算出は、 特徴量を抽出する携帯電話機 1 0 1 iまたは 1 0 1 2が行い、 算出された高品質化データ (ユーザ情報データべ一 ス) の記憶は、 交換局 4 2 3が行うように説明したが、 逆に、 図 3 8に示すよう に、 交換局 4 2 3が高品質化データの算出を行い、 算出された高品質化データを 携帯電話機に供給し、 記憶させるようにしてもよい。
図 3 8において、 携帯電話機 1 0 1 ,は、 図 3に示される記憶部 1 2 6および 図 4に示される記憶部 1 3 6を含む記憶部 4 8 1 - 1を有しており、 交換局 4 2 3より供給される高品質化データに基づいて作成されたユーザ情報データベース を記憶する。 また、 携帯電話機 1 0 1 2も、 記憶部 4 8 1 - 1と同様の記憶部 4 8 1一 2を有しており、 交換局 4 2 3より供給される高品質化データに基づいて 作成されたユーザ情報データベースを記憶する。
交換局 4 2 3は、 図 3 2に示されるように高品質化データ算出部 4 2 4を有し ており、 携帯電話機 1 0 1 iおよび 1 0 1 2より供給される特徴量情報に基づい て、 高品質化データを算出する。
図 3 8に示されるような伝送システムにおける、 例えば、 携帯電話機 1 0 から携帯電話機 1 0 1 2に電話をかける場合の各装置により実行される処理につ いて、 図 3 9のフローチャートを参照して説明する。
最初に、 発信側携帯電話機である携帯電話機 1 0 の送信部 1 1 3は、 ステ ップ S 3 7 1において、 ユーザの指示に基づいて、 通話相手となるユーザが有す る携帯電話機 1 0 1 2に対する発信処理を行い、 交換局 4 2 3にアクセスして接 続要求を行う。
交換局 4 2 3の CPU 4 4 1は、 ステップ S 3 9 1において、 その接続要求を取 得すると、 ステップ S 3 9 2において、 通信部 4 6 4を制御して、 接続処理を行 い、 着信側携帯電話機である携帯電話機 1 0 1 2にアクセスして接続要求を行う。 携帯電話機 1 0 1 2の送信部 1 1 3および受信部 1 1 4は、 ステップ S 4 1 1 において、 その接続要求を取得するとステップ S 4 1 2において、 着信処理を行 レ、、 携帯電話機 1 0 1 iとの接続を確立する。
接続が確立すると、 携帯電話機 1 0 1 iの受信部 1 1 4は、 ステップ S 3 7 3 において、 記憶部 4 8 1 - 1に記憶されているユーザ情報データベースより最適 な高品質化データを検索し、 最適な高品質化データが存在する場合はそのデータ を設定し、 存在しない場合は、 予め定められたデフォルトデータを設定する。 そ して、 携帯電話機 1 0 1 の送信部 1 1 3および受信部 1 1 4は、 ステップ S 3 7 4において、 携帯電話機 1 0 1 2との音声通話処理を行い、 その音声通話処理 において生成される特徴量情報を抽出する。
音声通話処理が完了し、 携帯電話機 1 0 1 2との回線が切断されると、 携帯電 話機 1 0 1 の送信部 1 1 3は、 ステップ S 3 7 5において、 抽出した特徴量情 報を交換局 4 2 3に供給する。
携帯電話機 1 0 1 iの場合と同様に、 接続が確立すると、 携帯電話機 1 0 1 2 の受信部 1 1 4は、 ステップ S 4 1 4において、 記憶部 4 8 1 _ 2に記憶されて いるユーザ情報データベースより最適な高品質化データを検索し、 最適な高品質 化データが存在する場合はそのデータを設定し、 存在しない場合は、 予め定めら れたデフォルトデータを設定する。 そして、 携帯電話機 1 0 1 2の送信部 1 1 3 および受信部 1 1 4は、 ステップ S 4 1 5において、 携帯電話機 1 0 1 との音 声通話処理を行い、 その音声通話処理において生成される特徴量情報を抽出する。 音声通話処理が完了し、 携帯電話機 1 0 1 iとの回線が切断されると、 携帯電 話機 1 0 1 2の送信部 1 1 3は、 ステップ S 4 1 6において、 抽出した特徴量情 報を交換局 4 2 3に供給する。
特徴量情報を供給された交換局 4 2 3の CPU 4 4 1は、 ステップ S 3 9 4にお いて、 携帯電話機 1 0 1 iおよび 1 0 1 2より供給された特徴量情報を取得し、 取得した特徴量情報を高品質化データ算出部 4 2 4に供給する。
交換局 4 2 3の高品質化データ算出部 4 2 4は、 ステップ S 3 9 5において、 供給された特徴量情報に基づいて、 高品質化データを算出する。 そして、 ステツ プ S 3 9 6において、 交換局 4 2 3の CPU 4 4 1は、 高品質化データ算出部 4 2
4により算出された高品質化データを、 通信部 4 6 4を介して、 特徴量情報の供 給元である携帯電話機 1 0 1 または 1 0 1 2に供給し、 処理を終了する。
特徴量情報を供給した携帯電話機 1 0 1 iの受信部 1 1 4は、 ステップ S 3 7
6において、 交換局 4 2 3より供給された高品質化データを取得すると、 ステツ プ S 3 7 7において、 操作部 1 1 5を介して入力されるユーザの指示に基づいて、 ユーザ情報データベースを更新するか否かを判定し、 更新すると判定した場合は、 ステップ S 3 7 8において、 取得した高品質化データを記憶部 4 8 1― 1に記憶 されているユーザ情報データベースに反映させて、 ユーザ情報データべ一スを更 新し、 処理を終了する。 また、 ステップ S 3 7 7において、 ユーザ情報データべ ースを更新しないと判定した場合、 受信部 1 1 4は、 ステップ S 3 7 8の処理を 省略し、 処理を終了する。
携帯電話機 1 0 1 iの場合と同様に、 特徴量情報を供給した携帯電話機 1 0 1 2の受信部 1 1 4は、 ステップ S 4 1 7において、 交換局 4 2 3より供給された 高品質化データを取得すると、 ステップ S 4 1 8において、 操作部 1 1 5を介し て入力されるユーザの指示に基づいて、 ユーザ情報データベースを更新するか否 かを判定し、 更新すると判定した場合は、 ステップ S 4 1 9において、 取得した 高品質化データを記憶部 4 8 1— 2に記憶されているユーザ情報データベースに 反映させて、 ユーザ情報データベースを更新し、 処理を終了する。 また、 ステツ プ S 4 1 8において、 ユーザ情報データベースを更新しないと判定した場合、 受 信部 1 1 4は、 ステップ S 4 1 9の処理を省略し、 処理を終了する。
以上のようにして、 交換局 4 2 3において生成された高品質化データが携帯電 話機 1 0 1 および 1 0 1 2に供給され、 供給された高品質化データに基づいて、 記憶部 4 8 1 - 1および 4 8 1 - 2に記憶されているユーザ情報データベースが 更新される。 これにより、 携帯電話機 1 0 1の、 高品質化データの算出に関する 負荷を軽減することができる。
以上の例で示されるように、 高品質化データの算出および記憶の各処理は、 図 1、 図 3 0、 図 3 6、 または図 3 8に示されるように伝送システムの携帯電話機 側で行つてもよいし、 交換局側で行ってもよい。
また、 以上においては、 交換局側の処理は、 交換局 4 2 3において行うように 説明したが、 上述した例の交換局 4 2 3において行われる処理の一部または全部 を基地局 1 0 2 または基地局 1 0 2 2において実行するようにしてもよい。 そ の場合、 基地局 1 0 2 または基地局 1 0 2 2は、 例えば、 図 3 2に示される交 換局 4 2 3と同様に構成される。
さらに、 例えば、 図 4 0に示されるように、 携帯電話機 1 0 1 iおよび 1 0 1 2のユーザの家に設置されるような、 ホームサーバ 5 0 1— 1および 5 0 1— 2 を用いて、 高品質化データの算出および記憶の各処理を行うようにしてもよい。 図 4 0において、 ホームサーバ 5 0 1— 1は、 携帯電話機 1 0 1 の家に設置 されたコンピュータであり、 携帯電話機 1 0 1ェと有線または無線により通信を 行うことができるコンピュータである。
同様に、 ホームサーバ 5 0 1— 2は、 携帯電話機 1 0 1 2の家に設置されたコ ンピュータであり、 携帯電話機 1 0 1 2と有線または無線により通信を行うこと ができるコンピュータである。
ホームサーバ 5 0 1— 1および 5 0 1— 2は、 それぞれ、 携帯電話機 1 0 1 および 1 0 1 2と、 交換局 4 2 3とは別に、 有線または無線により接続され、 図 3 0 , 3 6、 または 3 8を参照して説明した交換局 4 2 3における高品質化デ一 タに関する処理を行う。 なお、 ホームサーバ 5 0 1— 1は、 交換局 4 2 3におけ る高品質化データに関する処理の、 携帯電話機 1 0 1 iに対応する処理を行い、 ホームサーバ 5 0 1— 2は、 交換局 4 2 3における高品質化データに関する処理 の、 携帯電話機 1 0 1 2に対応する処理を行う。
ここで、 以下、 特に区別する必要がない限り、 ホームサーバ 5 0 1— 1と 5 0 1一 2を、 ホームサーバ 5 0 1と記述する。
図 4 1は、 .ホームサーバ 5 0 1の内部の構成例を示す図である。
図 4 1において、 ホームサーバ 5 0 1は、 図 3 2に示される交換局 4 2 3と同 様に構成されている。 すなわち、 図 4 1に示されるホームサーバ 5 0 1の CPU 5 1 1乃至半導体メモリ 5 3 4は、 図 3 2に示される交換局 4 2 3の CPU 4 4 1乃 至半導体メモリ 4 7 4にそれぞれ対応している。
なお、 ホームサーバ 5 0 1の通信部 5 2 4は、 有線または無線により、 携帯電 話機 1 0 1と通信を行う。
次に、 図 4 0の伝送システムにおいて、 ホームサーバ 5 0 1が図 3 0の伝送シ ステムの交換局 4 2 3と同様の処理を行う場合、 すなわち、 ホームサーバ 5 0 1 が高品質化データの算出と記憶の両方の処理を行う場合の、 ホームサーバ 5 0 1 および携帯電話機 1 0 1により実行される処理を、 図 4 2のフローチャートを参 照して説明する。
最初に、 ステップ S 4 3 1において、 携帯電話機 1 0 1の送信部 1 1 3および 受信部 1 1 4は、 交換局 4 2 3を介して通話相手の携帯電話機に回線を接続する 音声通話接続処理を行う。 すなわち、'携帯電話機 1 0 1 の場合、 図 3 4のステ ップ S 2 3 1の処理が行われ、 携帯電話機 1 0 1 2の場合、 図 3 4のステップ S 2 7 1および S 2 7 2の処理が行われ、 回線が接続される。
回線が接続されると、 携帯電話機 1 0 1の送信部 1 1 3は、 ステップ S 4 3 2 において、 ホームサーバ 5 0 1にアクセスし、 高品質化データを要求する。 ホー ムサーバ 5 0 1の CPU 5 1 1は、 ステップ S 4 5 1において、 この要求を取得す ると、 ステップ S 4 5 2において、 記憶部 5 2 3に記憶されているユーザ情報デ ータベースより通話相手のユーザ情報に対応する高品質化データを検索し、 該当 する高品質化データが存在する場合は、 通信部 5 2 4を制御して、 その高品質化 データを携帯電話機 1 0 1に供給し、 存在しない場合は、 通信部 5 2 4を制御し て、 デフォルトデータを携帯電話機 1 0 1に供給する。
携帯電話機 1 0 1の受信部 1 1 4は、 ステップ S 4 3 3において、 ホームサー バ 1 0 1より供給された最適な高品質化データまたはデフオルトデータを取得す ると、 ステップ S 4 3 4において、 取得した最適な高品質化データまたはデフォ ノレトデータを設定する。
そして、 ステップ S 4 3 5において、 携帯電話機 1 0 1の送信部 1 1 3および 受信部 1 1 4は、 音声通話処理を行い、 その音声通話処理において生成される特 徴量に関する情報である特徴量情報を抽出する。
そして、 音声通話処理が完了し、 通話相手の携帯電話機との回線が切断される と、 携帯電話機 1 0 1の送信部 1 1 3は、 ステップ S 4 3 6において、 操作部 1 1 5を介して入力されるユーザの指示に基づいて、 ホームサーバ 5 0 1の記憶部 5 2 3のユーザ情報データベースを更新するか否かを判定し、 更新すると判定し た場合は、 ステップ S 4 3 7において、 抽出した特徴量情報をホームサーバ 5 0 1に供給し、 処理を終了する。 また、 ステップ S 4 3 6において、 ユーザ情報デ ータベースを更新しないと判定した場合、 送信部 1 1 3は、 ステップ S 4 3 7の 処理を省略し、 処理を終了する。
ステップ S 4 5 2において、 最適な高品質化データ (またはデフォルトデー タ) を供給したホームサーバ 5 0 1の CPU 5 1 1は、 ステップ S 4 3 7の処理に より携帯電話機 1 0 1から特徴量情報を供給された場合、 ステップ S 4 5 3にお いて、 供給された特徴量情報を取得する。
そして、 ホームサーバ 5 0 1の CPU 5 1 1は、 ステップ S 4 5 4において、 そ れらの特徴量情報を取得したか否かを判定し、 取得したと判定した場合、 ステツ プ S 4 5 5において、 高品質化データ算出部 5 1 4を制御して、 取得した特徴量 情報に基づいて、 高品質化データを算出させ、 算出させた高品質化データおよび 記憶部 5 2 3のユーザ情報データベースの情報を用いて、 新たな、 最適な高品質 化データを算出し、 記憶部 5 2 3のユーザ情報データベースを更新し、 処理を終 了する。
また、 ステップ S 4 5 4において、 特徴量情報を携帯電話機 1 0 1より取得し ていないと判定した場合、 ホームサーバ 1 0 1の CPU 5 1 1は、 ステップ S 4 5
5の処理を省略し、 処理を終了する。
以上のようにして、 携帯電話機 1 0 1より特徴量情報がホームサーバ 5 0 1に 供給され、 ホームサーバ 5 0 1の高品質化データ算出部 5 1 4において、 最適な 高品質化データが算出され、 更新されたユーザ情報データベースが記憶部 5 2 3 に記憶される。 これにより、 携帯電話機 1 0 1の、 高品質化データに関する処理 による負荷を軽減することができる。
次に、 図 4 0の伝送システムにおいて、 ホームサーバ 5 0 1が図 3 6の伝送シ ステムの交換局 4 2 3と同様の処理を行う場合、 すなわち、 ホームサーバ 5 0 1 が高品質化データの記憶に関する処理を行い、 携帯電話機 1 0 1が高品質化デー タの算出に関する処理を行う場合の、 ホームサーバ 5 0 1および携帯電話機 1 0
1により実行される処理を、 図 4 3のフローチャートを参照して説明する。 最初に、 ステップ S 4 7 1において、 携帯電話機 1 0 1の送信部 1 1 3および 受信部 1 1 4は、 図 4 2のステップ S 4 3 1の場合と同様に、 音声通話接続処理 を行う。
回線が接続されると、 携帯電話機 1 0 1の送信部 1 1 3は、 ステップ S 4 7 2 において、 図 4 2のステップ S 4 3 2の場合と同様に、 ホームサーバ 5 0 1にァ クセスし、 高品質化データを要求する。 ホームサーバ 5 0 1の CPU 5 1 1は、 図 4 2のステップ S 4 5 1および S 4 5 2の場合と同様に、 ステップ S 4 9 1にお いて、 この要求を取得すると、 ステップ S 4 9 2において、 記憶部 5 2 3のユー ザ情報データベースより通話相手のユーザ情報に対応する高品質化データを検索 し、 該当.する高品質化データが存在する場合は、 その高品質化データを携帯電話 機 1 0 1に供給し、 存在しない場合は、 デフォルトデータを携帯電話機 1 0 1に 供給する。
携帯電話機 1 0 1の受信部 1 1 4は、 図 4 2のステップ S 4 3 3および S 4 3 4の場合と同様に、 ステップ S 4 7 3において、 最適な高品質化データまたはデ フォルトデータを取得すると、 ステップ S 4 7 4において、 それらを設定する。 そして、 ステップ S 4 7 5において、 携帯電話機 1 0 1の送信部 1 1 3および 受信部 1 1 4は、 音声通話処理を行い、 その音声通話処理において生成される特 徴量情報に基づいて、 高品質化データを生成する。
音声通話処理が完了し、 通話相手の携帯電話機との回線が切断されると、 携帯 電話機 1 0 1の送信部 1 1 3は、 図 4 2のステップ S 4 3 6の場合と同様に、 ス テツプ S 4 7 6において、 ユーザの指示に基づいて、 ユーザ情報データベースを 更新するか否かを判定し、 更新すると判定した場合は、 ステップ S 4 7 7におい て、 生成した高品質化データをホームサーバ 5 0 1に供給し、 処理を終了する。 また、 ステップ S 4 7 6において、 ユーザ情報データベースを更新しないと判定 した場合、 送信部 1 1 3は、 ステップ S 4 7 7の処理を省略し、 処理を終了する c ホームサーバ 5 0 1の CPU 5 1 1は、 ステップ S 4 7 7の処理により携帯電話 機 1 0 1から高品質化データを供給された場合、 ステップ S 4 9 3においてそれ を取得する。
そして、 ホームサーバ 5 0 1の CPU 5 1 1は、 ステップ S 4 9 4において、 高 品質化データを取得したか否かを判定し、 取得したと判定した場合、 ステップ S 4 9 5において、 取得した高品質化データおよび記憶部 5 2 3のユーザ情報デー タベースの情報を用いて、 新たな、 最適な高品質化データを算出し、 記憶部 5 2 3のユーザ情報データベースを更新し、 処理を終了する。
また、 ステップ S 4 9 4において、 高品質化データを携帯電話機 1 0 1より取 得していないと判定した場合、 'ホームサーバ 1 0 1の CPU 5 1 1は、 ステップ S 4 9 5の処理を省略し、 処理を終了する。 .
以上のようにして、 携帯電話機 1 0 1において算出された高品質化データがホ ームサーバ 5 0 1に供給され、 ホームサーバ 5 0 1において更新されたユーザ情 報データベースが記憶部 5 2 3に記憶される。 これにより、 携帯電話機 1 0 1が ユーザ情報データべ一スを記憶する必要がなくなり、 記憶領域の空き容量を増や すことができる。
次に、 図 4 0の伝送システムにおいて、 ホームサーバ 5 0 1が図 3 8の伝送シ ステムの交換局 4 2 3と同様の処理を行う場合、 すなわち、 ホームサーバ 5 0 1 が高品質化データの算出に関する処理を行い、 携帯電話機 1 0 1が高品質化デー タの記憶に関する処理を行う場合の、 ホームサーバ 5 0 1および携帯電話機 1 0 1により実行される処理を、 図 4 4のフローチヤ一トを参照して説明する。
最初に、 ステップ S 5 1 1において、 携帯電話機 1 0 1の送信部 1 1 3および 受信部 1 1 4は、 図 4 2のステップ S 4 3 1の場合と同様に、 音声通話接続処理 を行う。
回線が接続されると、 携帯電話機 1 0 1の送信部 1 1 3および受信部 1 1 4は、 ステップ S 5 1 4において、 記憶部 1 2 6または 1 3 6 (記憶部 4 8 1 ) のユー ザ情報データベースより最適な高品質化データを検索し、 設定する。 なお、 該当 する最適な高品質化データが存在しない場合、 携帯電話機 1 0 1の送信部 1 1 3 および受信部 1 1 4は、 デフオルトデータメモリ 1 3 7等のデフォルトデータべ ースよりデフォルトデータを選択し、 設定する。
そして、 ステップ S 5 1 5において、 携帯電話機 1 0 1の送信部 1 1 3および 受信部 1 1 4は、 図 4 2のステップ S 4 3 5の場合と同様に、 音声通話処理を行 レ、、 その音声通話処理において生成される特徴量に関する情報である特徴量情報 を抽出する。
音声通話処理が完了し、 通話相手の携帯電話機との回線が切断されると、 携帯 電話機 1 0 1の送信部 1 1 3は、 ステップ S 5 1 6において、 抽出した特徴量情 報をホームサーバ 5 0 1に供給する。
特徴量情報を供給されたホームサーバ 5 0 1の CPU 5 1 1は、 ステップ S 5 3 3においてそれを取得し、 高品質化データ算出部 5 1 4に供給する。
ホームサーバ 5 0 1の高品質化データ算出部 5 1 4は、 ステップ S 5 3 4にお いて、 供給された特徴量情報に基づいて、 高品質化データを算出する。 そして、 ステップ S 5 3 5において、 ホームサーバ 5 0 1の CPU 5 1 1は、 高品質化デー タ算出部 5 1 4により算出された高品質化データを、 通信部 5 2 4を介して、 特 徴量情報の供給元である携帯電話機 1 0 1に供給し、 処理を終了する。
携帯電話機 1 0 1の受信部 1 1 4は、 ステップ S 5 1 7において、 ホームサー バ 5 0 1より供給された高品質化データを取得すると、 ステップ S 5 1 8におい て、 操作部 1 1 5を介して入力されるユーザの指示に基づいて、 ユーザ情報デー タベースを更新するか否かを判定し、 更新すると判定した場合は、 ステップ S 5 1 9において、 取得した高品質化データを記憶部 1 2 6または 1 3 6 (記憶部 4 8 1 ) に記憶されているユーザ情報データベースに反映させて、 ユーザ情報デー タベースを更新し、 処理を終了する。 また、 ステップ S 5 1 8において、 ユーザ 情報データベースを更新しないと判定した場合、 受信部 1 1 4は、 ステップ S 5 1 9の処理を省略し、 処理を終了する。
以上のようにして、 ホームサーバ 5 0 1において生成された高品質化データが 携帯電話機 1 0 1に供給され、 供給された高品質化データに基づいて、 記憶部 1 2 6または 1 3 6 (記憶部 4 8 1 ) に記憶されているユーザ情報データベースが 更新される。 これにより、 携帯電話機 1 0 1の、 高品質化データの算出に関する 負荷を軽減することができる。
次に、 上述した一連の処理は、 ハードウェアにより行うこともできるし、 ソフ トウエアにより行うこともできる。 一連の処理をソフトウエアによって行う場合 には、 そのソフトウェアを構成するプログラムが、 汎用のコンピュータ等にイン ス トーノレされる。
そこで、 図 4 5は、 携帯電話機 1 0 1の、 上述した一連の処理を実行するプロ グラムがィンス トールされるコンピュータの一実施の形態の構成例を示している。 プログラムは、 コンピュータに内蔵されている記録媒体としてのハードディス ク 6 0 5や ROM6 0 3に予め記録しておくことができる。
あるいはまた、 プログラムは、 フレキシブルディスク、 CD-ROM (Compact Disc Read Only Memory) , M0 (Magneto optical)ディスク, DVD (Digital Versatile Disc), 磁気ディスク、 半導体メモリなどのリムーバブル記録媒体 6 1 1に、 一 時的あるいは永続的に格納 (記録) しておくことができる。 このようなリムーバ ブル記録媒体 6 1 1は、 いわゆるパッケージソフトウェアとして提供することが できる。
なお、 プログラムは、 上述したようなリムーバブル記録媒体 6 1 1からコンビ ユータにインス トールする他、 ダウンロードサイ トから、 ディジタル衛星放送用 の人工衛星を介して、 コンピュータに無線で転送したり、 LAN(Local Area Network)、 インターネッ トといったネッ トワークを介して、 コンピュータに有 線で転送し、 コンピュータでは、 そのようにして転送されてくるプログラムを、 通信部 6 0 8で受信し、 内蔵するハードディスク 6 0 5にインストールすること ができる。
コンピュータは、 CPU6 0 2を内蔵している。 CPU6 0 2には、 バス 6 0 1を 介して、 入出力ィンタフェース 6 1 0が接続されており、 CPU6 0 2は、 入出力 インタフェース 6 1 0を介して、 ユーザによって、 キーボードゃ、 マウス、 マイ ク等で構成される入力部 6 0 7が操作等されることにより指令が入力されると、 それにしたがって、 R0M 6 0 3に格納されているプログラムを実行する。 あるい は、 また、 CPU 6 0 2は、 ハードディスク 6 0 5に格納されているプログラム、 衛星若しくはネットワークから転送され、 通信部 6 0 8で受信されてハードディ スク 6 0 5にインストールされたプログラム、 またはドライブ 6 0 9に装着され たリムーバブル記録媒体 4 1 1から読み出されてハードディスク 6 0 5にインス トールされたプログラムを、 RAM 6 0 4にロードして実行する。 これにより、 CPU 6 0 2は、 上述したフローチャートにしたがった処理、 あるいは上述したブ ロック図の構成により行われる処理を行う。 そして、 CPU 6 0 2は、 その処理結 果を、 必要に応じて、 例えば、 入出力インタフェース 6 1 0を介して、 LCD ゃス ピー力等で構成される出力部 6 0 6から出力、 あるいは、 通信部 6 0 8から送信、 さらには、 ハードディスク 6 0 5に記録等させる。
ここで、 本明細書において、 コンピュータに各種の処理を行わせるためのプロ グラムを記述する処理ステップは、 必ずしもフローチヤ一トとして記載された順 序に沿つて時系列に処理する必要はなく、 並列的あるいは個別に実行される処理 (例えば、 並列処理あるいはオブジェク トによる処理) も含むものである。
また、 プログラムは、 1のコンピュータにより処理されるものであっても良い し、 複数のコンピュータによって分散処理されるものであっても良い。 さらに、 プログラムは、 遠方のコンピュータに転送されて実行されるものであっても良い。 なお、 本実施の形態では、 着信側において、 着呼時に、 発信側から送信されて くる電話番号を、 発信側を特定する特定情報とするようにしたが、 その他、 例え ば、 ユーザ等に、 ユニークな ID (Identi fi cat ion)を割り当てておき、 その ID を、 特定情報として用いることも可能である。
また、 本実施の形態では、 本発明を、 携帯電話機どうしで音声通話を行う伝送 システムに適用した場合について説明したが、 本発明は、 その他、 音声通信を行 うシステムに広く適用可能である。 産業上の利用可能性 本発明の送信装置および送信方法、 並びに第 1のプログラムによれば、 符号化 音声データを送信することができる。 特に、 最適な設定で、 符号化音声データを 送信することができ、 受信側において、 高品質の音声を復号することが可能とな る。
本発明の受信装置及び受信方法、 並びに第 2のプログラムによれば、 符号化音 声データを受信することができる。 特に、 最適な設定で、 符号化音声データを受 信することができ、 高品質の音声を復号することが可能となる。
本発明の送受信装置によれば、 符号化音声データを送受信することができる。 特に、 最適な設定で、 符号化音声データを送受信することができ、 高品質の音声 を復号することが可能となる。
本発明の第 1の通信装置及び第 1の通信方法、 並びに第 3のプログラムによれ ば、 送受信装置と通信を行うことができる。 特に、 送受信装置の必要な記憶領域 を小さくすることができる。
本発明の第 2の通信装置及び第 2の通信方法、 並びに第 4のプログラムによれ ば、 送受信装置と通信を行うことができる。 特に、 送受信装置にかかる負荷を軽 減することができる。

Claims

請求の範囲
1 . 入力された音声データを送信する送信装置であって、
前記音声データを符号化し、 符号化音声データを出力する符号化手段と、 前記符号化音声データを送信する送信手段と、
前記符号化手段による符号化に関するパラメータ、 および前記送信手段による 送信に関するパラメータを、 前記符号化音声データを受信する受信側を特定する 特定情報に対応させて記憶するパラメータ記憶手段と、
前記特定情報に基づいて、 前記パラメータ記憶手段により記憶されている前記 符号化手段による符号化に関するパラメータ、 および前記送信手段による送信に 関するパラメータを選択し、 設定するパラメータ設定手段と
を備えることを特徴とする送信装置。
2 . 前記符号化に関するパラメータは、 符号化方式および前記符号化に用いら れるコードブックを含む
ことを特徴とする請求の範囲第 1項に記載の送信装置。
3 . 前記送信に関するパラメータは、 変調方式および前記送信におけるデータ の単位時間あたりの送信データ量を含む
ことを特徴とする請求の範囲第 1項に記載の送信装置。
4 . 前記パラメータ記憶手段は、 1つの前記特定情報に対して、 互いに異なる 優先度が付加された複数の前記符号化に関するパラメータおよび前記送信に関す るパラメータの組み合わせを記憶する
ことを特徴とする請求の範囲第 1項に記載の送信装置。
5 . 前記符号化に関するパラメータおよび前記送信に関するパラメータの初期 値を記憶する初期値記憶手段をさらに備え、
前記設定手段は、 前記特定情報に対応付けられた前記符号化に関するパラメ一 タおよび前記送信に関するパラメータが存在しない場合、 前記初期値記憶手段に 記憶された前記初期値を設定する
ことを特徴とする請求の範囲第 1項に記載の送信装置。
6 . 前記初期値記憶手段は、 前記受信側の状態に関する情報に対応付けて前 記初期値を記憶する
ことを特徴とする請求の範囲第 5項に記載の送信装置。
7 . 前記受信側において出力される音声の品質を向上させる高品質化データ の学習を、 過去の学習に用いられた音声データと、 新たに入力された音声データ に基づいて行う学習手段をさらに備え、
前記送信手段は、 前記符号化音声データとともに、 前記高品質化データを送信 する
ことを特徴とする請求の範囲第 1項に記載の送信装置。
8 . 前記学習手段は、 前記符号化音声データを復号した復号音声データを高 品質化した高品質音声データの予測値を求める予測演算を行うのに、 前記復号音 声データとともに用いるタップ係数を、 前記高品質化データとして求める学習を 行う
ことを特徴とする請求の範囲第 7項に記載の送信装置。
9 . 入力された音声データを送信する送信装置の送信方法であって、
前記音声データを符号化し、 符号化音声データを出力する符号化ステップと、 前記符号化音声データの送信を制御する送信制御ステップと、
前記符号化ステップの処理による符号化に関するパラメータ、 および前記送信 制御ステップの処理により制御された送信に関するパラメータを前記符号化音声 データの、 受信する受信側を特定する特定情報に対応させた記憶を制御するパラ メータ記憶制御ステップと、
前記特定情報に基づいて、 前記パラメータ記憶制御ステップの処理により記憶 が制御されている前記符号化ステップの処理による符号化に関するパラメータ、 および前記送信制御ステップの処理により制御された送信に関するパラメータを 選択し、 設定するパラメータ設定ステップと
を含むことを特徴とする送信方法。
1 0 . 入力された音声データを送信する送信装置用のプログラムであって、 前記音声データを符号化し、 符号化音声データを出力する符号化ステップと、 前記符号化音声データの送信を制御する送信制御ステップと、
前記符号化ステップの処理による符号化に関するパラメータ、 および前記送信 制御ステップの処理により制御された送信に関するパラメータを前記符号化音声 データの、 受信する受信側を特定する特定情報に対応させた記憶を制御するパラ メータ記憶制御ステップと、
前記特定情報に基づいて、 前記パラメータ記憶制御ステップの処理により記憶 が制御されている前記符号化ステップの処理による符号化に関するパラメータ、 および前記送信制御ステップの処理により制御された送信に関するパラメータを 選択し、 設定するパラメータ設定ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
1 1 . 入力された音声データを送信する送信装置を制御するコンピュータが実 行可能なプログラムであって、
前記音声データを符号化し、 符号化音声データを出力する符号化ステップと、 前記符号化音声データの送信を制御する送信制御ステップと、
前記符号化ステツプの処理による符号化に関するパラメータ、 および前記送信 制御ステップの処理により制御された送信に関するパラメータを前記符号化音声 データの、 受信する受信側を特定する特定情報に対応させた記憶を制御するパラ メータ記憶制御ステップと、
前記特定情報に基づいて、 前記パラメータ記憶制御ステップの処理により記憶 が制御されている前記符号化ステップの処理による符号化に関するパラメータ、 および前記送信制御ステップの処理により制御された送信に関するパラメータを 選択し、 設定するパラメータ設定ステップと
を含むことを特徴とするプログラム。
1 2 . 音声データを符号化した符号化音声データを受信する受信装置であって、 前記符号化音声データを受信する受信手段と、 前記受信手段において受信された符号化音声データを復号する復号手段と、 前記受信手段による受信に関するパラメータ、 および前記復号手段による復号 に関するパラメータを、 前記符号化音声データを送信する送信側を特定する特定 情報に対応させて記憶するパラメータ記憶手段と、
前記特定情報に基づいて、 前記パラメータ記憶手段により記憶されている前記 受信手段による受信に関するパラメータ、 および前記復号手段による復号に関す るパラメータを選択し、 設定するパラメータ設定手段と
を備えることを特徴とする受信装置。
1 3 . 前記復号に関するパラメータは、 前記符号化音声データを送信する送信 側による符号化の符号化方式および前記符号化に用いられたコードブックを含む ことを特徴とする請求の範囲第 1 2項に記載の受信装置。
1 4 . 前記受信に関するパラメータは、 前記送信側による前記符号化音声デー タを送信する際の変調方式に対応する復調方式を含む
ことを特徴とする請求の範囲第 1 2項に記載の受信装置。
1 5 . 前記パラメータ記憶手段は、 1つの前記特定情報に対して、 互いに異な る優先度が付加された複数の前記受信に関するパラメータおよび前記復号に関す るパラメータの組み合わせを記憶する
ことを特徴とする請求の範囲第 1 2項に記載の受信装置。
1 6 . 前記パラメータ記憶手段により記憶されている前記受信に関するパラメ ータおよび前記復号に関するパラメータが最新であるか否かを判定する判定手段 をさらに備え、
前記判定手段が、 前記パラメータ記憶手段により記憶されている前記受信に関 するパラメータおよび前記復号に関するパラメータが最新でないと判定した場合、 前記パラメータ記憶手段は、 記憶している前記受信に関するパラメータおよび前 記復号に関するパラメータを更新する
ことを特徴とする請求の範囲第 1 2項に記載の受信装置。
1 7 . 前記受信に関するパラメータおよび前記復号に関するパラメータの初期 値を記憶する初期値記憶手段をさらに備え、
前記設定手段は、 前記特定情報に対応付けられた前記受信に関するパラメータ および前記復号に関するパラメータが存在しない場合、 前記初期値記憶手段に記 憶された前記初期値を設定する
ことを特徴とする請求の範囲第 1 2項に記載の受信装置。
1 8 . 前記初期値記憶手段は、 前記受信手段により受信された信号の状態に関 する情報に対応付けて前記初期値を記憶する
ことを特徴とする請求の範囲第 1 2項に記載の受信装置。
1 9 . 前記受信手段により受信された信号の状態に関する情報は、 前記信号に 含まれるノイズ量、 前記信号の信号強度、 および前記信号のキャリア周波数を含 む
ことを特徴とする請求の範囲第 1 8項に記載の受信装置。
2 0 . 前記受信手段は、 前記符号化音声データを復号した復号音声データの品 質を向上させる高品質化データをさらに受信し、
前記パラメータ記憶手段は、 前記受信手段により受信された前記高品質化デー タを、 前記特定情報に対応させてさらに記憶する
ことを特徴とする請求の範囲第 1 2項に記載の受信装置。
2 1 . 前記受信手段は、 前記符号化音声データを受信中に前記高品質化データを 受信し、
前記パラメータ記憶手段は、 前記受信手段により前記符号化音声データの受信 中に受信された前記高品質化データを、 前記特定情報に対応させてさらに記憶す る
ことを特徴とする請求の範囲第 2 0項に記載の受信装置。
2 2 . 前記高品質化データは、 クラス分類適応処理のタップ係数、 コードブッ ク、 伝送形態に関するパラメータ、 符号化構造に関するパラメータ、 およびクリ エーションに関するパラメータを含む
ことを特徴とする請求の範囲第 2 0項に記載の受信装置。
2 3 . 前記高品質化データは、 高品質化した高品質音声データの予測値を求め る予測演算を行うのに、 前記復号音声データとともに用いるタップ係数を含む ことを特徴とする請求の範囲第 2 0項に記載の受信装置。
2 4 . 音声データを符号化した符号化音声データを受信する受信装置の受信方 法であって、
前記符号化音声データの受信を制御する受信制御ステップと、
前記受信制御ステップの処理において受信が制御された符号化音声データを復 号する復号ステップと、
前記受信制御ステップの処理により制御された受信に関するパラメータ、 およ び前記復号ステップの処理による復号に関するパラメータの、 前記符号化音声デ ータを送信する送信側を特定する特定情報に対応させた記憶を制御するパラメ一 タ記憶制御ステップと、
前記特定情報に基づいて、 前記パラメータ記憶制御ステップの処理により記憶 が制御されている前記受信制御ステップの処理により制御された受信に関するパ ラメータ、 および前記復号ステップの処理による復号に関するパラメータを選択 し、 設定するパラメータ設定ステップと
を含むことを特徴とする受信方法。
2 5 . 音声データを符号化した符号化音声データを受信する受信装置用のプロ グラムであって、
前記符号化音声データの受信を制御する受信制御ステップと、
前記受信制御ステップの処理において受信が制御された符号化音声データを復 号する復号ステップと、
前記受信制御ステップの処理により制御された受信に関するパラメータ、 およ び前記復号ステップの処理による復号に関するパラメータの、 前記符号化音声デ ータを送信する送信側を特定する特定情報に対応させた記憶を制御するパラメ一 タ記憶制御ステップと、 . 前記特定情報に基づいて、 前記パラメータ記憶制御ステップの処理により記憶 が制御されている前記受信制御ステップの処理により制御された受信に関するパ ラメータ、 および前記復号ステツプの処理による復号に関するパラメータを選択 し、 設定するパラメータ設定ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
2 6 . 音声データを符号化した符号化音声データを受信する受信装置を制御す るコンピュータが実行可能なプログラムであって、
前記符号化音声データの受信を制御する受信制御ステップと、
前記受信制御ステップの処理において受信が制御された符号化音声データを復 号する復号ステップと、
前記受信制御ステップの処理により制御された受信に関するパラメータ、 およ び前記復号ステップの処理による復号に関するパラメータの、 前記符号化音声デ ータを送信する送信側を特定する特定情報に対応させた記憶を制御するパラメ一 タ記憶制御ステップと、
前記特定情報に基づいて、 前記パラメータ記憶制御ステップの処理により記憶 が制御されている前記受信制御ステツプの処理により制御された受信に関するパ ラメータ、 および前記復号ステップの処理による復号に関するパラメ一タを選択 し、 設定するパラメータ設定ステップと
を含むことを特徴とするプログラム。
2 7 . 送信装置と受信装置とから構成される送受信装置であって、
前記送信装置は、
前記音声データを符号化し、 符号化音声データを出力する符号化手段と、 前記符号化音声データを送信する送信手段と、
前記符号化手段による符号化に関するパラメータ、 および前記送信手段によ る送信に関するパラメータを、 前記符号化音声データを受信する受信側を特定す る第 1の特定情報に対応させて記憶する第 1のパラメータ記憶手段と、
前記第 1の特定情報に基づいて、 前記第 1のパラメータ記憶手段により記憶 されている前記符号化手段による符号化に関するパラメータ、 および前記送信手 段による送信に関するパラメータを選択し、 設定する第 1のパラメータ設定手段 と
を備え、
前記受信装置は、
前記符号化音声データを受信する受信手段と、
前記受信手段により受信された符号化音声データを復号する復号手段と、 前記受信手段による受信に関するパラメータ、 および前記復号手段による復 号に関するパラメータを、 前記符号化音声データを送信する送信側を特定する第 2の特定情報に対応させて記憶する第 2のパラメータ記憶手段と、
前記第 2の特定情報に基づいて、 前記第 2のパラメータ記憶手段により記憶 されている前記受信手段による受信に関するパラメータ、 および前記復号手段に よる復号に関するパラメータを選択し、 設定する第 2のパラメータ設定手段と を備えることを特徴とする送受信装置。
2 8 . 送受信装置と通信を行う通信装置であって、
前記送受信装置より符号化音声データを復号した復号音声データの品質を向上 させる高品質化データを取得する取得手段と、
前記取得手段により取得された前記高品質化データを、 前記送受信装置を特定 する特定情報に対応させて記憶する記憶手段と、
前記記憶手段により記憶されている前記高品質化データを、 前記特定情報が特 定する前記送受信装置に供給する供給手段と
を備えることを特徴とする通信装置。
2 9 . 前記取得手段は、 前記送受信装置において行われる符号化および復号に 関するパラメータ、 並びに前記送受信装置による送受信に関するパラメータをさ らに取得し、
前記記憶手段は、 前記取得手段により取得された前記符号化および復号に関す るパラメータ、 並びに前記送受信に関するパラメータを、 前記送受信装置を特定 する特定情報に対応させてさらに記憶し、
前記供給手段は、 前記記憶手段により記憶されている前記符号化および復号に 関するパラメータ、 並びに前記送受信に関するパラメータをさらに供給する ことを特徴とする請求の範囲第 2 8項に記載の通信装置。
3 0 . 前記記憶手段は、 前記高品質化データ、 前記符号化および復号に関する パラメータ、 並びに前記送受信に関するパラメータの初期値を、 前記送受信装置 に関する情報に対応させてさらに記憶し、
前記供給手段は、 前記特定情報に対応付けられた前記高品質化データ、 前記符 号化および復号に関するパラメータ、 並びに前記送受信に関するパラメータが存 在しない場合、 前記記憶手段に記憶された前記初期値を前記送受信装置に供給す る
ことを特徴とする請求の範囲第 2 8項に記載の通信装置。
3 1 . 送受信装置と通信を行う通信装置の通信方法であって、
前記送受信装置から供給された符号化音声データを復号した復号音声データの 品質を向上させる高品質化データの取得を制御する取得制御ステップと、 前記取得制御ステップの処理により取得が制御された前記高品質化データの、 前記送受信装置を特定する特定情報に対応させた記憶を制御する記憶制御ステツ プと、
前記記憶制御ステップの処理により記憶が制御されている前記高品質化データ の、 前記特定情報が特定する前記送受信装置への供給を制御する供給制御ステツ プと
を含むことを特徴とする通信方法。
3 2 . 送受信装置と通信を行う通信装置用のプログラムであって、
前記送受信装置から供給された符号化音声データを復号した復号音声データの 品質を向上させる高品質化データの取得を制御する取得制御ステップと、 前記取得制御ステツプの処理により取得が制御された前記高品質化データの、 前記送受信装置を特定する特定情報に対応させた記憶を制御する記憶制御ステツ プと、
前記記憶制御ステップの処理により記憶が制御されている前記高品質化データ の、 前記特定情報が特定する前記送受信装置への供給を制御する供給制御ステツ プと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
3 3 . 送受信装置と通信を行う通信装置を制御するコンピュータが実行可能な プログラムであって、
前記送受信装置から供給された符号化音声データを復号した復号音声データの 品質を向上させる高品質化データの取得を制御する取得制御ステップと、 前記取得制御ステップの処理により取得が制御された前記高品質化データの、 前記送受信装置を特定する特定情報に対応させた記憶を制御する記憶制御ステツ プと、
前記記憶制御ステップの処理により記憶が制御されている前記高品質化データ の、 前記特定情報が特定する前記送受信装置への供給を制御する供給制御ステツ プと
を含むことを特徴とするプログラム。
3 4 . 送受信装置と通信を行う通信装置であって、
前記送受信装置より符号化音声データの送受信に関する特徴量を取得する取得 手段と、
前記取得手段により取得された前記特徴量に基づいて、 前記符号化音声データ を復号した復号音声データの品質を向上させる高品質化データを算出する算出手 段と、
前記算出手段により算出された前記高品質化データを、 前記特徴量を取得した 前記送受信装置に供給する供給手段と
を備えることを特徴とする通信装置。
3 5 . 前記算出手段により算出された前記高品質化データを、 前記送受信装置 を特定する特定情報に対応させて記憶する記憶手段をさらに備え、 前記供給手段は、 前記記憶手段により記憶された前記高品質化データを、 前記 特徴量を取得した前記送受信装置に供給する
ことを特徴とする請求の範囲第 3 4項に記載の通信装置。
3 6 . 送受信装置と通信を行う通信装置の通信方法であって、
前記送受信装置より供給された符号化音声データの送受信に関する特徴量の取 得を制御する取得制御ステップと、
前記取得制御ステップの処理により取得が制御された前記特徴量に基づいて、 前記符号化音声データを復号した復号音声データの品質を向上させる高品質化デ ータを算出する算出ステップと、
前記算出ステップの処理により算出された前記高品質化データの、 前記特徴量 を取得した前記送受信装置への供給を制御する供給制御ステップと
を含むことを特徴とする通信方法。
3 7 . 送受信装置と通信を行う通信装置用のプログラムであって、
前記送受信装置より供給された符号化音声データの送受信に関する特徴量の取 得を制御する取得制御ステップと、
前記取得制御ステップの処理により取得が制御された前記特徴量に基づいて、 前記符号化音声データを復号した復号音声データの品質を向上させる高品質化デ ータを算出する算出ステップと、
前記算出ステップの処理により算出された前記高品質化データの、 前記特徴量 を取得した前記送受信装置への供給を制御する供給制御ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録され ている記録媒体。
3 8 . 送受信装置と通信を行う通信装置を制御するコンピュータが実行可能な プログラムであって、
前記送受信装置より供給された符号化音声データの送受信に関する特徴量の取 得を制御する取得制御ステップと、 前記取得制御ステップの処理により取得が制御された前記特徴量に基づいて、 前記符号化音声データを復号した復号音声データの品質を向上させる高品質化デ ータを算出する算出ステップと、
前記算出ステップの処理により算出された前記高品質化データの、 前記特徴量 を取得した前記送受信装置への供給を制御する供給制御ステップと
を含むことを特徴とするプログラム。
PCT/JP2003/008825 2002-07-16 2003-07-11 送信装置および送信方法、受信装置および受信方法、送受信装置、通信装置および方法、記録媒体、並びにプログラム WO2004008435A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
US10/521,247 US7515661B2 (en) 2002-07-16 2003-07-11 Transmission device, transmission method, reception device, reception method, transmission/reception device, communication method, recording medium, and program
KR20057000688A KR100994317B1 (ko) 2002-07-16 2003-07-11 수신 장치 및 수신 방법, 및 기록 매체
DE2003619856 DE60319856T2 (de) 2002-07-16 2003-07-11 Übertragungsvorrichtung, Empfangsvorrichtung und Kommunikationsvorrichtung
EP20030741341 EP1553560B1 (en) 2002-07-16 2003-07-11 Transmission apparatus and receiving apparatus for coded voice data
CNB038210150A CN100458915C (zh) 2002-07-16 2003-07-11 发送设备和发送方法、接收设备和接收方法、收发器设备、通信设备和方法
CN2007101407301A CN101114452B (zh) 2002-07-16 2003-07-11 与收发器进行通信的通信设备及其通信方法
US12/388,980 US7688922B2 (en) 2002-07-16 2009-02-19 Transmitting apparatus and transmitting method, receiving apparatus and receiving method, transceiver apparatus, communication apparatus and method, recording medium, and program
US12/388,852 US7688921B2 (en) 2002-07-16 2009-02-19 Transmitting apparatus and transmitting method, receiving apparatus and receiving method, transceiver apparatus, communication apparatus and method, recording medium, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002206469A JP3876781B2 (ja) 2002-07-16 2002-07-16 受信装置および受信方法、記録媒体、並びにプログラム
JP2002-206469 2002-07-16

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US10521247 A-371-Of-International 2003-07-11
US12/388,852 Continuation US7688921B2 (en) 2002-07-16 2009-02-19 Transmitting apparatus and transmitting method, receiving apparatus and receiving method, transceiver apparatus, communication apparatus and method, recording medium, and program
US12/388,980 Continuation US7688922B2 (en) 2002-07-16 2009-02-19 Transmitting apparatus and transmitting method, receiving apparatus and receiving method, transceiver apparatus, communication apparatus and method, recording medium, and program

Publications (1)

Publication Number Publication Date
WO2004008435A1 true WO2004008435A1 (ja) 2004-01-22

Family

ID=30112797

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/008825 WO2004008435A1 (ja) 2002-07-16 2003-07-11 送信装置および送信方法、受信装置および受信方法、送受信装置、通信装置および方法、記録媒体、並びにプログラム

Country Status (7)

Country Link
US (3) US7515661B2 (ja)
EP (1) EP1553560B1 (ja)
JP (1) JP3876781B2 (ja)
KR (1) KR100994317B1 (ja)
CN (2) CN101114452B (ja)
DE (1) DE60319856T2 (ja)
WO (1) WO2004008435A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1308927B9 (en) * 2000-08-09 2009-02-25 Sony Corporation Voice data processing device and processing method
US7382744B2 (en) * 2005-01-27 2008-06-03 Qualcomm Incorporated Systems and methods for optimizing the allocation of resources to serve different types of data flows in a wireless communication system
RU2388162C2 (ru) 2005-04-26 2010-04-27 Нокиа Корпорейшн Фиксированное распределение канала hs-dsch или e-dch для передачи речи по протоколу ip (или hs-dsch без hs-scch/e-dch без е-dpcch)
US20070294398A1 (en) * 2006-06-19 2007-12-20 Epshteyn Alan J System and method of dynamically persisting data and settings to a network location
US7756484B2 (en) * 2006-07-14 2010-07-13 Metrico Wireless, Inc. Monitoring voice quality in communication networks
US20090061843A1 (en) * 2007-08-28 2009-03-05 Topaltzas Dimitrios M System and Method for Measuring the Speech Quality of Telephone Devices in the Presence of Noise
US20090111459A1 (en) * 2007-10-30 2009-04-30 Topaltzas Dimitrios M System and Method for Determining End-to-End Speech Quality of Mobile Telephone Devices
US7957731B2 (en) * 2008-02-26 2011-06-07 Metrico Wireless, Inc. System and method for determining mobile telephone voice quality in a live network
US8320852B2 (en) 2009-04-21 2012-11-27 Samsung Electronic Co., Ltd. Method and apparatus to transmit signals in a communication system
US9058818B2 (en) * 2009-10-22 2015-06-16 Broadcom Corporation User attribute derivation and update for network/peer assisted speech coding
US8620660B2 (en) * 2010-10-29 2013-12-31 The United States Of America, As Represented By The Secretary Of The Navy Very low bit rate signal coder and decoder
CN104038610A (zh) * 2013-03-08 2014-09-10 中兴通讯股份有限公司 一种通话语音调整方法及装置
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
EP2980794A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029497A (ja) * 1998-07-10 2000-01-28 Sony Corp 音声信号処理装置及び音声信号処理方法
JP2000174897A (ja) * 1998-12-08 2000-06-23 Kenwood Corp 電話機
JP2000307720A (ja) * 1999-04-21 2000-11-02 Canon Inc ネットワーク接続装置における音声符号化方法
JP2002006900A (ja) * 2000-06-27 2002-01-11 Megafusion Corp 音声還元再生システム及び音声還元再生方法
JP2002073097A (ja) * 2000-08-31 2002-03-12 Matsushita Electric Ind Co Ltd Celp型音声符号化装置とcelp型音声復号化装置及び音声符号化方法と音声復号化方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5465399A (en) * 1992-08-19 1995-11-07 The Boeing Company Apparatus and method for controlling transmitted power in a radio network
JPH0736494A (ja) * 1993-07-22 1995-02-07 Matsushita Electric Ind Co Ltd 音声符号化装置
US5764699A (en) * 1994-03-31 1998-06-09 Motorola, Inc. Method and apparatus for providing adaptive modulation in a radio communication system
US5701294A (en) 1995-10-02 1997-12-23 Telefonaktiebolaget Lm Ericsson System and method for flexible coding, modulation, and time slot allocation in a radio telecommunications network
US5982819A (en) * 1996-09-23 1999-11-09 Motorola, Inc. Modulation format adaptive messaging receiver and method thereof
US6208663B1 (en) * 1997-08-29 2001-03-27 Telefonaktiebolaget Lm Ericsson (Publ) Method and system for block ARQ with reselection of FEC coding and/or modulation
US6678405B1 (en) * 1999-06-08 2004-01-13 Sony Corporation Data processing apparatus, data processing method, learning apparatus, learning method, and medium
CA2378062A1 (en) * 1999-07-02 2001-01-11 Tellabs Operations Inc. Coded domain adaptive level control of compressed speech
US7065125B1 (en) * 1999-08-13 2006-06-20 Viasat, Inc. Method and apparatus for multiple access over a communication channel
US6801512B1 (en) * 2000-03-23 2004-10-05 Motorola, Inc. Method and apparatus for providing a distributed architecture digital wireless communication system
JP2001350499A (ja) * 2000-06-06 2001-12-21 Canon Inc 音声情報処理装置、通信装置、情報処理システム、音声情報処理方法、及び記憶媒体
US6901046B2 (en) * 2001-04-03 2005-05-31 Nokia Corporation Method and apparatus for scheduling and modulation and coding selection for supporting quality of service in transmissions on forward shared radio channels

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000029497A (ja) * 1998-07-10 2000-01-28 Sony Corp 音声信号処理装置及び音声信号処理方法
JP2000174897A (ja) * 1998-12-08 2000-06-23 Kenwood Corp 電話機
JP2000307720A (ja) * 1999-04-21 2000-11-02 Canon Inc ネットワーク接続装置における音声符号化方法
JP2002006900A (ja) * 2000-06-27 2002-01-11 Megafusion Corp 音声還元再生システム及び音声還元再生方法
JP2002073097A (ja) * 2000-08-31 2002-03-12 Matsushita Electric Ind Co Ltd Celp型音声符号化装置とcelp型音声復号化装置及び音声符号化方法と音声復号化方法

Also Published As

Publication number Publication date
CN100458915C (zh) 2009-02-04
US7688921B2 (en) 2010-03-30
DE60319856D1 (de) 2008-04-30
US7688922B2 (en) 2010-03-30
EP1553560A4 (en) 2005-12-21
CN1679084A (zh) 2005-10-05
EP1553560A1 (en) 2005-07-13
CN101114452A (zh) 2008-01-30
KR20050021476A (ko) 2005-03-07
JP2004046033A (ja) 2004-02-12
US20090213959A1 (en) 2009-08-27
US20060046671A1 (en) 2006-03-02
DE60319856T2 (de) 2009-04-16
JP3876781B2 (ja) 2007-02-07
CN101114452B (zh) 2010-06-16
US20090213958A1 (en) 2009-08-27
EP1553560B1 (en) 2008-03-19
KR100994317B1 (ko) 2010-11-12
US7515661B2 (en) 2009-04-07

Similar Documents

Publication Publication Date Title
US7688922B2 (en) Transmitting apparatus and transmitting method, receiving apparatus and receiving method, transceiver apparatus, communication apparatus and method, recording medium, and program
EP1147515A1 (en) Wide band speech synthesis by means of a mapping matrix
JP2006085176A (ja) 帯域制限オーディオ信号の帯域拡大
CA2578610A1 (en) Voice encoding device, voice decoding device, and methods therefor
CN116030823B (zh) 一种语音信号处理方法、装置、计算机设备及存储介质
JP4711099B2 (ja) 送信装置および送信方法、送受信装置および送受信方法、並びにプログラムおよび記録媒体
US7142559B2 (en) Packet converting apparatus and method therefor
JPH1063297A (ja) 音声符号化方法および装置
KR100875784B1 (ko) 데이터 처리 장치
CN107545899B (zh) 一种基于清音基音延迟抖动特性的amr隐写方法
JP4857467B2 (ja) データ処理装置およびデータ処理方法、並びにプログラムおよび記録媒体
JP4373693B2 (ja) 音響信号の階層符号化方法および階層復号化方法
JP3257386B2 (ja) ベクトル量子化方法
JP4736266B2 (ja) 音声処理装置および音声処理方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JP4207494B2 (ja) 音声信号の処理装置および処理方法、並びに方法を実行するためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な媒体
JP3700310B2 (ja) ベクトル量子化装置及びベクトル量子化方法
JP2002062899A (ja) データ処理装置およびデータ処理方法、学習装置および学習方法、並びに記録媒体
JP2008256912A (ja) 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラム
JP2002149175A (ja) 音声処理装置および音声処理方法、学習装置および学習方法、並びに記録媒体
JP2008242029A (ja) 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、及び、プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003741341

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020057000688

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20038210150

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057000688

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 2006046671

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10521247

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003741341

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10521247

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2003741341

Country of ref document: EP