WO2015125560A1 - 情報処理装置、音声対話装置、および制御プログラム - Google Patents

情報処理装置、音声対話装置、および制御プログラム Download PDF

Info

Publication number
WO2015125560A1
WO2015125560A1 PCT/JP2015/052016 JP2015052016W WO2015125560A1 WO 2015125560 A1 WO2015125560 A1 WO 2015125560A1 JP 2015052016 W JP2015052016 W JP 2015052016W WO 2015125560 A1 WO2015125560 A1 WO 2015125560A1
Authority
WO
WIPO (PCT)
Prior art keywords
database
information
voice
scenario
response
Prior art date
Application number
PCT/JP2015/052016
Other languages
English (en)
French (fr)
Inventor
貴裕 井上
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2015125560A1 publication Critical patent/WO2015125560A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Definitions

  • the present invention relates to a voice dialogue system that responds to a user's call with voice, a voice dialogue device that is a component of the system, and that directly interacts with the user, and an information processing device that controls the utterance of the voice dialogue device.
  • Patent Document 1 discloses a voice dialogue apparatus that asks a user for an answer when the user asks what he / she does not know, stores the contents of the question and the answer, and uses it for the next dialogue.
  • Patent Document 2 discloses a technique for outputting a response to a user's question.
  • the server can be used by a plurality of voice interactive devices, it is more advantageous in terms of cost than increasing the storage capacity of individual voice interactive devices.
  • the present invention has been made in view of the above-described problems, and an object of the present invention is to process information that can add data that is highly likely to be used in a voice interaction device to a database that is referred to by the voice interaction device. It is to provide a device or the like.
  • an information processing apparatus refers to a first database in which correspondence information indicating response content according to the content of a call from a user is stored, and the user's
  • An information processing apparatus capable of communicating with a voice interactive device that responds to a call with the response content, and stores correspondence information that is not stored in the first database when the content of the call is notified from the voice interactive device
  • a history information recording unit for recording usage history information indicating the correspondence information specified by referring to the usage history information and notifying the first database Includes an update control unit for pressurizing, the.
  • the voice interaction apparatus refers to the first database in which correspondence information indicating response contents according to the contents of the call from the user is stored,
  • a voice dialogue device that responds to the user's call with the response content, and requests the information processing device that can refer to the second database in which the correspondence information not stored in the first database is stored, and calls the user
  • the response acquisition unit for acquiring the response content according to the content and the usage history information indicating the usage history of the correspondence information stored in the second database are used to identify the correspondence information to be added to the first database.
  • each aspect of the present invention it is possible to add correspondence information that is highly likely to be used in the voice interaction device to the first database referred to by the voice interaction device.
  • the flowchart which shows an example of the scenario specific process which specifies the scenario which information processing apparatus adds to a 1st database, and the update process which a voice interactive apparatus updates the data stored in the 1st database according to the notification from information processing apparatus It is.
  • It is a flowchart which shows an example of the scenario specific process which specifies the scenario added to a 1st database in consideration of the frequency
  • Embodiment 1 An embodiment of the present invention will be described below with reference to FIGS.
  • FIG. 2 is a diagram schematically illustrating an interactive system according to an embodiment of the present invention.
  • the dialogue system 50 includes a voice dialogue device 10 and an information processing device 30. Both the voice interaction device 10 and the information processing device 30 are common in that they have a voice recognition function. However, the voice interaction device 10 directly interacts with the user, and the information processing device 30 is installed on the network and directly with the user. Is different in that it does not interact.
  • the voice interaction device 10 may be, for example, an interaction robot, a tablet terminal, a smartphone, a personal computer, or the like. According to the dialogue system 50, the user can interact with the voice dialogue apparatus 10 by voice using natural language.
  • the voice interactive apparatus 10 that has received the voice 1 called by the user searches the first database for a response phrase corresponding to the voice 1.
  • the voice interaction apparatus 10 outputs the response phrase corresponding to the voice 1 to the user as the voice 2.
  • the voice interaction apparatus 10 requests the information processing apparatus 30 for the response phrase corresponding to the voice 1 through wireless communication.
  • the information processing apparatus 30 searches for a response phrase corresponding to the voice 1 in the second database having a capacity larger than that of the first database.
  • the voice interaction device 10 outputs the response phrase presented from the information processing device 30 to the user as the voice 3.
  • the information processing apparatus 30 can present the response phrase corresponding to the voice 1 for which the voice interaction apparatus 10 could not detect the response phrase to the voice interaction apparatus 10 by referring to the second database.
  • the processing in the information processing apparatus 30 is unnecessary, and therefore the time until the voice 2 is output is the information processing apparatus 30.
  • the information processing apparatus 30 adds the data 4 in which the voice 1 and the response phrase corresponding to the voice 1 are associated with each other to the first database.
  • the information processing apparatus 30 limits data to be added to the first database to data that is highly likely to be used by the user. Accordingly, it is possible to increase the probability that the voice interaction device 10 can quickly return the response phrase to the user without increasing the capacity of the first database with the correspondence information having a low use probability.
  • FIG. 2 (Relationship Between Information Processing Device and Spoken Dialogue Device)
  • FIG. 2 one each of the voice dialogue device 10 and the information processing device 30 is shown.
  • a plurality of devices 10 may be provided. This will be described with reference to FIG.
  • FIG. 3 is a diagram showing an information processing apparatus 30 that can communicate with a plurality of voice interactive apparatuses 10a to 10d.
  • the information processing device 30 can record the number of times each of the voice interaction devices 10a to 10d uses the information processing device 30 for each of the voice interaction devices 10a to 10d. Therefore, the information processing apparatus 30 can specify data to be added to the first database according to the usage status of the plurality of voice interactive apparatuses 10a to 10d.
  • the information processing device 30 may add data requested by the voice interaction devices 10b to 10d to the information processing device 30 that is not requested by the voice interaction device 10a to the information processing device 30 to the first database 20a. It becomes possible. Further, for example, the information processing apparatus 30 can add the same data to the plurality of first databases 20a to 20d.
  • the first database 20 and the second database 40 correspond to the contents that the user calls the voice interaction device 10 with the response phrases corresponding to the contents.
  • a database in which information (hereinafter referred to as a scenario) is registered.
  • a word hereinafter referred to as a call word
  • the information indicating the content called by the user is not limited to this, and may be a phrase composed of two or more words, for example.
  • the information processing apparatus 30 causes the first database 20 to add data that is likely to be used by the user among the data (scenarios) stored in the second database 40. For this reason, the information processing apparatus 30 records the usage history information of the scenario in the second database 40 so that the scenario that is likely to be used by the user can be specified.
  • the recording destination of the usage history information is not particularly limited, an example of recording in a form added to the scenario will be described here.
  • FIG. 4 is a diagram illustrating an example of data used by the information processing apparatus 30.
  • FIG. 4A illustrates an example of scenario and usage history information. Note that a plurality of scenarios as shown in FIG. 4A are also stored in the first database 20 referred to by the voice interaction apparatus 10. Moreover, (b) of the same figure shows an example of the table which shows the use frequency for every genre. By using this table, it is possible to specify an additional target scenario according to the genre of the scenario used.
  • a call word, a response phrase, and a genre are associated with each other.
  • This part corresponds to the above scenario. That is, a combination of a call word and a response phrase is a scenario, and in the illustrated example, each scenario is numbered in ascending order from 1.
  • the calling word may be a combination of a plurality of words or only one word.
  • a plurality of response phrases may be registered for one (one set) call word. In this case, a response phrase that is actually spoken may be selected from a plurality of response phrases.
  • the call word and response phrase may be stored as text data.
  • the genre is preset for each scenario as attribute information indicating the attribute of the scenario, and is used for specifying a scenario to be added to the second database 40.
  • the genre is information related to at least one of the calling word and the response phrase, and a plurality of genres may be set for one scenario, or there may be a scenario in which the genre is not set.
  • the portion indicated as the number of uses is the use history information.
  • the number of uses for each voice interactive device 10 is registered for each scenario.
  • each voice interaction apparatus 10 is caused to add a scenario according to what kind of call the user is making to each of the first databases 20 used by the voice interaction apparatus 10. It can be specified as a scenario.
  • a scenario to be added to the first database 20 is referred to as an addition target scenario.
  • the total number of uses of all devices is registered for each scenario.
  • a scenario can be specified in consideration of the use situation of other voice interactive devices 10. For example, even a scenario that has not been transmitted to a certain voice interaction device 10 is considered to be likely to be used in the future if it is a scenario that has been transmitted to many other voice interaction devices 10.
  • Such a scenario can be specified by referring to the total number of uses of all devices.
  • the item of the total number of times of use of all devices may be omitted.
  • the item of the number of uses of each device may be omitted.
  • the table (b) in FIG. This table is obtained by counting the number of times the scenario is used for each genre, and for each genre, the total number of times used for each voice interaction device 10 and the number of times used for all voice interaction devices 10 is registered. .
  • this table it is possible to specify a genre that is likely to be called by the user of each voice interaction apparatus 10.
  • FIG. 1 is a block diagram showing a main configuration of the voice interactive device 10 and the information processing device 30 that constitute the interactive system 50.
  • the voice interaction apparatus 10 can refer to the first database 20, and the information processing apparatus 30 can refer to the second database 40.
  • the voice interactive device 10 includes a voice input unit 11 that receives voice input and generates voice data, a control unit 12 that performs control for realizing various functions of the voice interactive device 10, An audio output unit 13 that outputs audio in accordance with the control of the control unit 12 and a communication unit 21 for communicating with other devices are provided.
  • the audio input unit 11 is configured by, for example, a microphone
  • the audio output unit 13 is configured by, for example, a speaker.
  • the control unit 12 includes a voice recognition unit 14, a response generation unit 15, a voice synthesis unit 16, a history information recording unit 17, an update unit 18, and a deletion target specifying unit 19.
  • the voice recognition unit 14 recognizes a voice called by the user to the voice interaction device. Specifically, the voice recognition unit 14 converts the voice data received from the voice input unit 11 and generates text data indicating the content of the user's call. Then, the generated text data is analyzed, and words are extracted from the text data.
  • the response generation unit 15 determines the response content according to the recognition result of the voice recognition unit 14 with reference to the first database 20. Specifically, the response generation unit 15 detects a word that matches the word extracted by the voice recognition unit 14 from the calling word of each scenario stored in the first database 20. When a match is detected, the response phrase included in the scenario is determined as a response phrase for responding to a call from the user.
  • generation part 15 acquires a response phrase from the information processing apparatus 30 via the communication part 21, when the response phrase for responding to the call from a user is not stored in the 1st database 20. . Specifically, when the response generation unit 15 cannot determine the response phrase with reference to the first database 20, the response generation unit 15 transmits the audio data generated by the audio input unit 11 to the information processing device 30 via the communication unit 21. Send. Then, a response phrase corresponding to the audio data is received from the information processing device 30 via the communication unit 21. Note that the response generation unit 15 may transmit the text data generated by the speech recognition unit 14 or a word extracted from the text data.
  • the voice synthesizer 16 generates voice data corresponding to the response phrase determined by the response generator 15.
  • the generated audio data is output as audio via the audio output unit 13.
  • the history information recording unit 17 records the usage count of the scenario (scenario stored in the first database 20) used for determining the response phrase by the response generation unit 15 as usage history information. Specifically, the history information recording unit 17 records the number of uses in association with each scenario, as in the example of FIG. This usage history information is used to identify a scenario that is unlikely to be used by the user from among the scenarios stored in the first database 20.
  • the update unit 18 updates the scenario stored in the first database 20. Specifically, the updating unit 18 adds and updates the addition target scenario (scenario stored in the second database) notified from the information processing apparatus 30 to the first database 20.
  • the update of the first database 20 may be performed when a scenario is notified from the information processing apparatus 30, or may be performed, for example, at predetermined intervals (for example, 24 hours), and the execution timing is particularly limited. Not.
  • the update unit 18 causes the deletion target specifying unit 19 to specify the deletion target scenario. Then, the scenario specified by the deletion target specifying unit 19 is deleted or overwritten with the scenario notified from the information processing apparatus 30.
  • the deletion target specifying unit 19 refers to the use history information recorded by the history information recording unit 17 and specifies scenario data with a low number of uses as a deletion target among the scenarios stored in the first database.
  • the scenario to be deleted may be specified when, for example, a notification is received from the updating unit 18, or may be performed at predetermined intervals (for example, 24 hours), and the execution timing is particularly limited. Not.
  • the information processing device 30 includes a communication unit 31 for communicating with other devices and a control unit 32 that performs control for realizing various functions of the information processing device 30.
  • the control unit 32 includes a response notification unit 33, a voice recognition unit 34, a response notification unit 33, a voice synthesis unit 35, a history information recording unit 36, an addition target specifying unit 37, and an update control unit 38.
  • the response notification unit 33 refers to the second database 40 to determine a response phrase according to the request of the voice interaction device 10 and notifies the voice interaction device 10 of the response phrase via the communication unit 31.
  • the voice interaction apparatus 10 transmits voice data for which a response phrase could not be determined.
  • the response notification unit 33 causes the speech recognition unit 34 to recognize the received speech data and confirms the response phrase using the extracted word.
  • the voice dialogue apparatus 10 may be configured to transmit text data for which a response phrase cannot be determined or a word extracted from the text data. In this case, the response phrase is determined using the received word as it is or using the word extracted by the speech recognition unit 34 from the received text data.
  • the text data of the confirmed response phrase is notified to the voice interaction device 10, but the information to be notified is that the voice interaction device 10 can utter according to the response phrase.
  • audio data may be used.
  • the response notification unit 33 instructs the voice synthesis unit 35 to generate voice data corresponding to the response phrase.
  • the voice recognition unit 34 generates text data from the voice data notified from the response notification unit 33, extracts a word from the generated text data, and notifies the response notification unit 33 of the extracted word data.
  • the voice recognition unit 34 has the same configuration as the voice recognition unit 14 of the voice interaction apparatus 10, but it is desirable that the voice recognition function is higher than that of the voice recognition unit 14. As a result, in the voice interaction device 10, even when the response phrase cannot be determined due to insufficient voice recognition performance, the information processing device 30 can determine the response phrase.
  • the voice synthesizer 35 has the same configuration as the voice synthesizer 16 of the voice interaction device 10, and generates voice data corresponding to the response phrase. Note that, as in the example described in the present embodiment, when the voice data is synthesized on the side of the voice interaction apparatus 10, the voice synthesizer 35 may be omitted. On the other hand, when the voice data synthesized by the voice synthesizer 35 is transmitted to the voice interaction device 10 for output, the voice synthesizer 35 uses a larger amount of phoneme data than the voice synthesizer 16, etc. It is preferable that sound data that can be output can be generated.
  • the history information recording unit 36 records usage history information indicating the number of times the scenario used for determining the response phrase by the response notification unit 33. Specifically, as shown in FIG. 4A, the number of uses is recorded in association with each scenario.
  • the addition target specifying unit 37 refers to the use history information recorded by the history information recording unit 36, and specifies the addition target scenario from the scenarios stored in the second database.
  • a scenario is specified based on the following information (1) to (4).
  • an example using the following information (1) or (2) will be described later with reference to FIG. 6, and an example using the information (3) or (4) will be described later with reference to FIG.
  • the number of times of use may be specified, for example, at a timing when a response phrase is requested from the voice interaction device 10 to the information processing device 30, or at every predetermined interval (for example, 24 hours). The timing is not particularly limited.
  • the update control unit 38 notifies the voice dialogue apparatus 10 of the addition target scenario via the communication unit 31 and adds the scenario to the first database 20.
  • FIG. 5 illustrates an example of a dialogue process in which the voice dialogue apparatus 10 outputs voice in response to a call from the user, and a response notification process in which the information processing apparatus 30 transmits a response phrase in response to a request from the voice dialogue apparatus 10. It is a flowchart which shows. In these processes, scenario usage history information is recorded for each of the first database 20 and the second database 40.
  • the voice recognition unit 14 detects this (YES in S11), and the detected voice is changed. Corresponding voice data is generated and output to the voice recognition unit 14. Then, the voice recognition unit 14 performs voice recognition of the output voice data (S12), extracts words from the text data generated thereby, and notifies the response generation unit 15 of the extracted words.
  • the response generation unit 15 searches the first database 20 for a calling word that matches the word notified from the voice recognition unit 14 (S13), and determines whether or not a matching word is registered (S13). S14).
  • the response generation unit 15 determines the response phrase associated with the matched call word as the response phrase used for the response to the user (S15).
  • the history information recording unit 17 increments (+1) the number of times of use of the scenario used to determine the response phrase in the use history information of the first database 20 (S16).
  • the response generation unit 15 that has confirmed the response phrase notifies the response phrase to the speech synthesis unit 16, and the speech synthesis unit 16 synthesizes speech corresponding to the response phrase (S17). Then, the voice output unit 13 outputs the voice synthesized by the voice synthesis unit 16 (S18), whereby a response to the voice detected in S11 is returned to the user.
  • the response generation unit 15 transmits the voice (voice data) detected in S11 to the information processing device 30 (S19). Request a response phrase corresponding to the data.
  • a response notification process is performed.
  • the response notification unit 33 searches the second database 40 for a response phrase corresponding to the received voice data (S21), and determines the response phrase (S22). Since the scenario not stored in the first database 20 is stored in the second database 40, the response notifying unit 33 can determine the response phrase that the voice interaction device 10 could not determine. .
  • the history information recording unit 36 increments (+1) the use count of the scenario used to determine the response phrase in the use history information of the second database 40 (S23).
  • the response notifying unit 33 that has confirmed the response phrase notifies the voice interaction device 10 of the response phrase (S24), thereby ending the response notification process.
  • the voice interaction apparatus 10 receives the transmitted response phrase (S20), and thereafter, the processes after S17 are performed.
  • FIG. 6 shows a scenario specifying process in which the information processing apparatus 30 specifies an addition target scenario, and an update process in which the voice interaction apparatus 10 updates data stored in the first database 20 in response to a notification from the information processing apparatus 30. It is a flowchart which shows an example.
  • the addition target specifying unit 37 of the information processing device 30 refers to the use history information in the second database 40 (S31) and determines whether there is a scenario in which the number of uses is equal to or greater than a threshold ( S32).
  • a threshold S32
  • the scenario specifying process ends.
  • the addition target specifying unit 37 specifies a scenario whose number of use is equal to or greater than the threshold as an addition target scenario (S33).
  • the update control unit 38 transmits the scenario specified by the addition target specifying unit 37 to the voice interactive apparatus 10 (S34), thereby ending the scenario specifying process.
  • the scenario is transmitted by transmitting each piece of data (call word and response phrase) constituting the scenario, but here, it is simply expressed as a scenario being transmitted.
  • what is necessary is just to transmit the information which shows a genre as a part of scenario, if this information is used in the voice interactive apparatus 10.
  • the scenario specified for each of the voice interaction devices 10 is notified to the voice interaction device 10. For example, in the above example, no. The device 1 is notified of the scenarios 1 and 2.
  • the updating unit 18 determines whether or not the free capacity of the first database 20 is equal to or larger than the data capacity of the scenario received in S35 (S36).
  • An upper limit is set for the number of scenarios that can be stored in the first database 20.
  • the free space is calculated by the equation (maximum number of scenarios that can be stored) ⁇ (number of currently stored scenarios). Further, the number of received scenarios is set as the data capacity of the received scenario.
  • the data capacity may be specified and compared.
  • the updating unit 18 adds the addition target scenario received in S35 to the first database 20, and updates the data stored in the first database 20 (S37).
  • the deletion target specifying unit 19 refers to the usage history information of the first database 20, and specifies a replacement target scenario from the scenarios stored in the first database 20 ( S38). Specifically, the deletion target specifying unit 19 specifies the scenario to be replaced in an order that allows all scenarios received in S35 to be stored in the first database 20 in order from the scenario with the smallest number of uses.
  • the deletion target specifying unit 19 notifies the updating unit 18 of the specified scenario, and the updating unit 18 replaces the notified scenario with the scenario received in S35, thereby storing the data stored in the first database 20. Is updated (S37), and the update process is terminated.
  • FIG. 7 is a flowchart illustrating an example of a scenario specifying process for specifying an addition target scenario in consideration of the number of uses for each genre.
  • the addition target specifying unit 37 of the information processing apparatus 30 creates a table (see FIG. 4B) indicating the number of uses for each genre (S41). Then, the addition target specifying unit 37 refers to the table created in S41 and specifies the genre with the highest number of uses (S42).
  • the addition target specifying unit 37 determines whether or not there is a scenario in which the number of uses is equal to or greater than a threshold in the genre specified in S42 (S43). If it is determined that there is no scenario in which the number of times of use is greater than or equal to the threshold (NO in S43), the scenario specifying process ends.
  • the addition target specifying unit 37 selects a scenario in which the number of uses is equal to or greater than the threshold among the scenarios of the genre identified in S42.
  • the scenario is identified as an addition target scenario (S44).
  • the update control part 38 transmits the said addition object scenario to the voice interactive apparatus 10 (S45), and a scenario specific process is complete
  • the genre of “swimming” is specified for the device 1 and the genre of “golf” is specified for the device 2 in S42.
  • the scenario of the genre specified in S42 is extracted from all the scenarios stored in the second database 40.
  • a scenario in which the number of uses (the total value of the number of uses of all the voice interactive devices 10) is greater than or equal to a predetermined threshold is specified from the extracted scenarios.
  • the scenario specified for each of the voice interactive devices 10 is notified to the voice interactive device 10.
  • a genre with a large number of usages is specified for each voice interaction device 10 in S42, but a genre with a large total number of usages of all the voice interaction devices 10 may be specified.
  • the threshold value of S43 is set to 100
  • the genre of “soccer” is specified in S42, and the scenario No. 2 and 4 are identified.
  • the scenario to be notified to each voice interaction device 10 is the same, so the processing load of S44 and S45 can be suppressed.
  • the scenario to be added is narrowed down to the genre having the largest total number of times of use, but is not limited to this example.
  • it may be narrowed down to genres whose total number of uses is equal to or greater than a predetermined threshold, or may be narrowed down to genres whose total number of uses is higher (for example, the top three genres).
  • the scenario to be added is narrowed down by genre and further narrowed down by the number of times of use.
  • narrowing down by the number of times of use may be omitted.
  • the process of S43 is omitted, and the scenario of the genre identified in S42 is identified as the addition target scenario in S44.
  • an example will be described in which an additional target scenario is specified based on an increase in the number of times a scenario is used in a predetermined period.
  • this example since the influence of the cumulative number of uses before a predetermined period is eliminated, there is an advantage that it is easy to specify a scenario according to the user's interest or a change in the object of interest. Note that the only difference from the above embodiment is the method for specifying the scenario to be added, and the configuration of the system and apparatus is the same as that of the above embodiment.
  • FIG. 8 is a diagram illustrating an example of data used when an addition target scenario is specified based on an increase in the number of times the scenario is used in a predetermined period.
  • the scenario to be used is the same as that in FIG. 4A, except that the usage count is counted for each day and the usage count per day. 4 is different from (a) in FIG.
  • FIG. 8A only the total number of times of use of all the voice interaction devices 10 is shown, but for each voice interaction device 10, the number of use times per day and the increment are recorded. Note that the increment can be omitted from the usage history information because it can be calculated by calculation.
  • the predetermined period is not limited to one day and is arbitrary.
  • an additional target scenario may be specified in consideration of a genre.
  • a table indicating the increase amount per unit period of the number of inquiries for each genre may be generated.
  • the data shown in FIG. 8 are all used by the information processing apparatus 30.
  • the use history information of the first database 20 recorded by the history information recording unit 17 is the same. It is good also as a structure.
  • the deletion target specifying unit 19 specifies a scenario with a small increase in the number of uses per predetermined period as a scenario to be deleted (overwrite target).
  • the usage history information of the first database 20 recorded by the history information recording unit 17 is configured in the same manner as in the above embodiment, and a scenario with a small cumulative number of uses is specified as a scenario to be deleted (overwritten). Also good.
  • FIG. 9 is a flowchart illustrating an example of a scenario specifying process for specifying an addition target scenario based on an increase in the number of times the scenario is used in a predetermined period.
  • the addition target specifying unit 37 refers to the use history information of the second database 40 and calculates an increase (increase) in the number of times the scenario is used in a predetermined period. (S51). Then, the addition target specifying unit 37 determines whether there is a scenario in which the calculated increase amount is equal to or greater than the threshold (S52). Here, when it is determined that there is no scenario exceeding the threshold (NO in S52), the scenario specifying process ends.
  • the addition target specifying unit 37 specifies a scenario whose increase amount is equal to or greater than the threshold as an addition target scenario (S53).
  • the update control unit 38 transmits the scenario specified by the addition target specifying unit 37 to the voice interactive apparatus 10 (S54), and the scenario specifying process ends.
  • an additional target scenario is specified in consideration of the number of uses for each genre.
  • the addition target specifying unit 37 creates a table (see (b) of FIG. 8) indicating the amount of increase in the number of uses for each genre (S61). Then, the addition target specifying unit 37 refers to the table created in S61 and specifies the genre having the largest increase in the number of uses (S62).
  • the addition target specifying unit 37 determines whether or not there is a scenario in which the number of uses is equal to or greater than a threshold in the genre specified in S62 (S63).
  • a scenario in which the number of uses (the total value of the number of uses of all the voice interactive devices 10) is greater than or equal to a predetermined threshold is specified from the genre scenario specified in S62.
  • NO in S63 when it is determined that there is no scenario in which the amount of increase in the usage count is equal to or greater than the threshold (NO in S63), the scenario specifying process ends.
  • the addition target specifying unit 37 selects a scenario in which the number of uses is equal to or greater than the threshold among the scenarios of the genre identified in S62.
  • the scenario is identified as an addition target scenario (S64).
  • the update control unit 38 transmits the scenario specified by the addition target specifying unit 37 to the voice interactive apparatus 10 (S65), and the scenario specifying process ends.
  • the increase in the number of usages may be calculated for each voice interaction device 10, or the total value of the increase in the number of usages of all voice interaction devices 10 may be calculated.
  • an increase in the number of usages for each genre may be calculated for each voice interaction device 10, or a total value of the increase in the number of usages for each genre of all voice interaction devices 10 may be calculated. Good.
  • the additional scenario may be specified using the number of usages during the predetermined period. Even with this configuration, it is possible to identify an additional target scenario according to the usage status in a predetermined period.
  • FIG. 10 is a block diagram showing a main configuration of the voice interactive device 10e constituting the interactive system 50e.
  • the voice interactive apparatus 10e is different from the voice interactive apparatus 10 of the above embodiment in that it has a function of specifying an addition target scenario.
  • the voice interaction device 10e can refer to data in the first database 20e and can communicate with the information processing device 30e.
  • the information processing apparatus 30e can refer to the second database 40.
  • the first database 20e stores the above-described scenario used by the voice interactive device 10e for the dialog with the user, and stores usage history information indicating the usage history of the scenario stored in the second database 40. ing.
  • the voice interactive apparatus 10e identifies the addition target scenario with reference to the use history information.
  • the usage history information may be stored in a storage device different from the scenario.
  • the information processing apparatus 30e transmits a response phrase in accordance with the request from the voice interaction apparatus 10e, similarly to the information processing apparatus 30.
  • the voice dialogue apparatus 10e since the voice dialogue apparatus 10e has a function of specifying an addition target scenario, the information processing apparatus 30e does not need to have this function.
  • the control unit 12 of the voice interaction apparatus 10e includes a voice recognition unit 14, a response generation unit (response acquisition unit) 15, a voice synthesis unit 16, a history information recording unit 17e, an update unit 18, a deletion target specifying unit 19, and An addition target specifying unit 22 is included.
  • the history information recording unit 17e records usage history information indicating a history that the scenario stored in the second database 40 has been used by the voice interaction apparatus 10e. Then, the addition target specifying unit 22 specifies the addition target scenario with reference to the use history information.
  • Dialogue processing and response notification processing as shown in FIG. 5 are also performed in the dialogue system 50e.
  • the dialogue processing and response notification processing in the dialogue system 50e will be described with reference to FIG. Details of the processing similar to that in FIG. 5 are omitted.
  • the process of S23 is omitted. Then, when the response phrase is transmitted in S24, information indicating the scenario corresponding to the response phrase (for example, a scenario number or the like that can uniquely identify the scenario is notified) to the voice interaction device 10e. To do.
  • the history information recording unit 17e receives the information indicating the scenario from the information processing device 30e (any timing after S20), The reception count is incremented (+1). If the information is not included in the usage history information, the information is added to the usage history information, and the reception count is 1. Thereby, the usage history information in which the information indicating the scenario is associated with the number of times the information is received (also referred to as the number of times the scenario stored in the second database 40 is used by the voice interactive device 10e) is recorded. Is done.
  • usage history information is not limited to this example as long as it indicates the usage history of the scenario stored in the second database 40.
  • usage history information generated by the information processing apparatus 30e may be acquired in the same manner as in the above embodiment.
  • the usage history information indicates the number of times each voice interactive device 10e uses the scenario stored in the second database 40. Also good. In this case, the number of times the scenario is used may be counted individually for each voice interactive device 10e, or the total number of times used for all the voice interactive devices 10e may be counted.
  • the addition target specifying unit 22 refers to the use history information recorded by the history information recording unit 17e, and specifies the number of times the scenario stored in the second database 40 has been used by the voice interactive device 10e. To do.
  • the specified number of times is compared with a predetermined threshold, and if there is a scenario that is equal to or greater than the threshold, the scenario is specified as an additional target scenario in S33.
  • the information processing apparatus 30e is requested to transmit the addition target scenario. Since the information processing device 30e transmits the requested addition target scenario to the voice interaction device 10e, the update processing shown in FIG. 6 is performed in the voice interaction device 10e that has received this addition target scenario, and the addition target scenario is 1 is added to the database 20e.
  • an additional target scenario may be specified based on a genre of a scenario used in the past.
  • a scenario of a genre corresponding to the content called by the user of the voice interaction device 10e in the past may be set as the addition target scenario.
  • at least one of the scenario usage history information of the second database 40 indicating the history used in the information processing device 30e by a request to the information processing device 30e
  • the scenario usage history information of the first database 20e Can be used.
  • the addition target specifying unit 22 adds up the usage counts of the scenarios of the first database 20e and / or the second database 40 for each genre, and specifies a genre having a high total usage count. And the addition object specific
  • the information processing apparatus 30e transmits a scenario including the response phrase instead of transmitting the response phrase in S24 of the response notification process of FIG. Then, the update unit 18 of the voice interaction apparatus 10e updates the first database 20e by adding the received scenario.
  • the amount of data stored in the first database 20e becomes enormous by performing the processing from S36 to S38 in the update processing of FIG. 6 and deleting or overwriting scenarios that are unlikely to be used as needed. It is desirable to prevent this.
  • control blocks (especially the blocks included in the control unit 12 and the control unit 32) of the voice interactive devices 10 and 10e and the information processing devices 30 and 30e are logic circuits (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized by software, or may be realized by software using a CPU (Central Processing Unit).
  • CPU Central Processing Unit
  • the voice interaction apparatuses 10 and 10e and the information processing apparatuses 30 and 30e can read a program instruction that is software that realizes each function, and the program and various data can be read by a computer (or CPU). It includes a recorded ROM (Read Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
  • a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
  • the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
  • a transmission medium such as a communication network or a broadcast wave
  • the present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.
  • the information processing apparatus 30 refers to the first database 20 in which correspondence information (scenario) indicating response content (response phrase) according to the content (call word) of the call from the user is stored.
  • An information processing apparatus capable of communicating with the voice interactive device 10 that responds to the user's call with the response content, and is stored in the first database when the content of the call is notified from the voice interactive device.
  • a response notification unit (33) for identifying a response content with reference to the second database 40 in which no correspondence information is stored and outputting the response content to the voice interaction device, and specifying the response content by the response notification unit
  • a history information recording unit (36) for recording the usage history information indicating the usage history of the correspondence information used for the correspondence information, and the correspondence information specified with reference to the usage history information. It includes update control unit which notifies to the voice dialogue system is added to the first database and (38).
  • the voice interaction device when the response content cannot be specified by referring to the first database, the voice interaction device receives a notification of the response content by requesting the information processing device, and outputs this Can respond.
  • the correspondence information specified by referring to the usage history information is added to the first database, the correspondence that is likely to be used in the voice interaction device among the correspondence information stored in the second database. It becomes possible to add information to the first database.
  • the voice interaction device can quickly refer to the correspondence information with high availability, and the correspondence information with low availability is used upon request to the information processing device. It can be so. Accordingly, the voice interactive device can return a response to the user with reference to the first database without going through the information processing device without increasing the capacity of the first database with correspondence information having low usability. The possibility can be increased.
  • the correspondence information stored in the second database corresponds to which attribute (genre) the correspondence information corresponds to.
  • Attribute information to be associated with each other, and the history information recording unit includes usage history information indicating the number of times the correspondence information stored in the second database is used for specifying the response content by the response notification unit.
  • An addition target specifying unit (37) that specifies the attribute of the corresponding information to be added to the first database on the basis of the number of uses for each attribute of the corresponding information recorded and specified with reference to the use history information and the attribute information.
  • the update control unit displays correspondence information of the attribute specified by the addition target specifying unit among the correspondence information stored in the second database. Notification to be added to the first database, may be configured.
  • the attribute of the corresponding information added to said 1st database is specified on the basis of the frequency
  • the corresponding information of this attribute is notified to a voice interactive apparatus, and a 1st database To add. Therefore, it is possible to add correspondence information of attributes that have a large number of past uses and are likely to be used in the future to the first database.
  • the correspondence information corresponding to the contents of the call that a certain voice interaction device has not notified to the information processing device in the past is transmitted to the voice conversation device. can do. Therefore, the voice interactive apparatus can promptly return a response to the first call contents without going through the information processing apparatus.
  • the attribute may be specified based on the total number of times of use for each attribute of the corresponding information in each voice interactive apparatus. Therefore, it is possible to add correspondence information of attributes that are frequently used in each voice interaction device and that are likely to be used in each voice interaction device to the first database.
  • the information processing apparatus can communicate with the plurality of voice interactive apparatuses in aspect 1 above, and the history information recording unit is used for specifying the response content by the response notification unit.
  • the update control unit includes the correspondence information specified by the additional target specification unit among the correspondence information stored in the second database in some or all of the plurality of voice interactive devices.
  • the configuration may be such that the notification is added to each first database referred to by each voice interactive apparatus.
  • the correspondence information to be added to the first database is specified on the basis of the total number of times of use of the correspondence information of the plurality of voice interactive devices, and part or all of the plurality of voice interactive devices To be added to each first database. Therefore, it is possible to add correspondence information that is frequently used in each voice interactive device and is likely to be used in the future in each voice interactive device to the first database. In addition, by using the total number of times of use in a plurality of voice interaction devices in this way, correspondence information corresponding to the contents of a call that a certain voice interaction device has not notified to the information processing device in the past can be obtained. Can be sent to. Therefore, the voice interactive apparatus can promptly return a response to the first call contents without going through the information processing apparatus.
  • the history information recording unit uses the correspondence information stored in the second database for specifying the response content by the response notification unit.
  • the usage history information indicating the number of times is recorded, and the correspondence information to be added to the first database is specified on the basis of the number of uses in the predetermined period specified with reference to the use history information or the increase in the number of uses in the predetermined period
  • the update control unit notifies the voice interaction device of the correspondence information specified by the addition target specification unit among the correspondence information stored in the second database. It may be configured to be added to the database.
  • count of use in a predetermined period is specified, It notifies to a voice interactive apparatus and makes it add to a 1st database. . Therefore, it is possible to add correspondence information frequently used in a predetermined period to the first database. Note that any period may be used as the predetermined period, but it is desirable that the end point of the period is close to the time point when the correspondence information to be added to the first database is specified. This is because it is possible to specify correspondence information according to the recent usage status.
  • the information processing apparatus is capable of communicating with the plurality of voice interactive apparatuses in aspect 1, and the correspondence information stored in the second database is predetermined. Attribute information indicating which one of the corresponding attributes is associated, and the history information recording unit uses the correspondence information stored in the second database to identify the response content by the response notification unit. Recording the usage history information indicating the number of times each of the voice interactive devices has been recorded, and using the usage history information and the attribute information of the correspondence information specified with reference to the usage history information as a reference, The attribute is specified for each voice interactive device, and the correspondence information of the specified attribute is added to the first database on the basis of the total number of times of use in the plurality of voice interactive devices.
  • An update target specifying unit for specifying the corresponding information to be processed and the update control unit selects the corresponding information specified by the additional target specifying unit from the correspondence information stored in the second database. May be configured to notify the specified voice interaction device and add it to the first database.
  • the attribute is specified for each of the plurality of voice interactive devices on the basis of the use count for each attribute of the correspondence information. As a result, it is possible to identify correspondence information of attributes that are likely to be used in each voice interactive apparatus.
  • the correspondence information of the specified attribute is specified based on the total number of times of use in the plurality of voice interactive devices, and is notified to the voice interactive device in which the attribute of the corresponding information is specified. Add to database. Therefore, the correspondence information of the attribute that is highly likely to be used in the individual voice interactive device, the correspondence information that is frequently used in all the voice interactive devices and is likely to be used in the individual voice interactive device in the future. , Can be added to each first database.
  • the voice interactive apparatus 10e refers to the first database 20e in which correspondence information indicating response contents according to the contents of the call from the user is stored, and responds to the user's call with the response contents described above.
  • Requesting the information processing apparatus that can refer to the second database in which the correspondence information not stored in the first database is stored, and obtains the response content corresponding to the user's call content
  • the addition target identification that identifies the correspondence information to be added to the first database
  • An update unit (18) that acquires the correspondence information specified by the addition target specifying unit from the information processing apparatus and adds it to the first database; Equipped with a.
  • the response content when the response content cannot be specified by referring to the first database, the response content corresponding to the user's call content is acquired by requesting the information processing device, Can output and respond. Further, since the correspondence information specified by referring to the usage history information is added to the first database, the correspondence information that is likely to be used in the voice interaction device among the correspondence information stored in the second database. It can be added to the first database.
  • the voice interaction device can quickly refer to the correspondence information with high availability, and the correspondence information with low availability is used upon request to the information processing device. It can be so. Accordingly, the voice interactive device can return a response to the user with reference to the first database without going through the information processing device without increasing the capacity of the first database with correspondence information having low usability. The possibility can be increased.
  • the usage history information indicating the usage history of the correspondence information stored in the second database is, for example, the number of times of use of the correspondence information used for specifying the response content when the response content is acquired from the information processing apparatus. It may be counted. Further, for example, usage history information may be acquired from the information processing apparatus. Furthermore, when the information processing apparatus can communicate with a plurality of voice interactive apparatuses, the usage history information may indicate the number of times the corresponding information stored in the second database is used by the plurality of voice interactive apparatuses. . In this case, the usage count of the correspondence information may be counted individually for each voice interactive device, or the total usage count for all voice interactive devices may be counted.
  • the voice interaction device is the above-described aspect 6, wherein the correspondence information to be deleted from the first database with reference to the use history information indicating the use history of the correspondence information stored in the first database.
  • the update unit deletes the correspondence information specified by the deletion target specification unit from the first database, or the correspondence information specified by the deletion target specification unit.
  • the configuration may be such that the corresponding information specified by the addition target specifying unit is overwritten.
  • the correspondence information specified by referring to the usage history information is deleted from the first database or overwritten. Therefore, it is possible to delete, from the first database, correspondence information that is less likely to be used in the voice interaction device among the correspondence information stored in the first database.
  • the information processing apparatus and the voice interaction apparatus may be realized by a computer.
  • the information is obtained by operating the computer as each unit included in the information processing apparatus or the voice interaction apparatus.
  • the information processing apparatus or the control program for the voice interactive apparatus for realizing the processing apparatus or the voice interactive apparatus by a computer and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
  • the present invention can be used for a voice dialogue apparatus that responds to a user's call with a voice, a dialogue system that causes the voice dialogue apparatus to perform the above-described response via an information processing apparatus, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 使用可能性の高いデータを第1データベースに追加させる。情報処理装置(30)は、第2データベース(40)を参照して特定した応答フレーズを音声対話装置(10)に通知して出力させる応答通知部(33)と、シナリオの使用履歴情報を記録する履歴情報記録部(36)と、該使用履歴情報を参照することにより特定したシナリオを第1データベース(20)に追加させる更新制御部(38)とを備える。

Description

情報処理装置、音声対話装置、および制御プログラム
 本発明は、ユーザの呼びかけに対して音声で応答する音声対話システム、該システムの構成要素であり、ユーザと直接対話する音声対話装置、および音声対話装置の発話を制御する情報処理装置等に関する。
 人間と音声で対話する音声対話装置について、従来から広く研究されている。例えば、特許文献1には、ユーザから知らないことを聞かれた場合にユーザにその答えを問い返し、その質問内容と答えを記憶し、次からの対話に用いる音声対話装置が開示されている。また、下記特許文献2には、ユーザの質問に対する応答を出力するための技術が開示されている。
日本国公開特許公報「特開2004‐109323号(2004年4月8日公開)」 日本国公開特許公報「特開2011‐18327号(2011年1月27日公開)」 日本国公開特許公報「特開2006‐106761号(2006年4月20日公開)」 日本国公開特許公報「特開2004‐164466号(2004年6月10日公開)」
 上記のような音声対話装置は、受け答えの内容を多く記憶させておくほど、ユーザの多様な問いかけに応答できるようになるが、コストなどの面から、個別の音声対話装置の記憶容量を増やすことには限界がある。そこで、ネットワーク上のサーバに大容量のデータベースを設けて、受け答えの内容を記憶しておくことが考えられる(特許文献3参照)。
 この構成によれば、音声対話装置が記憶していない問いかけがユーザからなされた場合に、サーバからその問いかけに応じた回答を取得して、ユーザに応答することができる。また、サーバは、複数の音声対話装置で利用可能であるから、個別の音声対話装置の記憶容量を増やすよりもコスト面で有利である。
 ただし、サーバから回答を取得してユーザに応答する場合、音声対話装置が記憶している受け答えの内容を用いて応答する場合と比べて、ユーザへの応答のタイミングが遅れてしまう。そして、サーバに記憶されている受け答えの内容を音声対話装置にコピーすれば、ユーザへの迅速な応答が可能になるが、上述のように音声対話装置の記憶容量には限りがある。つまり、従来は、音声対話装置において使用される可能性の高いデータを、音声対話装置が参照するデータベースに追加させる技術がないという問題があった。なお、データベースの更新に関する技術としては、例えば上記特許文献4が挙げられるが、該文献は音声認識用の単語データベースの更新に関するものであり、音声対話装置については言及されていない。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、音声対話装置において使用される可能性の高いデータを、音声対話装置が参照するデータベースに追加させることのできる情報処理装置等を提供することにある。
 上記の課題を解決するために、本発明の一態様に係る情報処理装置は、ユーザからの呼びかけの内容に応じた応答内容を示す対応情報が格納された第1データベースを参照し、該ユーザの呼びかけに上記応答内容で応答する音声対話装置と通信可能な情報処理装置であって、上記音声対話装置から呼びかけの内容を通知されたときに、上記第1データベースに格納されていない対応情報が格納された第2データベースを参照して応答内容を特定し、該応答内容で上記音声対話装置に音声出力させる応答通知部と、上記応答通知部による応答内容の特定に用いられた対応情報の使用履歴を示す使用履歴情報を記録する履歴情報記録部と、上記使用履歴情報を参照して特定した対応情報を、上記音声対話装置に通知して上記第1データベースに追加させる更新制御部と、を備えている。
 また、本発明の一態様に係る音声対話装置は、上記の課題を解決するために、ユーザからの呼びかけの内容に応じた応答内容を示す対応情報が格納された第1データベースを参照し、該ユーザの呼びかけに上記応答内容で応答する音声対話装置であって、上記第1データベースに格納されていない対応情報が格納された第2データベースを参照可能な情報処理装置に要求して、ユーザの呼びかけ内容に応じた応答内容を取得する応答取得部と、上記第2データベースに格納されている対応情報の使用履歴を示す使用履歴情報を参照して、上記第1データベースに追加する対応情報を特定する追加対象特定部と、上記追加対象特定部が特定した対応情報を上記情報処理装置から取得して上記第1データベースに追加する更新部と、を備えている。
 本発明の上記各態様によれば、音声対話装置において使用される可能性の高い対応情報を、音声対話装置が参照する第1データベースに追加させることができるという効果を奏する。
本発明の一実施形態に係る対話システムを構成する音声対話装置および情報処理装置の要部構成を示すブロック図である。 上記対話システムを概略的に示す図である。 複数の上記音声対話装置と通信可能な情報処理装置を示す図である。 上記情報処理装置が使用するデータの一例を示す図である。 ユーザからの呼びかけに応答して音声対話装置が音声を出力する対話処理、および音声対話装置からの要求に応じて情報処理装置が応答フレーズを送信する応答通知処理の一例を示すフローチャートである。 情報処理装置が第1データベースに追加するシナリオを特定するシナリオ特定処理、および情報処理装置からの通知に応じて音声対話装置が第1データベースに格納されたデータを更新する更新処理の一例を示すフローチャートである。 ジャンル毎の利用回数を考慮して第1データベースに追加するシナリオを特定するシナリオ特定処理の一例を示すフローチャートである。 所定期間におけるシナリオの利用回数の増加量に基づいて、第1データベースに追加させるシナリオを特定する場合に使用するデータの例を示す図である。 所定期間におけるシナリオの利用回数の増加量に基づいて第1データベースに追加させるシナリオを特定するシナリオ特定処理の一例を示すフローチャートである。 本発明の他の実施形態に係る対話システムを構成する音声対話装置の要部構成を示すブロック図である。
 〔実施形態1〕
 本発明の一実施形態について、図1~図6に基づいて説明すれば以下のとおりである。
 (対話システムの概要)まず、図2に基づいて本実施形態の概要を説明する。図2は、本発明の一実施形態に係る対話システムを概略的に示す図である。対話システム50は、音声対話装置10および情報処理装置30を含む。音声対話装置10および情報処理装置30は何れも音声認識機能を備える点で共通しているが、音声対話装置10はユーザと直接対話し、情報処理装置30はネットワーク上に設置され、ユーザと直接には対話しない点で相違している。音声対話装置10は、例えば、対話ロボット、タブレット端末、スマートフォン、パーソナルコンピュータなどであってもよい。対話システム50によれば、ユーザは自然言語を用いた音声によって音声対話装置10と対話することができる。
 図2に示されるように、ユーザの呼びかけた音声1を受け付けた音声対話装置10は、音声1に対応する応答フレーズを第1データベース内で検索する。音声1に対応する応答フレーズが第1データベース内に格納されている場合、音声対話装置10は、音声1に対応する応答フレーズを、音声2としてユーザに向けて出力する。
 一方、音声1に対応する応答フレーズが第1データベース内に格納されていない場合、音声対話装置10は、音声1に対応する応答フレーズを、無線通信を介して情報処理装置30に要求する。次に、情報処理装置30は、音声対話装置10からの要求に応じて、音声1に対応する応答フレーズを、第1データベースよりも容量の大きい第2データベース内で検索し、音声対話装置10に提示する。そして、音声対話装置10は、情報処理装置30から提示された応答フレーズを、音声3としてユーザに向けて出力する。
 第2データベースの容量は、第1データベースよりも大きいため、情報処理装置30が第2データベースを参照して応答できるフレーズ数は、音声対話装置10が第1データベースを参照して応答できるフレーズ数よりも多い。それゆえ、情報処理装置30は、第2データベースを参照することにより、音声対話装置10が応答フレーズを検出できなかった音声1に対応する応答フレーズを、音声対話装置10に提示することができる。
 ここで、音声1に対応する応答フレーズが第1データベース内に格納されている場合、情報処理装置30での処理が不要となるため、音声2が出力されるまでの時間は、情報処理装置30での処理を必要とする場合における音声3が出力されるまでの時間よりも短いという利点がある。そこで、図2に示すように、情報処理装置30は、音声1と音声1に対応した応答フレーズとが対応づけられたデータ4を第1データベースに追加させる。
 ただし、第1データベースの容量は、第2データベースよりも少ないため、追加できるデータ容量に制限がある。そこで、情報処理装置30は、第1データベースに追加させるデータを、ユーザが利用する可能性の高いデータに限定する。これにより、使用確率の低い対応情報で第1データベースの容量を増加させることなく、音声対話装置10が迅速に応答フレーズをユーザに返すことができる確率を高めることができることができる。
 (情報処理装置と音声対話装置との関係)図2では、音声対話装置10と情報処理装置30とを各1つ示したが、対話システム50では、1つの情報処理装置30に対し、音声対話装置10が複数設けられていてもよい。これについて図3に基づいて説明する。図3は、複数の音声対話装置10a~10dと通信可能な情報処理装置30を示す図である。
 図3の例の情報処理装置30は、複数の音声対話装置10a~10dによって利用される。このため、情報処理装置30は、各音声対話装置10a~10dが情報処理装置30を利用した回数を音声対話装置10a~10d毎に記録できる。それゆえ、情報処理装置30は、複数の音声対話装置10a~10dの利用状況に応じて、第1データベースに追加させるデータを特定することができる。
 例えば、情報処理装置30は、音声対話装置10aが情報処理装置30に要求していないデータで、音声対話装置10b~10dが情報処理装置30に要求したデータを第1データベース20aに追加させることが可能となる。また、例えば、情報処理装置30は、複数の第1データベース20a~20dに、同一のデータを追加させることもできる。
 (データベースに格納されるデータ)上述のように、第1データベース20および第2データベース40は、ユーザが音声対話装置10に呼びかけた内容のそれぞれについて、当該内容に応じた応答フレーズを対応付けた対応情報(以下、シナリオと呼ぶ)を登録したデータベースである。ここでは、ユーザが音声対話装置10に呼びかけた内容を示す情報として、ユーザの発話内容に含まれる単語(以下、呼びかけワードと称する)を使用する例を説明する。無論、ユーザが呼びかけた内容を示す情報は、これに限られず、例えば2以上の語からなるフレーズであってもよい。
 また、上述のように、情報処理装置30は、第2データベース40に格納されているデータ(シナリオ)のうち、ユーザが利用する可能性の高いデータを第1データベース20に追加させる。このため、ユーザが利用する可能性の高いシナリオを特定することができるように、情報処理装置30は、第2データベース40におけるシナリオの使用履歴情報を記録する。使用履歴情報の記録先は特に限定されないが、ここではシナリオに付加する形で記録する例を説明する。
 ここで、シナリオおよび使用履歴情報の具体例を図4に基づいて説明する。図4は、情報処理装置30が使用するデータの一例を示す図であり、同図の(a)は、シナリオおよび使用履歴情報の一例を示している。なお、音声対話装置10が参照する第1データベース20にも、図4の(a)に示されるようなシナリオが複数格納されている。また、同図の(b)には、ジャンル毎の利用回数を示すテーブルの一例を示している。このテーブルを用いることにより、利用されたシナリオのジャンルに応じた追加対象シナリオを特定することができる。
 図4の(a)に示すテーブルでは、呼びかけワードと応答フレーズとジャンルとが対応付けられている。この部分が上記のシナリオに対応している。つまり、呼びかけワードと応答フレーズとの組み合わせがシナリオであり、図示の例では各シナリオに1から昇順で番号を付している。なお、図示の例のように、呼びかけワードは複数の単語の組み合わせであってもよいし、1つの単語のみであってもよい。また、応答フレーズは1つ(1組)の呼びかけワードに対して複数登録されていてもよい。この場合、複数の応答フレーズの中から実際に発話する応答フレーズを選択すればよい。なお、呼びかけワードおよび応答フレーズは、何れもテキストデータとして格納しておけばよい。
 また、ジャンルとは、シナリオの属性を示す属性情報として、シナリオ毎に予め設定されたものであり、第2データベース40に追加させるシナリオを特定するために使用される。ジャンルは、呼びかけワードおよび応答フレーズの少なくとも何れかに関連した情報であり、1つのシナリオに対して複数設定してもよいし、ジャンルが設定されていないシナリオが存在してもよい。
 このようなシナリオを参照することにより、ユーザの呼びかけに対して応答を返すことが可能になる。例えば、ユーザから音声対話装置10に呼びかけられた音声が、「チームAの本拠地は?」であるとする。この場合、この音声の解析により、該音声に「チームA」および「本拠地」の語が含まれていることが特定される。ここで、図4の(a)に示されたシナリオのうち、これらの語を呼びかけワードとして含むシナリオはNo.1である。このため、応答フレーズを「スタジアムCだよ」と特定し、この応答フレーズをユーザに返すことが可能になる。
 また、図4の(a)のテーブルにおいて、利用回数として示された部分が使用履歴情報である。図示の例では、各シナリオについて、音声対話装置10毎の利用回数が登録されている。この情報を参照することより、各音声対話装置10に対し、そのユーザがどのような呼びかけを行っているかに応じたシナリオを、当該音声対話装置10の使用する第1データベース20のそれぞれに追加させるシナリオとして特定することができる。なお、以下では、第1データベース20に追加させるシナリオを追加対象シナリオと呼ぶ。
 また、図示の例では、各シナリオについて、全装置の合計利用回数が登録されている。これにより、他の音声対話装置10の利用状況も加味してシナリオを特定することができる。例えば、ある音声対話装置10に送信したことのないシナリオであっても、他の多くの音声対話装置10に送信したシナリオであれば、今後使用される可能性は高いと考えられる。全装置の合計利用回数を参照することにより、このようなシナリオを特定することもできる。無論、このようなシナリオの特定が不要であれば、全装置の合計利用回数の項目は省略すればよい。また、逆に、全装置の合計利用回数のみを用いてシナリオを特定する場合、各装置の利用回数の項目を省略してもよい。
 次に、同図の(b)のテーブルについて説明する。このテーブルは、シナリオの利用回数をジャンル毎に集計して得たものであり、各ジャンルについて、各音声対話装置10の利用回数および全音声対話装置10の利用回数の合計値が登録されている。このテーブルを参照することにより、各音声対話装置10のユーザの呼びかける可能性の高いジャンルを特定することができる。
 (要部構成)次に、音声対話装置10および情報処理装置30のより詳細な構成を図1に基づいて説明する。図1は、対話システム50を構成する音声対話装置10および情報処理装置30の要部構成を示すブロック図である。図1に示されるように、音声対話装置10は第1データベース20を参照可能となっており、情報処理装置30は第2データベース40を参照可能となっている。
 (音声対話装置の要部構成)音声対話装置10は、音声の入力を受け付けて音声データを生成する音声入力部11、音声対話装置10の各種機能を実現するための制御を行う制御部12、制御部12の制御に従って音声を出力する音声出力部13、および他の装置と通信するための通信部21を備える。音声入力部11は例えばマイクで構成され、音声出力部13は例えばスピーカで構成される。また、制御部12は、音声認識部14、応答生成部15、音声合成部16、履歴情報記録部17、更新部18、および削除対象特定部19を備える。
 音声認識部14は、ユーザが音声対話装置に呼びかけた音声を認識する。具体的には、音声認識部14は、音声入力部11から受信した音声データを変換して、ユーザの呼びかけの内容を示すテキストデータを生成する。そして、生成したテキストデータを解析して、そのテキストデータから単語を抽出する。
 応答生成部15は、音声認識部14の認識結果に応じた応答内容を、第1データベース20を参照して確定する。具体的には、応答生成部15は、音声認識部14が抽出した単語と一致する単語を、第1データベース20に格納されている各シナリオの呼びかけワードから検出する。そして、一致が検出された場合に、そのシナリオに含まれる応答フレーズを、ユーザからの呼びかけに応答するための応答フレーズと確定する。
 また、応答生成部15は、ユーザからの呼びかけに応答するための応答フレーズが第1データベース20に格納されていなかった場合には、通信部21を介して情報処理装置30から応答フレーズを取得する。具体的には、応答生成部15は、第1データベース20を参照して応答フレーズを確定できなかった場合、音声入力部11が生成した音声データを、通信部21を介して情報処理装置30に送信する。そして、上記音声データに応じた応答フレーズを、通信部21を介して情報処理装置30から受信する。なお、応答生成部15は、音声認識部14が生成したテキストデータまたは該テキストデータから抽出した単語を送信してもよい。
 音声合成部16は、応答生成部15が確定した応答フレーズに対応する音声データを生成する。生成した音声データは、音声出力部13を介して音声として出力される。
 履歴情報記録部17は、応答生成部15による応答フレーズの確定に用いられたシナリオ(第1データベース20に格納されたシナリオ)の利用回数を、使用履歴情報として記録する。具体的には、履歴情報記録部17は、図4の(a)の例と同様に、各シナリオに対し、その利用回数を対応付けて記録する。この使用履歴情報は、第1データベース20に格納されたシナリオのうち、ユーザに使用される可能性の低いシナリオを特定するために使用される。
 更新部18は、第1データベース20に格納されたシナリオを更新する。具体的には、更新部18は、情報処理装置30から通知された追加対象シナリオ(第2データベースに格納されたシナリオ)を第1データベース20に追加して更新する。なお、第1データベース20の更新は、情報処理装置30からシナリオが通知されたときに行ってもよいし、例えば所定の間隔(例えば24時間)毎に行ってもよく、その実行タイミングは特に限定されない。
 また、更新部18は、第1データベース20の空き容量が不足している場合、削除対象特定部19に削除対象のシナリオを特定させる。そして、削除対象特定部19が特定したシナリオについては、削除するかまたは情報処理装置30から通知されたシナリオにて上書きする。
 削除対象特定部19は、履歴情報記録部17が記録した使用履歴情報を参照して、第1データベースに格納されたシナリオのうち、利用回数の少ないシナリオデータを削除対象として特定する。なお、削除対象のシナリオの特定は、例えば、更新部18からの通知があったときに行ってもよいし、所定の間隔(例えば24時間)毎に行ってもよく、その実行タイミングは特に限定されない。
 (情報処理装置の要部構成)情報処理装置30は、他の装置と通信するための通信部31および情報処理装置30の各種機能を実現するための制御を行う制御部32を備える。そして、制御部32は、応答通知部33、音声認識部34、応答通知部33、音声合成部35、履歴情報記録部36、追加対象特定部37、および更新制御部38を備える。
 応答通知部33は、第2データベース40を参照して、音声対話装置10の要求に応じた応答フレーズを確定し、通信部31を介して音声対話装置10に該応答フレーズを通知する。
 なお、ここでは、音声対話装置10が、応答フレーズを確定することができなかった音声データを送信することを想定している。このため、応答通知部33は、受信した音声データを音声認識部34に音声認識させ、これによって抽出された単語を用いて応答フレーズを確定する。無論、音声対話装置10が、応答フレーズを確定することができなかったテキストデータまたは該テキストデータから抽出した単語を送信する構成としてもよい。この場合には、受信した単語をそのまま用いて、あるいは受信したテキストデータから音声認識部34が抽出した単語を用いて応答フレーズを確定する。
 また、ここでは、確定した応答フレーズのテキストデータを音声対話装置10に通知する例を説明するが、通知する情報は、音声対話装置10が当該応答フレーズに応じた発話を行うことができるものであればよく、例えば音声データであってもよい。音声データを送信する場合、応答通知部33は音声合成部35に指示して応答フレーズに応じた音声データを生成させる。
 音声認識部34は、応答通知部33から通知された音声データからテキストデータを生成し、生成したテキストデータから単語を抽出して応答通知部33に通知する。音声認識部34は、音声対話装置10の音声認識部14と同様の構成であるが、音声認識機能は音声認識部14よりも高いものとすることが望ましい。これにより、音声対話装置10において、音声認識性能が不足しているために応答フレーズが確定できなかったような場合にも、情報処理装置30側で応答フレーズを確定することが可能になる。
 音声合成部35は、音声対話装置10の音声合成部16と同様の構成であり、応答フレーズに対応する音声データを生成する。なお、本実施形態にて説明する例のように、音声データの合成を音声対話装置10側で行う場合には、音声合成部35を省略してもよい。一方、音声合成部35が合成した音声データを音声対話装置10に送信して出力させる場合、音声合成部35は、音声合成部16よりも多くの音素データを用いる等によって、よりクリアな音声を出力可能な音声データを生成できるものとすることが好ましい。
 履歴情報記録部36は、応答通知部33による応答フレーズの確定に用いられたシナリオの利用回数を示す使用履歴情報を記録する。具体的には、図4の(a)に示したように、各シナリオにその利用回数を対応付けて記録する。
 追加対象特定部37は、履歴情報記録部36が記録した使用履歴情報を参照して、第2データベースに格納されたシナリオの中から追加対象シナリオを特定する。本実施形態では、下記の(1)~(4)の情報を基準としてシナリオを特定する例を説明する。具体的には、下記の(1)または(2)の情報を用いる例を図6に基づいて、(3)または(4)の情報を用いる例を図7に基づいて後に説明する。
(1)音声対話装置10毎の利用回数
(2)全音声対話装置10の合計利用回数
(3)音声対話装置10毎のジャンル別の利用回数
(4)全音声対話装置10のジャンル別の合計利用回数
 なお、追加対象シナリオの特定は、例えば、音声対話装置10から情報処理装置30に応答フレーズの要求があったタイミングで行ってもよいし、所定の間隔(例えば24時間)毎に行ってもよく、そのタイミングは特に限定されない。
 更新制御部38は、追加対象シナリオを、通信部31を介して音声対話装置10に通知して、第1データベース20に追加させる。
 (対話システムにおける処理の流れ)次に、対話システム50における処理の流れを図5に基づいて説明する。図5は、ユーザからの呼びかけに応答して音声対話装置10が音声を出力する対話処理、および音声対話装置10からの要求に応じて情報処理装置30が応答フレーズを送信する応答通知処理の一例を示すフローチャートである。これらの処理では、第1データベース20および第2データベース40のそれぞれについてシナリオの使用履歴情報が記録される。
 まず、対話処理では、ユーザが音声対話装置10に対して呼びかけた音声が、音声入力部11に入力されると、音声認識部14がこれを検出し(S11にてYES)、検出した音声に対応する音声データを生成して音声認識部14に出力する。そして、音声認識部14は、出力された上記音声データの音声認識を行い(S12)、これにより生成したテキストデータから単語を抽出して応答生成部15に通知する。
 次に、応答生成部15は、音声認識部14から通知された単語にマッチする呼びかけワードを第1データベース20内で検索し(S13)、マッチするものが登録されているか否かを判断する(S14)。
 ここでマッチすると判断した場合(S14にてYES)、応答生成部15は、マッチした呼びかけワードに対応付けられた応答フレーズを、ユーザへの応答に用いる応答フレーズと確定する(S15)。また、応答フレーズが確定されると、履歴情報記録部17は、第1データベース20の使用履歴情報において、当該応答フレーズの確定に使用されたシナリオの利用回数をインクリメント(+1)する(S16)。
 また、応答フレーズを確定した応答生成部15は、その応答フレーズを音声合成部16に通知し、音声合成部16は、当該応答フレーズに対応する音声を合成する(S17)。そして、音声出力部13は、音声合成部16が合成した音声を出力し(S18)、これにより、S11にて検出された音声に対する応答がユーザに返される。
 一方、S14において、マッチしないと判断した場合(S14にてNO)、応答生成部15は、S11にて検出された音声(音声データ)を情報処理装置30に送信して(S19)、該音声データに対応する応答フレーズを要求する。
 そして、応答フレーズを要求された情報処理装置30では、応答通知処理が行われる。応答通知処理において、応答通知部33は、受信した音声データに対応する応答フレーズを第2データベース40内で検索し(S21)、応答フレーズを確定する(S22)。第2データベース40には、第1データベース20に格納されていないシナリオが格納されているので、応答通知部33は、音声対話装置10が確定することができなかった応答フレーズを確定することができる。
 応答フレーズが確定されると、履歴情報記録部36は、第2データベース40の使用履歴情報において、当該応答フレーズの確定に使用されたシナリオの利用回数をインクリメント(+1)する(S23)。また、応答フレーズを確定した応答通知部33は、当該応答フレーズを音声対話装置10に通知し(S24)、これにより応答通知処理は終了する。そして、音声対話装置10は、上記送信された応答フレーズを受信し(S20)、この後、S17以降の処理が行われる。
 (第1データベースの更新)続いて、第1データベース20を更新するために行われる処理の流れを図6に基づいて説明する。図6は、情報処理装置30が追加対象シナリオを特定するシナリオ特定処理、および情報処理装置30からの通知に応じて音声対話装置10が第1データベース20に格納されたデータを更新する更新処理の一例を示すフローチャートである。
 まず、シナリオ特定処理では、情報処理装置30の追加対象特定部37は、第2データベース40の使用履歴情報を参照し(S31)利用回数が閾値以上となるシナリオがあるか否かを判断する(S32)。ここで、閾値以上となるシナリオがないと判断した場合(S32にてNO)、シナリオ特定処理は終了する。
 一方、閾値以上となるシナリオがあると判断した場合(S32にてYES)、追加対象特定部37は、利用回数が閾値以上のシナリオを追加対象シナリオと特定する(S33)。そして、シナリオが特定されると、更新制御部38は、追加対象特定部37が特定したシナリオを音声対話装置10に送信し(S34)、これによりシナリオ特定処理は終了する。なお、シナリオの送信は、厳密には該シナリオを構成する各データ(呼びかけワードおよび応答フレーズ)を送信することによって行われるが、ここでは単にシナリオを送信すると表現する。なお、ジャンルを示す情報は、該情報を音声対話装置10にて使用するのであれば、シナリオの一部として送信すればよい。
 例えば、S32における閾値が3に設定されている場合、図4の(a)の装置1では、シナリオNo.1(利用回数=5)およびシナリオNo.2(利用回数=3)が追加対象シナリオとなる。そして、S34では、音声対話装置10のそれぞれについて特定されたシナリオを当該音声対話装置10に通知する。例えば、上記の例では、No.1および2のシナリオを装置1に通知する。
 なお、上記の例では、S31において、音声対話装置10毎に利用回数の多いシナリオを特定しているが、全音声対話装置10の利用回数の合計値が多いシナリオを特定してもよい。この場合、図4の(a)のテーブルを用い、S32の閾値を100とすれば、S33ではシナリオNo.2および4が特定される。この構成では、各音声対話装置10に通知するシナリオ(各音声対話装置10の追加対象シナリオ)が同じになるので、S32からS34の処理の負荷を抑えることができる。
 続いて、音声対話装置10が実行する更新処理について説明する。音声対話装置10がシナリオを受信すると(S35)、更新部18は、第1データベース20の空き容量が、S35にて受信したシナリオのデータ容量以上であるか否かを判断する(S36)。なお、第1データベース20に格納可能なシナリオ数には上限が決まっている。そして、S36では、空き容量を(格納可能な最大シナリオ数)-(現在格納されているシナリオ数)との式にて算出する。また、受信したシナリオ数を、受信したシナリオのデータ容量とする。無論、S36では、シナリオ数ではなく、データ容量を特定して比較してもよい。
 S36にてYESの場合、更新部18は、S35にて受信した追加対象シナリオを、第1データベース20に追加し、第1データベース20に格納されたデータを更新する(S37)。一方、S36にてNOの場合、削除対象特定部19は、第1データベース20の使用履歴情報を参照して、第1データベース20に格納されたシナリオの中から、置換対象のシナリオを特定する(S38)。具体的には、削除対象特定部19は、利用回数が少ないシナリオから順に、S35で受信した全シナリオを第1データベース20に収めることができる数だけ置換対象のシナリオを特定する。そして、削除対象特定部19は、特定したシナリオを更新部18に通知し、更新部18は通知されたシナリオを、S35で受信したシナリオで置換することにより、第1データベース20に格納されたデータを更新して(S37)、更新処理を終了する。
 (ジャンルを考慮したシナリオ特定処理)次に、ジャンル毎の利用回数を示す情報を用いて追加対象シナリオを特定する例を図7に基づいて説明する。図7は、ジャンル毎の利用回数を考慮して追加対象シナリオを特定するシナリオ特定処理の一例を示すフローチャートである。
 情報処理装置30の追加対象特定部37は、ジャンル毎の利用回数を示すテーブル(図4の(b)参照)を作成する(S41)。そして、追加対象特定部37は、S41にて作成したテーブルを参照して利用回数が最も多いジャンルを特定する(S42)。
 次に、追加対象特定部37は、S42にて特定したジャンルに、利用回数が閾値以上となるシナリオがあるか否かを判断する(S43)。ここで利用回数が閾値以上となるシナリオがないと判断した場合(S43にてNO)、シナリオ特定処理は終了する。
 一方、利用回数が閾値以上となるシナリオがあると判断した場合(S43にてYES)、追加対象特定部37は、S42にて特定したジャンルのシナリオのうち、利用回数が閾値以上となるシナリオを追加対象シナリオと特定する(S44)。そして、更新制御部38は、上記追加対象シナリオを音声対話装置10に送信し(S45)、シナリオ特定処理は終了する。
 例えば、S41にて図4の(b)のテーブルが作成された場合、S42では、装置1については「水泳」のジャンルが特定され、装置2については「ゴルフ」のジャンルが特定される。そして、S43では、第2データベース40に格納されている全シナリオから、S42で特定されたジャンルのシナリオを抽出する。さらに、S43では、音声対話装置10のそれぞれについて、抽出されたシナリオから、利用回数(全音声対話装置10の利用回数の合計値)が所定の閾値以上のシナリオを特定する。そして、S45では、音声対話装置10のそれぞれについて特定されたシナリオを当該音声対話装置10に通知する。
 なお、上記の例では、S42において、音声対話装置10毎に利用回数の多いジャンルを特定しているが、全音声対話装置10の利用回数の合計値が多いジャンルを特定してもよい。この場合、図4の(a)(b)のテーブルを用い、S43の閾値を100とすれば、S42では「サッカー」のジャンルが特定され、S43ではシナリオNo.2および4が特定される。この構成では、各音声対話装置10に通知するシナリオ(各音声対話装置10の追加対象シナリオ)が同じになるので、S44およびS45の処理の負荷を抑えることができる。
 また、上記の例では、追加対象シナリオを、利用回数の合計値が最も多いジャンルに絞り込んでいるが、この例に限られない。例えば、利用回数の合計値が所定の閾値以上であるジャンルに絞り込んでもよいし、利用回数の合計値が上位となるジャンル(例えば上位3つのジャンル)に絞り込んでもよい。
 そして、上記の例では、追加対象シナリオを、ジャンルで絞り込んだ上で、さらに使用回数で絞り込んでいるが、使用回数での絞り込みは省略してもよい。この場合、S43の処理を省略して、S42で特定したジャンルのシナリオを、S44にて追加対象シナリオと特定する。
 〔実施形態2〕
 本発明の他の実施形態について、図8および図9に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 本実施形態では、所定期間におけるシナリオの利用回数の増加量に基づいて追加対象シナリオを特定する例を説明する。この例によれば、所定期間より前の累積の利用回数の影響が排除されるので、ユーザの興味や関心の対象の変化に応じたシナリオを特定しやすくなるという利点がある。なお、上記実施形態との相違点は、追加対象シナリオを特定する方法のみであり、システムおよび装置の構成は上記実施形態と同様である。
 (データベースに格納されるデータ)まず、本実施形態で用いる使用履歴情報について、図8に基づいて説明する。図8は、所定期間におけるシナリオの利用回数の増加量に基づいて、追加対象シナリオを特定する場合に使用するデータの例を示す図である。
 同図の(a)に示すように、使用するシナリオは図4の(a)と同様であるが、使用履歴情報について、利用回数が一日毎に集計されている点、および一日当たりの利用回数の増加分が示されている点で図4の(a)と相違している。なお、図8の(a)では、全音声対話装置10の合計利用回数のみを示しているが、各音声対話装置10について、一日当たりの利用回数および増加分が記録される。なお、増加分は計算によって算出可能であるため使用履歴情報から省略してもよい。また、ここでは一日当たりの利用回数を記録する例を示しているが、所定期間は一日に限られず任意である。
 また、本実施形態においても、ジャンルを考慮して追加対象シナリオを特定してもよい。この場合、例えば図8の(b)のような、ジャンル毎の問合せ回数の単位期間当たりの増加量を示すテーブルを生成してもよい。
 なお、図8に示すデータは、何れも情報処理装置30にて使用されるものであるが、音声対話装置10において、履歴情報記録部17が記録する第1データベース20の使用履歴情報も同様の構成としてもよい。この場合、削除対象特定部19は、所定期間当たりの使用回数の増加分が少ないシナリオを削除対象(上書き対象)のシナリオと特定する。また、履歴情報記録部17が記録する第1データベース20の使用履歴情報については、上記実施形態と同様の構成とし、累計の使用回数が少ないシナリオを削除対象(上書き対象)のシナリオと特定してもよい。
 (シナリオ特定処理)続いて、本実施形態におけるシナリオ特定処理について、図9に基づいて説明する。図9は、所定期間におけるシナリオの利用回数の増加量に基づいて追加対象シナリオを特定するシナリオ特定処理の一例を示すフローチャートである。
 図9の(a)に示すシナリオ特定処理では、まず、追加対象特定部37は、第2データベース40の使用履歴情報を参照し、所定期間におけるシナリオの利用回数の増加分(増加量)を算出する(S51)。そして、追加対象特定部37は、算出した増加量が閾値以上となるシナリオがあるか否かを判断する(S52)。ここで、閾値以上となるシナリオがないと判断した場合(S52にてNO)、シナリオ特定処理は終了する。
 一方、閾値以上となるシナリオがあると判断した場合(S52にてYES)、追加対象特定部37は、増加量が閾値以上のシナリオを追加対象シナリオと特定する(S53)。そして、シナリオが特定されると、更新制御部38は、追加対象特定部37が特定したシナリオを音声対話装置10に送信し(S54)、シナリオ特定処理は終了する。
 一方、図9の(b)に示すシナリオ特定処理では、ジャンル毎の利用回数を考慮して追加対象シナリオを特定する。まず、追加対象特定部37は、ジャンル毎の利用回数の増加量を示すテーブル(図8の(b)参照)を作成する(S61)。そして、追加対象特定部37は、S61にて作成したテーブルを参照して、利用回数の増加量が最も多いジャンルを特定する(S62)。
 次に、追加対象特定部37は、S62にて特定したジャンルに、利用回数が閾値以上となるシナリオがあるか否かを判断する(S63)。ここでは、音声対話装置10のそれぞれについて、S62にて特定されたジャンルのシナリオから、利用回数(全音声対話装置10の利用回数の合計値)が所定の閾値以上のシナリオを特定する。なお、同図の(a)と同様に、所定期間における利用回数の増加量が閾値以上となるシナリオがあるかを判断してもよい。ここで利用回数の増加量が閾値以上となるシナリオがないと判断した場合(S63にてNO)、シナリオ特定処理は終了する。
 一方、利用回数が閾値以上となるシナリオがあると判断した場合(S63にてYES)、追加対象特定部37は、S62にて特定したジャンルのシナリオのうち、利用回数が閾値以上となるシナリオを追加対象シナリオと特定する(S64)。そして、更新制御部38は、追加対象特定部37が特定したシナリオを音声対話装置10に送信し(S65)、シナリオ特定処理は終了する。
 なお、S51では、音声対話装置10毎に利用回数の増加量を算出してもよいし、全音声対話装置10の利用回数の増加量の合計値を算出してもよい。同様に、S61では、音声対話装置10毎にジャンル毎の利用回数の増加量を算出してもよいし、全音声対話装置10のジャンル毎の利用回数の増加量の合計値を算出してもよい。
 また、所定期間における利用回数の増加量の代わりに、所定期間における利用回数を用いて追加対象シナリオを特定してもよい。この構成であっても、所定期間における利用状況に応じた追加対象シナリオを特定することができる。
 〔実施形態3〕
 本発明の他の実施形態について、図10に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 まず、本実施形態の対話システム50eについて図10に基づいて説明する。図10は、対話システム50eを構成する音声対話装置10eの要部構成を示すブロック図である。音声対話装置10eは、追加対象シナリオを特定する機能を備えている点で上記実施形態の音声対話装置10と相違している。図示のように、音声対話装置10eは、第1データベース20eのデータを参照できるようになっており、情報処理装置30eと通信可能となっている。なお、同図には示していないが、情報処理装置30eは第2データベース40を参照することができる。
 第1データベース20eには、音声対話装置10eがユーザとの対話に使用する上述のシナリオが格納されていると共に、第2データベース40に格納されているシナリオの使用履歴を示す使用履歴情報が格納されている。音声対話装置10eは、この使用履歴情報を参照して追加対象シナリオを特定する。なお、使用履歴情報はシナリオとは別の記憶装置に格納してもよい。
 情報処理装置30eは、情報処理装置30と同様に、音声対話装置10eの要求に従って応答フレーズを送信する。対話システム50eでは、音声対話装置10eが追加対象シナリオを特定する機能を備えているので、情報処理装置30eはこの機能を備えている必要はない。
 そして、音声対話装置10eの制御部12には、音声認識部14、応答生成部(応答取得部)15、音声合成部16、履歴情報記録部17e、更新部18、削除対象特定部19、および追加対象特定部22が含まれている。履歴情報記録部17eは、第2データベース40に格納されているシナリオが音声対話装置10eに利用された履歴を示す使用履歴情報を記録する。そして、追加対象特定部22は、該使用履歴情報を参照して追加対象シナリオを特定する。
 (対話システムにおける処理の流れ)対話システム50eにおいても、図5に示すような対話処理および応答通知処理が行われる。ここでは、図5を参照して、対話システム50eにおける対話処理および応答通知処理について説明する。なお、図5と同様の処理については説明の詳細を省略する。
 まず、情報処理装置30eが実行する応答通知処理では、S23の処理は省略される。そして、S24にて応答フレーズを送信する際に、該応答フレーズに対応するシナリオを示す情報(例えばシナリオのナンバー等、シナリオを一義的に特定できるものであればよい)を音声対話装置10eに通知する。
 そして、音声対話装置10eが実行する対話処理では、履歴情報記録部17eが、情報処理装置30eからシナリオを示す情報の受信後(S20以降の任意のタイミング)に、使用履歴情報において、該情報の受信回数をインクリメント(+1)する。なお、該情報が使用履歴情報に含まれていない場合には、該情報を使用履歴情報に追加し、その受信回数を1とする。これにより、シナリオを示す情報と、その情報の受信回数(第2データベース40に格納されている当該シナリオが音声対話装置10eに利用された回数とも言える)とが対応付けられた使用履歴情報が記録される。
 なお、使用履歴情報は、第2データベース40に格納されているシナリオの使用履歴を示すものであればよく、この例に限られない。例えば、上記実施形態と同様にして情報処理装置30eが生成した使用履歴情報を取得してもよい。さらに、情報処理装置30eが複数の音声対話装置10eと通信可能である場合、使用履歴情報は、第2データベース40に格納されているシナリオの各音声対話装置10eによる使用回数を示すものであってもよい。この場合、シナリオの使用回数は、各音声対話装置10eについて個別にカウントされていてもよいし、全音声対話装置10eについての合計使用回数がカウントされていてもよい。
 (第1データベースの更新)次に、対話システム50eにおいて、第1データベース20eを更新するために行われる処理の流れについて図6を参照して説明する。対話システム50eでは、音声対話装置10eの追加対象特定部22がシナリオ特定処理を実行する。
 まず、S31において、追加対象特定部22は、履歴情報記録部17eが記録した使用履歴情報を参照して、第2データベース40に格納されているシナリオが音声対話装置10eに利用された回数を特定する。次に、S32では上記特定した回数と所定の閾値とを比較し、閾値以上となるシナリオがあれば、S33にてそのシナリオを追加対象シナリオと特定する。そして、S34では、上記追加対象シナリオの送信を情報処理装置30eに要求する。情報処理装置30eは、要求された追加対象シナリオを音声対話装置10eに送信するので、この追加対象シナリオを受信した音声対話装置10eでは図6に示す更新処理が行われ、該追加対象シナリオが第1データベース20eに追加される。
 (ジャンルを考慮したシナリオ特定処理)また、シナリオ特定処理では、過去に使用されたシナリオのジャンルに基づいて追加対象シナリオを特定してもよい。この場合、音声対話装置10eのユーザが過去に呼びかけた内容に応じたジャンルのシナリオを追加対象シナリオとすればよい。このため、第2データベース40のシナリオの使用履歴情報(情報処理装置30eへの要求により情報処理装置30eにて使用された履歴を示す)と、第1データベース20eのシナリオの使用履歴情報の少なくとも何れかを用いればよい。
 この場合、追加対象特定部22は、第1データベース20eおよび/または第2データベース40のシナリオの使用回数をジャンル毎に合計し、合計使用回数が多いジャンルを特定する。そして、追加対象特定部22は、特定したジャンルのシナリオを送信するように情報処理装置30eに要求することにより、当該ジャンルのシナリオを受信する。これにより、受信したシナリオにて第1データベース20eが更新される。
 (シナリオ特定処理を行わずに第1データベースを更新する例)次に、シナリオ特定処理を行わずに第1データベース20eを更新する例について説明する。この例では、情報処理装置30eは、図5の応答通知処理のS24において、応答フレーズを送信する代わりに、その応答フレーズを含むシナリオを送信する。そして、音声対話装置10eの更新部18は、受信したシナリオを追加して第1データベース20eを更新する。
 この場合、図6の更新処理におけるS36からS38の処理を行って、使用される可能性の低いシナリオを随時削除または上書きすることにより、第1データベース20eに格納されているデータ量が膨大になることを防ぐことが望ましい。
 〔ソフトウェアによる実現例〕
 音声対話装置10、10eおよび情報処理装置30、30eの制御ブロック(特に制御部12および制御部32に含まれる各ブロック)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central ProcessingUnit)を用いてソフトウェアによって実現してもよい。
 後者の場合、音声対話装置10、10eおよび情報処理装置30、30eは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る情報処理装置30は、ユーザからの呼びかけの内容(呼びかけワード)に応じた応答内容(応答フレーズ)を示す対応情報(シナリオ)が格納された第1データベース20を参照し、該ユーザの呼びかけに上記応答内容で応答する音声対話装置10と通信可能な情報処理装置であって、上記音声対話装置から呼びかけの内容を通知されたときに、上記第1データベースに格納されていない対応情報が格納された第2データベース40を参照して応答内容を特定し、該応答内容で上記音声対話装置に音声出力させる応答通知部(33)と、上記応答通知部による応答内容の特定に用いられた対応情報の使用履歴を示す使用履歴情報を記録する履歴情報記録部(36)と、上記使用履歴情報を参照して特定された対応情報を、上記音声対話装置に通知して上記第1データベースに追加させる更新制御部(38)とを備える。
 上記の構成によれば、音声対話装置は、第1データベースの参照では応答内容を特定することができなかった場合に、情報処理装置に要求することにより、応答内容の通知を受け、これを出力して応答することができる。また、使用履歴情報を参照することで特定された対応情報が第1データベースに追加されるので、第2データベースに格納されている対応情報のうち、音声対話装置において使用される可能性の高い対応情報を第1データベースに追加させることが可能になる。
 つまり、上記の構成によれば、使用可能性の高い対応情報については、速やかに音声対話装置が参照できるようにすると共に、使用可能性の低い対応情報については、情報処理装置への要求により使用できるようにする。これにより、使用可能性の低い対応情報で第1データベースの容量を増加させることなく、音声対話装置が、情報処理装置を介さずに、第1データベースを参照してユーザに応答を返すことができる可能性を高めることができる。
 本発明の態様2に係る情報処理装置は、上記態様1において、上記第2データベースに格納されている対応情報には、該対応情報が予め定められた属性(ジャンル)の何れに該当するかを示す属性情報が対応付けられており、上記履歴情報記録部は、上記第2データベースに格納されている対応情報が、上記応答通知部による応答内容の特定に用いられた回数を示す使用履歴情報を記録し、上記使用履歴情報および上記属性情報を参照して特定した上記対応情報の属性毎の使用回数を基準として、上記第1データベースに追加させる対応情報の属性を特定する追加対象特定部(37)を備え、上記更新制御部は、上記第2データベースに格納されている対応情報のうち、上記追加対象特定部が特定した属性の対応情報を、上記音声対話装置に通知して上記第1データベースに追加させる、構成であってもよい。
 上記の構成によれば、対応情報の属性毎の使用回数を基準として、上記第1データベースに追加させる対応情報の属性を特定し、該属性の対応情報を音声対話装置に通知して第1データベースに追加させる。よって、過去の使用回数が多く、今後も使用される可能性が高い属性の対応情報を第1データベースに追加させることができる。また、このように属性に基づいて対応情報を特定することにより、ある音声対話装置が過去に情報処理装置に対して通知したことのない呼びかけ内容に対応する対応情報を、その音声対話装置に送信することができる。したがって、音声対話装置は、初めての呼びかけ内容に対しても、情報処理装置を介することなく速やかに応答を返すことが可能になる。
 なお、上記情報処理装置が、複数の音声対話装置と通信可能である場合、各音声対話装置における対応情報の属性毎の使用回数の合計値を基準として属性を特定してもよい。これにより、各音声対話装置で多く使用され、各音声対話装置にて今後使用される可能性が高い属性の対応情報を第1データベースに追加させることができる。
 本発明の態様3に係る情報処理装置は、上記態様1において、複数の上記音声対話装置と通信可能であり、上記履歴情報記録部は、上記応答通知部による応答内容の特定に用いられた対応情報の使用回数を上記使用履歴情報として記録し、複数の上記音声対話装置の上記使用回数を対応情報毎に合計した合計使用回数を基準として、上記第1データベースに追加させる対応情報を特定する追加対象特定部を備え、上記更新制御部は、上記第2データベースに格納されている対応情報のうち、上記追加対象特定部が特定した対応情報を、複数の上記音声対話装置の一部または全部に通知して各音声対話装置が参照する各第1データベースに追加させる、構成であってもよい。
 上記の構成によれば、複数の音声対話装置の対応情報の使用回数を合計した合計使用回数を基準として、第1データベースに追加させる対応情報を特定し、複数の音声対話装置の一部または全部に通知して各第1データベースに追加させる。よって、各音声対話装置で多く使用され、各音声対話装置にて今後使用される可能性が高い対応情報を第1データベースに追加させることができる。また、このように複数の音声対話装置における合計使用回数を用いることにより、ある音声対話装置が過去に情報処理装置に対して通知したことのない呼びかけ内容に対応する対応情報を、その音声対話装置に送信することができる。したがって、音声対話装置は、初めての呼びかけ内容に対しても、情報処理装置を介することなく速やかに応答を返すことが可能になる。
 本発明の態様4に係る情報処理装置は、上記態様1において、上記履歴情報記録部は、上記第2データベースに格納されている対応情報が、上記応答通知部による応答内容の特定に用いられた回数を示す使用履歴情報を記録し、上記使用履歴情報を参照して特定した所定期間における使用回数、または所定期間における使用回数の増加量を基準として、上記第1データベースに追加させる対応情報を特定する追加対象特定部を備え、上記更新制御部は、上記第2データベースに格納されている対応情報のうち、上記追加対象特定部が特定した対応情報を上記音声対話装置に通知して上記第1データベースに追加させる、構成であってもよい。
 上記の構成によれば、所定期間における使用回数、または所定期間における使用回数の増加量を基準として第1データベースに追加させる対応情報を特定し、音声対話装置に通知して第1データベースに追加させる。よって、所定期間に多く使用された対応情報を第1データベースに追加させることができる。なお、所定期間をどのような期間とするかは任意であるが、該期間の終点は、第1データベースに追加させる対応情報を特定する時点と近いことが望ましい。これにより、最近の使用状況に応じた対応情報を特定することができるためである。
 本発明の態様5に係る情報処理装置は、上記態様1において、複数の上記音声対話装置と通信可能であり、上記第2データベースに格納されている対応情報には、該対応情報が予め定められた属性の何れに該当するかを示す属性情報が対応付けられており、上記履歴情報記録部は、上記第2データベースに格納されている対応情報が、上記応答通知部による応答内容の特定に用いられた回数を複数の上記音声対話装置毎に示す使用履歴情報を記録し、上記使用履歴情報および上記属性情報を参照して特定した上記対応情報の属性毎の使用回数を基準として、複数の上記音声対話装置毎に属性を特定すると共に、複数の上記音声対話装置における合計使用回数を基準として、上記特定した属性の対応情報の中から、上記第1データベースに追加させる対応情報を特定する追加対象特定部を備え、上記更新制御部は、上記第2データベースに格納されている対応情報のうち、上記追加対象特定部が特定した対応情報を、該対応情報の属性が特定された音声対話装置に通知して上記第1データベースに追加させる、構成であってもよい。
 上記の構成によれば、対応情報の属性毎の使用回数を基準として、複数の上記音声対話装置毎に属性を特定する。これにより、各音声対話装置において使用される可能性の高い属性の対応情報を特定することができる。
 そして、上記の構成によれば、複数の音声対話装置における合計使用回数を基準として上記特定した属性の対応情報を特定し、該対応情報の属性が特定された音声対話装置に通知して第1データベースに追加させる。よって、個別の音声対話装置において使用される可能性の高い属性の対応情報であって、全音声対話装置において多く使用され、個別の音声対話装置においても今後使用される可能性が高い対応情報を、各第1データベースに追加させることができる。
 本発明の態様6に係る音声対話装置10eは、ユーザからの呼びかけの内容に応じた応答内容を示す対応情報が格納された第1データベース20eを参照し、該ユーザの呼びかけに上記応答内容で応答する音声対話装置であって、上記第1データベースに格納されていない対応情報が格納された第2データベースを参照可能な情報処理装置に要求して、ユーザの呼びかけ内容に応じた応答内容を取得する応答取得部(応答生成部15)と、上記第2データベースに格納されている対応情報の使用履歴を示す使用履歴情報を参照して、上記第1データベースに追加する対応情報を特定する追加対象特定部(22)と、上記追加対象特定部が特定した対応情報を上記情報処理装置から取得して上記第1データベースに追加する更新部(18)と、を備える。
 上記の構成によれば、第1データベースの参照では応答内容を特定することができなかった場合に、情報処理装置に要求することにより、ユーザの呼びかけ内容に応じた応答内容を取得し、これを出力して応答することができる。また、使用履歴情報を参照することで特定した対応情報を第1データベースに追加するので、第2データベースに格納されている対応情報のうち、音声対話装置において使用される可能性の高い対応情報を第1データベースに追加させることが可能になる。
 つまり、上記の構成によれば、使用可能性の高い対応情報については、速やかに音声対話装置が参照できるようにすると共に、使用可能性の低い対応情報については、情報処理装置への要求により使用できるようにする。これにより、使用可能性の低い対応情報で第1データベースの容量を増加させることなく、音声対話装置が、情報処理装置を介さずに、第1データベースを参照してユーザに応答を返すことができる可能性を高めることができる。
 なお、第2データベースに格納されている対応情報の使用履歴を示す使用履歴情報は、例えば情報処理装置から応答内容を取得したときに、その応答内容の特定に用いられた対応情報の使用回数をカウントしたものであってもよい。また、例えば、使用履歴情報を情報処理装置から取得してもよい。さらに、情報処理装置が複数の音声対話装置と通信可能である場合、使用履歴情報は、第2データベースに格納されている対応情報の複数の音声対話装置による使用回数を示すものであってもよい。この場合、対応情報の使用回数は、各音声対話装置について個別にカウントされていてもよいし、全音声対話装置についての合計使用回数がカウントされていてもよい。
 本発明の態様7に係る音声対話装置は、上記態様6において、上記第1データベースに格納されている対応情報の使用履歴を示す使用履歴情報を参照して、上記第1データベースから削除する対応情報を特定する削除対象特定部(19)を備え、上記更新部は、上記削除対象特定部が特定した対応情報を上記第1データベースから削除するか、または上記削除対象特定部が特定した対応情報を、上記追加対象特定部が特定した対応情報で上書きする、構成であってもよい。
 上記の構成によれば、使用履歴情報を参照することで特定した対応情報を第1データベースから削除するか、または上書きする。よって、第1データベースに格納されている対応情報のうち、音声対話装置において使用される可能性の低い対応情報を第1データベースから削除することが可能になる。
 本発明の各態様に係る情報処理装置および音声対話装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記情報処理装置または上記音声対話装置が備える各部として動作させることにより上記情報処理装置または上記音声対話装置をコンピュータにて実現させる上記情報処理装置または上記音声対話装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
 本発明は、ユーザの呼びかけに音声で応答する音声対話装置、および情報処理装置を介して音声対話装置に上記の応答を行わせる対話システム等に利用することができる。
10  音声対話装置
20  第1データベース
30  情報処理装置
33  応答通知部
36  履歴情報記録部
37  追加対象特定部
38  更新制御部
40  第2データベース
10e 音声対話装置
15 応答生成部(応答取得部)
18 更新部
19 削除対象特定部
22 追加対象特定部
20e 第1データベース
30e 情報処理装置

Claims (5)

  1.  ユーザからの呼びかけの内容に応じた応答内容を示す対応情報が格納された第1データベースを参照し、該ユーザの呼びかけに上記応答内容で応答する音声対話装置と通信可能な情報処理装置であって、
     上記音声対話装置から呼びかけの内容を通知されたときに、上記第1データベースに格納されていない対応情報が格納された第2データベースを参照して応答内容を特定し、該応答内容で上記音声対話装置に音声出力させる応答通知部と、
     上記応答通知部による応答内容の特定に用いられた対応情報の使用履歴を示す使用履歴情報を記録する履歴情報記録部と、
     上記使用履歴情報を参照して特定された対応情報を、上記音声対話装置に通知して上記第1データベースに追加させる更新制御部とを備えることを特徴とする情報処理装置。
  2.  上記第2データベースに格納されている対応情報には、該対応情報が予め定められた属性の何れに該当するかを示す属性情報が対応付けられており、
     上記履歴情報記録部は、上記第2データベースに格納されている対応情報が、上記応答通知部による応答内容の特定に用いられた回数を示す使用履歴情報を記録し、
     上記使用履歴情報および上記属性情報を参照して特定した上記対応情報の属性毎の使用回数を基準として、上記第1データベースに追加させる対応情報の属性を特定する追加対象特定部を備え、
     上記更新制御部は、上記第2データベースに格納されている対応情報のうち、上記追加対象特定部が特定した属性の対応情報を、上記音声対話装置に通知して上記第1データベースに追加させることを特徴とする請求項1に記載の情報処理装置。
  3.  上記情報処理装置は、複数の上記音声対話装置と通信可能であり、
     上記履歴情報記録部は、上記応答通知部による応答内容の特定に用いられた対応情報の使用回数を上記使用履歴情報として記録し、
     複数の上記音声対話装置の上記使用回数を対応情報毎に合計した合計使用回数を基準として、上記第1データベースに追加させる対応情報を特定する追加対象特定部を備え、
     上記更新制御部は、上記第2データベースに格納されている対応情報のうち、上記追加対象特定部が特定した対応情報を、複数の上記音声対話装置の一部または全部に通知して各音声対話装置が参照する各第1データベースに追加させることを特徴とする請求項1に記載の情報処理装置。
  4.  ユーザからの呼びかけの内容に応じた応答内容を示す対応情報が格納された第1データベースを参照し、該ユーザの呼びかけに上記応答内容で応答する音声対話装置であって、
     上記第1データベースに格納されていない対応情報が格納された第2データベースを参照可能な情報処理装置に要求して、ユーザの呼びかけ内容に応じた応答内容を取得する応答取得部と、
     上記第2データベースに格納されている対応情報の使用履歴を示す使用履歴情報を参照して、上記第1データベースに追加する対応情報を特定する追加対象特定部と、
     上記追加対象特定部が特定した対応情報を上記情報処理装置から取得して上記第1データベースに追加する更新部と、を備えることを特徴とする音声対話装置。
  5.  請求項1から3のいずれか1項に記載の情報処理装置としてコンピュータを機能させるための制御プログラムであって、コンピュータを上記各部として機能させるための制御プログラム。
PCT/JP2015/052016 2014-02-19 2015-01-26 情報処理装置、音声対話装置、および制御プログラム WO2015125560A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-030046 2014-02-19
JP2014030046A JP6255274B2 (ja) 2014-02-19 2014-02-19 情報処理装置、音声対話装置、および制御プログラム

Publications (1)

Publication Number Publication Date
WO2015125560A1 true WO2015125560A1 (ja) 2015-08-27

Family

ID=53878074

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/052016 WO2015125560A1 (ja) 2014-02-19 2015-01-26 情報処理装置、音声対話装置、および制御プログラム

Country Status (2)

Country Link
JP (1) JP6255274B2 (ja)
WO (1) WO2015125560A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107644641A (zh) * 2017-07-28 2018-01-30 深圳前海微众银行股份有限公司 对话场景识别方法、终端以及计算机可读存储介质
CN109359211A (zh) * 2018-11-13 2019-02-19 平安科技(深圳)有限公司 语音交互的数据更新方法、装置、计算机设备和存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6651973B2 (ja) * 2016-05-09 2020-02-19 富士通株式会社 対話処理プログラム、対話処理方法および情報処理装置
JP6643468B2 (ja) * 2016-05-18 2020-02-12 シャープ株式会社 応答制御装置、制御プログラム、情報処理方法、および通信システム
JP6655835B2 (ja) * 2016-06-16 2020-02-26 パナソニックIpマネジメント株式会社 対話処理方法、対話処理システム、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277519A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 対話装置、対話シナリオ編集装置、対話方法及びプログラム
JP2008243048A (ja) * 2007-03-28 2008-10-09 Toshiba Corp 対話装置、対話方法及びプログラム
JP2010073191A (ja) * 2008-08-20 2010-04-02 Universal Entertainment Corp 顧客対応システム、並びに会話サーバ

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5756969B2 (ja) * 2012-02-25 2015-07-29 株式会社クロダアンドパートナーズ 3次元フィギアを構成するデータを配信するための方法、システム、サーバ装置、端末装置およびプログラム
JP5616390B2 (ja) * 2012-03-27 2014-10-29 ヤフー株式会社 応答生成装置、応答生成方法および応答生成プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006277519A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 対話装置、対話シナリオ編集装置、対話方法及びプログラム
JP2008243048A (ja) * 2007-03-28 2008-10-09 Toshiba Corp 対話装置、対話方法及びプログラム
JP2010073191A (ja) * 2008-08-20 2010-04-02 Universal Entertainment Corp 顧客対応システム、並びに会話サーバ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107644641A (zh) * 2017-07-28 2018-01-30 深圳前海微众银行股份有限公司 对话场景识别方法、终端以及计算机可读存储介质
CN109359211A (zh) * 2018-11-13 2019-02-19 平安科技(深圳)有限公司 语音交互的数据更新方法、装置、计算机设备和存储介质
CN109359211B (zh) * 2018-11-13 2024-05-07 平安科技(深圳)有限公司 语音交互的数据更新方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
JP6255274B2 (ja) 2017-12-27
JP2015155936A (ja) 2015-08-27

Similar Documents

Publication Publication Date Title
CN107623614B (zh) 用于推送信息的方法和装置
WO2015125560A1 (ja) 情報処理装置、音声対話装置、および制御プログラム
US10034029B1 (en) Systems and methods for audio object delivery based on audible frequency analysis
US8938388B2 (en) Maintaining and supplying speech models
CN105489221B (zh) 一种语音识别方法及装置
JP6317111B2 (ja) ハイブリッド型クライアントサーバ音声認識
US11521038B2 (en) Electronic apparatus and control method thereof
US10705789B2 (en) Dynamic volume adjustment for virtual assistants
US10643620B2 (en) Speech recognition method and apparatus using device information
WO2015098306A1 (ja) 応答制御装置、制御プログラム
JP6257368B2 (ja) 情報処理装置
US20190155566A1 (en) Identification of preferred communication devices
JP5217109B2 (ja) オペレータ教育支援プログラム、オペレータ教育支援方法及びオペレータ教育支援装置
CN104335559A (zh) 一种自动调节音量的方法、音量调节装置及电子设备
CN111182390B (zh) 音量数据处理方法、装置、计算机设备及存储介质
US20190066656A1 (en) Speech synthesis dictionary delivery device, speech synthesis system, and program storage medium
JP2014170185A (ja) 発話コマンド認識システム
JP2018120203A (ja) 情報処理方法及びプログラム
US11715466B2 (en) Systems and methods for local interpretation of voice queries
KR20180089242A (ko) 챗봇에서의 출력 유형에 따라 대화 내용을 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체
US11942086B2 (en) Description support device and description support method
JP6468069B2 (ja) 電子機器制御システム、サーバー、及び、端末装置
JP6265670B2 (ja) 情報処理装置、サーバ、および、制御プログラム
JP2002268666A (ja) 音声合成装置
JP2021117245A (ja) 学習方法、評価装置、データ構造、及び評価システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15752626

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15752626

Country of ref document: EP

Kind code of ref document: A1