WO2007004391A1 - 対話支援装置 - Google Patents

対話支援装置 Download PDF

Info

Publication number
WO2007004391A1
WO2007004391A1 PCT/JP2006/311786 JP2006311786W WO2007004391A1 WO 2007004391 A1 WO2007004391 A1 WO 2007004391A1 JP 2006311786 W JP2006311786 W JP 2006311786W WO 2007004391 A1 WO2007004391 A1 WO 2007004391A1
Authority
WO
WIPO (PCT)
Prior art keywords
utterance
difference
dialogue
user
dialogue support
Prior art date
Application number
PCT/JP2006/311786
Other languages
English (en)
French (fr)
Inventor
Kenji Mizutani
Yoshiyuki Okimoto
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to CN2006800011442A priority Critical patent/CN101052964B/zh
Priority to JP2006538189A priority patent/JP3984642B2/ja
Publication of WO2007004391A1 publication Critical patent/WO2007004391A1/ja
Priority to US11/785,368 priority patent/US7562006B2/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation

Definitions

  • the present invention relates to a dialogue support apparatus that supports dialogue between people.
  • a typical example is a translation device in which a translation method based on parallel translation of examples and examples is mounted on a small information processing device such as a PDA (Personal Digital Assistant).
  • PDA Personal Digital Assistant
  • Such devices provide more than a thousand examples to cover a general travel conversation.
  • simply allowing the user to visually select a desired example from the list has a problem in usability in actual usage, that is, usability. In particular, this problem becomes even more pronounced when the display for viewing the list of examples is small and the number of examples that can be viewed simultaneously is small.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-30187
  • Example 1> "I want to go to the airport.”
  • the present invention has been made in view of the above circumstances, and an interaction support device capable of reducing conversations due to misunderstandings and early matching points and supporting the conversations so that the conversations are completed promptly is provided.
  • the purpose is to provide.
  • a dialogue support apparatus is a dialogue support apparatus that supports a dialogue, and holds a first example and a second example associated with each other in association with each other.
  • the first example is selected by searching the example database based on the database, utterance accepting means for accepting the user's utterance, and the utterance accepted by the utterance accepting means, and the selected first example A corresponding second example is output; an example selecting unit that calculates a difference between the utterance and the first example selected by the example selecting unit; and an utterance difference calculating unit that outputs difference information indicating the calculated difference Transmitting the second example output by the example selection means and the difference information output by the utterance difference calculation means to the conversation support device of the other user Characterized in that it comprises a stage.
  • the other party of the dialogue can know the timing at which his / her utterance is completely terminated by the difference information. Therefore, interruption during the utterance is suppressed, and the dialogue through the dialogue support device proceeds smoothly. In particular, the conversation is confused due to the immediate response to the other person's utterance with kindness and goodwill, and the phenomenon that both parties feel uncomfortable after the conversation ends.
  • FIG. 1 is a block diagram showing a configuration of an embodiment of a dialogue support apparatus according to the present invention.
  • FIG. 2 is a diagram showing an example of an example database.
  • FIG. 3 is a flowchart showing the operation of the example selection unit.
  • FIG. 4 is a diagram showing an example of dynamic programming used by the example selection unit to calculate similarity.
  • FIG. 5 is a diagram showing an example of a scene in which the dialogue support apparatus according to the present invention is used.
  • FIGS. 6 (a) and 6 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 7 (a) and 7 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 8A and 8B are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 9 (a) and 9 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 10A and 10B are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 11 (a) and 11 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 12 (a) and 12 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 13A and 13B are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 14 (a) and 14 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 15 (a) and 15 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIG. 16 is a block diagram showing the configuration of another embodiment of the dialogue support apparatus according to the present invention.
  • FIG. 17 is a diagram showing an example of the expression conversion unit.
  • FIGS. 18 (a) and 18 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIG. 19 is a block diagram showing the configuration of another embodiment of the dialogue support apparatus according to the present invention.
  • FIGS. 20 (a) and 20 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIG. 21 is a diagram showing an example of an example database.
  • FIGS. 22 (a) and 22 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIG. 23 (a) and FIG. 23 (b) are diagrams showing a display example of the dialogue support apparatus according to the present invention.
  • FIGS. 24 (a) and 24 (b) are diagrams showing a display example of the dialogue support apparatus according to the present invention.
  • FIGS. 25 (a) and 25 (b) are diagrams showing a display example of the dialogue support apparatus according to the present invention.
  • FIGS. 26 (a) and 26 (b) are diagrams showing a display example of the dialogue support apparatus according to the present invention. 27] FIGS.
  • FIGS. 28 (a) and 28 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 28 (a) and 28 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 29 (a) and 29 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 30 (a) and 30 (b) are diagrams showing a display example of the dialogue support apparatus according to the present invention.
  • FIGS. 31 (a) and 31 (b) are diagrams showing a display example of the dialogue support apparatus according to the present invention.
  • FIG. 32 is a diagram showing an example of the expression conversion unit.
  • FIGS. 33 (a) and 33 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIGS. 34 (a) and 34 (b) are diagrams showing display examples of the dialogue support apparatus according to the present invention.
  • FIG. 35 is a block diagram showing the configuration of another embodiment of the dialogue support apparatus according to the present invention.
  • FIG. 36 is a block diagram showing the configuration of another embodiment of the dialogue support apparatus according to the present invention.
  • a dialog support apparatus is a dialog support apparatus that supports a dialog, and an example database that holds a first example and a second example used in a dialog in association with each other;
  • An utterance accepting unit for accepting a user's utterance, and a second example corresponding to the selected first example by selecting the first example by searching the example database based on the utterance accepted by the utterance accepting unit
  • the example selection means for outputting the difference, the utterance difference calculation means for calculating the difference between the utterance and the first example selected by the example selection means, and outputting the difference information indicating the calculated difference, and the example selection Transmitting means for transmitting the second example output by the means and the difference information output by the utterance difference calculation means to the dialogue support device of the other user. It is characterized in.
  • the example selection means may further select the next first example for the utterance based on the difference between the selected first example and the utterance. As a result, the remaining part uttered by the partner can be sequentially spoken to the partner, and the difference information at that time can be notified.
  • the example selection means is a similarity indicating the degree of similarity between the utterance and the first example.
  • the degree may be calculated using dynamic programming in units of letters, words, or reading letters.
  • the utterance difference calculating means may calculate the difference by comparing the utterance with the first example selected by the example selecting means by a character, a word, or a reading character. Good.
  • the dialogue support device further includes a receiving unit that receives the second example and the difference information transmitted from the dialogue support device of the partner user, and the second example received by the receiving unit.
  • You may provide the utterance output means which outputs the said difference information.
  • it is possible to know how much of the other party has spoken and to objectively determine whether or not to respond to the utterance. Therefore, it is possible to reduce utterances due to misunderstandings and early matching points, and to support dialogue so that dialogue can be completed promptly.
  • the utterance output unit may display the difference information received by the receiving unit in numerical form. Further, the utterance output unit may display the difference information received by the receiving unit in a graphic form. As a result, the user can intuitively grasp the difference information, and the stress awaiting the next utterance is reduced.
  • the utterance output unit may convert the difference information received by the receiving unit into a qualitative language expression, and output the converted language expression.
  • the speech output means may randomly generate a language expression corresponding to the filler based on the difference information received by the receiving means, and output the generated language expression. This makes it possible to reduce the stress of the user waiting for the next utterance.
  • the dialogue support apparatus further includes candidate notification means for notifying the user of the candidate for the first example selected by the example selecting means, and one candidate from the candidates for the first example.
  • Selection instruction receiving means for receiving a selection instruction for the first example from the user, and the example selection means selects the candidate for the first example by searching the example database based on the utterance; The first example may be selected according to the selection instruction received by the selection instruction receiving means.
  • the utterance accepting unit is configured to use the first example stored in the example database.
  • the utterance may be received by continuous speech recognition processing using the constructed language model, or the utterance may be received from a keyboard that is limited in input to the words constituting the first example stored in the example database. Good.
  • a dialogue support system is a dialogue support system that supports a dialogue using the first dialogue support device and the second dialogue support device, and the first dialogue support device. Is based on the example database used in the dialogue, the example database that holds the first example and the second example in association with each other, the utterance accepting unit that accepts the user's utterance, and the utterance accepted by the utterance accepting unit Selecting a first example by searching a database and outputting a second example corresponding to the selected first example; and the first example selected by the utterance and the example selecting unit; Utterance difference calculation means for calculating the difference of the difference and outputting difference information indicating the calculated difference, and the second example and the utterance difference calculation means output by the example selection means Transmission means for transmitting the output difference information to the second dialog support apparatus, wherein the second dialog support apparatus transmits the difference between the second example and the difference transmitted from the first dialog support apparatus. Receiving means for receiving information, and utterance output means for outputting the second example
  • the dialogue support system is a dialogue support system that supports dialogue using a first dialogue support device and a second dialogue support device connected to a server
  • the first dialogue support apparatus includes an utterance accepting unit that accepts a user's utterance, and a transmission unit that transmits the utterance accepted by the utterance accepting unit to the server, and the server is used in an interaction.
  • the first example is selected by searching the example database based on the example database stored in association with the first example and the second example, and the utterance transmitted from the first dialogue support device.
  • the difference between the example selecting means for outputting the second example corresponding to the first example and the first example selected by the utterance and the example selecting means is calculated, and the calculated difference Utterance difference calculation means for outputting the difference information to be displayed, and transmission for transmitting the second example output by the example selection means and the difference information output by the utterance difference calculation means to the second dialog support device
  • the second dialog support device includes the support.
  • the present invention can be realized as a dialogue support method that can be realized as such a dialogue support device as a step using characteristic means provided in the dialogue support device such as NAGKO. It can also be realized as a program that causes a computer to execute steps. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.
  • FIG. 1 is a block diagram showing a configuration of an embodiment of a dialogue support apparatus according to the present invention.
  • the dialogue support device is a device for supporting a dialogue between people. As shown in FIG. 1, the example database 101, the utterance reception unit 102, the example selection unit 103, the utterance difference calculation unit 105, a transmission Unit 104, receiving unit 106, and speech output unit 107.
  • the utterance reception unit 102 is transmitted to the utterance reception unit
  • the example selection unit 103 is transmitted to the example selection unit
  • the candidate notification unit and the selection instruction reception unit
  • the utterance difference calculation unit 105 is transmitted to the utterance difference calculation unit.
  • the unit 104 corresponds to a transmission unit
  • the reception unit 106 corresponds to a reception unit
  • the speech output unit 107 corresponds to a speech output unit.
  • the example database 101 holds examples used in dialogue.
  • the utterance receiving unit 102 receives user's utterance and outputs it as utterance information.
  • the example selection unit 103 sequentially selects examples included in the example database 101 closest to the utterance information, and outputs examples corresponding to the examples.
  • the utterance difference calculation unit 105 calculates the difference between the utterance information and the example selected by the example selection unit 103 and outputs the difference information.
  • the transmission unit 104 transmits the example output from the example selection unit 103 and the difference information to the conversation support device of the other user.
  • the receiving unit 106 receives an example and difference information output from the conversation support device of the other user.
  • the utterance output unit 107 outputs the difference information received by the receiving unit 106 and the example. It should be noted that the user transmitting unit 104 and the other user receiving unit 106, or the other user transmitting unit 104 and the user receiving unit 106 may directly transmit and receive the example and the difference information. It may be transmitted and received indirectly
  • FIG. 2 is a diagram showing an example of an example stored in the example database 101.
  • Language 1 corresponding to the first example is your native language
  • language 2 corresponding to the second example is your partner's native language
  • the examples of language 1 and language 2 have a translation relationship. For example, when the example “I want to go to the airport” for the utterance No. 16 in language 1 is selected by the example selection unit 103, 1 want to go to the airport. In language 2 is output as a corresponding example.
  • the utterance receiving unit 102 acquires the user's utterance as character information using a continuous speech recognition process or a keyboard, and outputs it as utterance information.
  • the utterance information is a character string corresponding to the user's utterance.
  • the speech accepting unit 102 accepts a user's speech by continuous speech recognition processing, it is possible to improve speech recognition accuracy by constructing a language model from the example stored in the example database 101.
  • the utterance receiving unit 102 receives a user's utterance from the keyboard, it is possible to input characters efficiently by limiting the input to the words constituting the language 1 example stored in the example database 101. It becomes possible.
  • FIG. 3 is a flowchart showing an operation flow of the example selection unit 103.
  • the example selection unit 103 outputs the examples closest to the utterance information in accordance with the flowchart of FIG.
  • the example selection unit 103 sets the utterance information corresponding to the utterance input from the utterance reception unit 102 in the entire utterance information U (step S301).
  • U is set in the partial utterance information u, and the converted utterance information V is cleared.
  • the mode of the partner user's dialog support apparatus is changed to the reception state through the transmission unit 104 (step S302).
  • the example selection unit 103 calculates the similarity between the partial utterance information u and all examples of language 1 in the example database 101 (step S303).
  • the example selection unit 103 calculates the distance between the partial utterance information u and each example using the dynamic planning method shown in FIG. 4 as the similarity. In this case, the smaller the distance, the higher the similarity.
  • the structural unit of a sentence is either a character, a word, a reading character, or a combination thereof.
  • the example selection unit 103 selects an example whose similarity is equal to or less than a threshold value from all the examples in the language 1, and sets it as an example candidate E (step S304).
  • the threshold value / 3 is determined in consideration of the number of examples held in the example database 101 and the number of examples similar in expression.
  • the example selection unit 103 determines whether or not the example candidate E is empty (step S305). As a result, if the example candidate E is not empty (No in step S305), the partial utterance information u and the example candidate E are presented to the user, and a desired example is selected (step S3 06).
  • the parallel translation example is output to transmitting section 104 (step S307).
  • the example selection unit 103 updates the contents of the partial utterance information u and the converted utterance information V as V—v + u and u—U_v, and outputs them to the utterance difference calculation unit 105 (step S308). Then, it is determined whether or not the partial utterance information u is empty (step S3 10). If the partial utterance information u is empty (Yes in step S310), the process ends. If it is not empty (No in step S310). Return to similarity calculation processing (step S303).
  • the partial utterance is selected in order to select the example closest to the partial utterance information u from the example database 101.
  • Information u is degenerated from the end (step S309).
  • the utterance difference calculation unit 105 calculates the difference information (based on the total utterance information U and the converted utterance information V).
  • U_v) ZU is calculated and output to the transmission unit 104.
  • the transmission unit 104 uses the language of the example database 101 sequentially output from the example selection unit 103.
  • the difference information output from the utterance difference calculation unit 105 is superimposed on the example 2 and transmitted to the other party's dialog support device.
  • the transmitted information is received by the receiving unit 106 of the other party's dialogue support apparatus and output to the other party through the utterance output unit 107.
  • the utterance output unit 107 includes a display device such as an LCD or a voice synthesis process.
  • FIGS. 6 (a) and 6 (b) are diagrams showing a PDA equipped with a dialogue support apparatus.
  • the PD A501 shown in FIG. 6 (a) is used by the user 1
  • the PDA502 shown in FIG. 6 (b) is used by the user 2.
  • Each user presses the speech input buttons 503 and 504 to input speech by voice.
  • the utterance received by the utterance receiving unit 102 is displayed as utterance information in the display areas 505 and 506, and the example candidate E is displayed in the display areas 507 and 508 by the example selecting unit 103.
  • the parallel translation example is displayed in the display areas 509 and 510 and transmitted to the other party's dialogue support apparatus. Difference information is displayed in display areas 511 and 512.
  • Microphones 513 and 514 are microphones for inputting the user's voice to the speech receiving unit 102.
  • the translation example of the example recently selected by the conversation support device of the partner user is displayed in the display area 701, and the translation example of all the examples selected by the conversation support device of the partner user is displayed in the display area 702. Displayed sequentially.
  • the reception state of the PDA 502 is canceled when the utterance input button 504 is pressed to start inputting the utterance, and the state returns to the state shown in FIG. [0042]
  • the example selection unit 103 calculates the similarity to all the examples while reducing the partial utterance information u in step 303, step 304, step 305, and step 309, and finally the partial utterance information.
  • step 306 the value of the partial utterance information u is reflected in the display area 505. 9 (a), it is indicated to user 1 by an underline 801. Further, the example selection unit 103 displays the example candidate E in the display area 507. As shown in FIG. As described above, when the user 1 selects “returned to the airport” as the desired example e, the translation example “I want to go to the ak ort.” Is output to the transmission unit 104 in step 307.
  • This information is output to the utterance difference calculation unit 105.
  • the obtained difference information is displayed in the display area 511 and the transmission unit 104 receives the translation example “I
  • the difference information “0 ⁇ 64” is sent to PDA502.
  • These pieces of information received by the receiving unit 106 of the PDA 502 are displayed in the display areas 701 and 702 by the utterance output unit 107 as shown in FIG.
  • the utterance output unit 107 outputs voice information corresponding to “I want to go to the ai ⁇ ort.” From the PDA 502 by voice synthesis processing. Now, the difference information is displayed in the display area 512, so that User 2 can know that User 1 still has 64% left. Therefore, User 2 should not wait for more than half of User 1 ’s utterance, so he should just listen to “I want to go to the ai ⁇ ort.” And wait for the rest of the utterance rather than answer immediately. This makes it possible to judge objectively and to suppress unnecessary utterances.
  • step 306 the partial utterance information u and Example candidate E is displayed, as shown in Fig. 12 (a), when user 1 selects the desired example “when does the train depart?”, As shown in Fig. 12 (b), The translation example “What time does the train leave?” Is output from PDA502.
  • the obtained difference information is displayed in the display area 511 and similarly in the display area 512.
  • the user 2 can know that the words that the user 1 says are all included in the display area 702. Therefore, it is possible to objectively determine that the display area 702 should be responded, and it is possible to respond to the other party with necessary and sufficient speech.
  • the difference information may be expressed by a graphic such as a pie chart 1301 or 1302 shown.
  • a metaphor expressing the difference information may be controlled using the difference information as a control parameter.
  • the rotation speed of a rotating hourglass 1401 as shown in FIG. 15 (b) can be proportional to the difference information.
  • an expression conversion unit 1501 may be provided to transmit the difference information to the user in a language expression.
  • the expression conversion unit 1501 includes a conversion rule from the difference information to the language expression as shown in FIG. In the state of FIG. 10, when the difference information is 0.64, the difference information is converted into “Waiting for a mi dish te.”
  • the conversion rule No. 2 of the expression conversion unit 1501 in the configuration of FIG. As shown in (b), the qualitative language expression 1701 is transmitted to the other user.
  • the difference information in an appropriate language in this way, the stress that the user waits for the next utterance is reduced.
  • a filler database 1801 may be provided in addition to the configuration of the dialogue support apparatus shown in FIG.
  • the utterance output unit 107 uses this difference information as a control parameter until the next example arrives from the other party's dialog support apparatus.
  • you can generate regular or random sentences corresponding to fillers such as “Etsuto”, “That ’s right”, “And please wait,” and so on.
  • the filler sound is randomly reproduced from the PDA 502.
  • the display of the difference information in the display area 512 shown in FIG. 20 may or may not be performed.
  • FIG. 21 is a diagram showing an example of an example stored in the example database 101.
  • Language 1 corresponding to the first example is Chinese
  • language 2 corresponding to the second example is English
  • the examples of language 1 and language 2 are bilingual.
  • FIGS. 22 (a) and 22 (b) are diagrams showing a PDA equipped with a dialogue support apparatus.
  • the PDA 501 shown in FIG. 22 (a) is used by the user 1
  • the PDA 502 shown in FIG. 22 (b) is used by the user 2.
  • Each user presses the speech input buttons 503 and 504 to input speech by voice.
  • the utterance received by the utterance receiving unit 102 is displayed as utterance information in the display areas 505 and 506, and the example candidate E is displayed in the display areas 507 and 508 by the example selecting unit 103.
  • the parallel example is displayed in the display areas 509 and 510 and transmitted to the other party's dialogue support apparatus. Difference information is displayed in display areas 511 and 512.
  • Microphones 513 and 514 are microphones for inputting the user's voice to the speech receiving unit 102.
  • the user 1 presses the utterance input button 503.
  • the reception state an example of the bilingual example selected by the other user's dialog support device is displayed in the display area 701, and an example of all the examples selected by the other user's dialog supporting device is displayed in the display area 702. are displayed in sequence.
  • the reception state of the PD A 502 is canceled when the speech input button 504 is pressed to start the speech input, and the state returns to the state shown in FIG.
  • step 306 the value of the partial utterance information u is reflected in the display of the display area 505, and is shown to the user 1 by the underline 801 as shown in FIG. Further, the example selection unit 103 displays the example candidate E in the display area 507. As shown in Figure 26 (a), User 1 wants to
  • step 307 the translation example “I want to go to the ai ⁇ ort.” Is output to the transmission unit 104.
  • step 308 v the translation example “I want to go to the ai ⁇ ort.”
  • these pieces of information received by the receiving unit 106 of the PDA 502 are displayed in the display areas 701 and 702 by the utterance output unit 107 as shown in FIG. Further, the utterance output unit 107 outputs voice information corresponding to “I want to go to the ak ort.” From the PDA 502 by voice synthesis processing. Here, since the difference information is displayed in the display area 512, the user 2 can know that there is still 71% of what the user 1 wants to say. Therefore, objectively, user 2 should wait for the rest of the utterance rather than just answering "I want to go to the airport.” And unnecessary utterances are suppressed.
  • the example candidate E ⁇ electronic point output generation? , Electronic points ⁇ ⁇ ? , ⁇ ⁇ ⁇ ⁇ ? ⁇
  • the partial utterance information u and the example candidate E are displayed in the display areas 505 and 507 in step 306 as shown in FIG.
  • User 1 similarly wants the desired application.
  • the difference information may be expressed by a graphic such as a pie chart 1301 or 1302 shown.
  • a metaphor expressing the difference information may be controlled using the difference information as a control parameter.
  • the rotation speed of a rotating hourglass 1401 as shown in FIG. 31 (b) can be proportional to the difference information.
  • an expression conversion unit 1501 may be provided to transmit the difference information to the user in a language expression.
  • the expression conversion unit 1501 is composed of rules for converting the difference information into the language expression as shown in FIG.
  • the difference information is 0.71 in the state of FIG. 26, the difference information is converted into “Waiting for a mi dish te.”
  • the conversion rule No. 2 of the expression conversion unit 1501 in the configuration of FIG. As shown in (b), the qualitative language expression 1701 is transmitted to the other user.
  • the difference information in an appropriate language in this way, the stress that the user waits for the next utterance is reduced.
  • a filler database 1801 may be provided in addition to the configuration of the dialogue support apparatus shown in FIG.
  • the utterance output unit 107 uses the difference information as a control parameter when the difference information transmitted from the other party's dialogue support device is not 0. Until the next example arrives from the dialogue support device, “Nana” and “Employment” in the filler database 1801
  • the sentence corresponding to the filler may be generated regularly or randomly.
  • the voice of the filler is randomly reproduced from the PDA 502 as shown in FIG. 34 (b).
  • the display of the difference information in the display area 512 shown in FIG. 34 may be performed or not performed.
  • a transmission side constituted by an example database 101, an utterance reception unit 102, an example selection unit 103, a transmission unit 104, and an utterance difference calculation unit 105, a reception unit 106, and an utterance output
  • the receiving side configured by the unit 107 may be configured independently.
  • the dialogue support apparatus includes an utterance reception unit 102, a transmission unit 104, a reception unit 106, and an utterance output unit 107, and is connected to the dialogue support device via a network 2210 such as the Internet.
  • the server it is also possible to configure the server as a system including the example database 101, the example selection unit 104, and the utterance difference calculation unit 105.
  • the transmission unit 104 transmits the utterance information to the server, and the reception unit 2201 of the server receives it.
  • the transmission unit 2202 of the server transmits the example specified by the server based on the utterance information and the difference information to the reception unit 106 of the dialogue support device of the other user.
  • the example specified by the server based on the utterance information and the difference information may be once transmitted to the user's dialog support apparatus, and then transmitted from the user's dialog support apparatus to the other user's dialog support apparatus.
  • the dialogue support apparatus has a function of quickly completing the utterances of dialogue participants, and is useful as translation application software for a mobile phone, a mobile terminal, or the like. It can also be applied to uses such as public street terminals and information terminals. In addition, the same language dialogue

Abstract

 誤解や早合点による発話を低減し、速やかに対話が完了するように対話を支援することができる対話支援装置を提供する。対話支援装置は、対話で使用される用例を保持する用例データベース(101)と、ユーザの発話を受け付け、発話情報として出力する発話受付部(102)と、発話情報に最も近い用例データベース(101)に含まれる用例を順次選択し、その用例に対応する用例を出力する用例選択部(103)と、発話情報と用例選択部(103)によって選択された用例との差分を計算して差分情報を出力する発話差分計算部(105)と、用例選択部(103)から出力される用例と差分情報を相手ユーザの対話支援装置に送信する送信部(104)と、相手ユーザの対話支援装置から送信される用例と差分情報を受信する受信部(106)と、受信部(106)で受信された用例と差分情報を出力する発話出力部(107)とを備える。

Description

明 細 書
対話支援装置
技術分野
[0001] 本発明は、人と人との対話を支援する対話支援装置に関するものである。
背景技術
[0002] 従来、一般の人々が海外旅行などで現地の人々と対話をする際に、その異言語対 話を支援することを目的として翻訳装置が開発されてきた。代表的なものとしては、例 文や用例の対訳に基づく翻訳方式を、 PDA (Personal Digital Assistant)などの小型 の情報処理装置に実装した翻訳装置がある。そのような装置では、一般的な旅行会 話をカバーするために数千以上の用例が用意されている。しかし、ユーザに所望の 用例をそのリストから目視で選択させるだけでは実際の使用状況における使い勝手、 すなわち、ユーザビリティに問題がある。特に、用例のリストを見るための表示部が小 さぐ同時に見ることができる用例の数が少ない場合は、この問題は一層顕著になる 。また、翻訳装置の一般的な使用状況を想定すると、相手との対話の中で数文以上 の用例を使用しなければならず、翻訳装置を介して 1つの対話が完了するまでに予 想以上の時間を要する。したがって、人と人との対話支援を最終目的として、大量の 用例リストの中からユーザに所望の用例を速やかに選択させるための機能が必要と されている。
[0003] この問題を解決するための一方法として、見本対話モデルや会話練習履歴コーパ スを利用してユーザの次の発話候補を絞り込む手法が提案されてレ、る(例えば特許 文献 1参照)。
特許文献 1 :特開 2003— 30187号公報
発明の開示
発明が解決しょうとする課題
[0004] このような翻訳装置を実際に使用する場合、言語の異なる 2人のユーザがそれぞれ の翻訳装置を交互に利用して対話を行う。 自分が相手に伝えたい内容そのままの用 例が翻訳装置の中に存在すればそれを検索すればよいが、翻訳装置に用意されて いる用例は様々な対話場面で使用できるように短文で構成されるのが一般的である 。このように用例が短文で構成されるのは、用例が長文であると文意は具体的である 力 その利用場面が著しく限定されるからである。したがって、ユーザは相手に伝え たい内容を複数の用例を順次選択することによって表現しなければならない。
[0005] しかしながら、例えば特許文献 1などに記載された手法を利用して用例の選択時間 を短縮することは可能であっても、ある用例の選択時刻から次の用例の選択時刻ま での時間差を 0にすることは不可能である。よって、実際には次に示すように、誤解や 早合点による発話が増加して結果的に対話が完了するまでに要する時間が増加す るという問題がある。
[0006] 例えば、 日本語を話すユーザ Aと英語を話すユーザ Bとが対話をする場合、空港の 場所は既知であるユーザ A力 S「空港へ行く電車は何時発ですか?」とユーザ Bに伝え たいときに、関連する用例として
く用例 1 >「空港へ行きたレヽ。」"I want to go to the airport."
<用例 2 >「電車は何時に出ます力。 J "What time does the train leave?"
だけが翻訳装置に用意されているとすると、ユーザ Aは「空港へ行きたい。」を選択し てから「電車は何時に出ます力。」を選択する。この時、ユーザ Bは翻訳装置から出力 される用例 Ι want to go to the ai卬 ort."を聞いてから、ある時間が経過して次の用 2" What time does the train leave?"を聞くことになる。ここで、ユーザ Bが用例 1を 聞いた瞬間にユーザ Aが空港の場所を尋ねていると判断すると、ユーザ Bは自分の 翻訳装置で空港の場所を示す用例を検索してユーザ Aに伝える。しかし、ユーザ A にとつて空港の場所は既知であるため、ユーザ Aは用例 2の検索を中断して自分が 空港の場所を知っていることをユーザ Bに伝えるための用例を検索しなければならな レ、。すなわち、用例選択に力、かる時間が短縮されても、誤解や早合点による発話が 増加して結果的に対話が完了するまでに要する時間が増加する。
[0007] そこで、本発明は上記の事情に鑑みてなされたものであり、誤解や早合点による発 話を低減し、速やかに対話が完了するように対話を支援することができる対話支援装 置を提供することを目的とする。
課題を解決するための手段 [0008] 上記目的を達成するため、本発明に係る対話支援装置は、対話を支援する対話支 援装置であって、対話で使用される第 1用例および第 2用例を対応付けて保持する 用例データベースと、ユーザの発話を受け付ける発話受付手段と、前記発話受付手 段によって受け付けられた前記発話に基づいて前記用例データベースを検索するこ とによって第 1用例を選択し、選択した前記第 1用例に対応する第 2用例を出力する 用例選択手段と、前記発話と前記用例選択手段によって選択された前記第 1用例と の差分を計算し、計算した前記差分を示す差分情報を出力する発話差分計算手段 と、前記用例選択手段によって出力された前記第 2用例と前記発話差分計算手段に よって出力された前記差分情報とを相手ユーザの対話支援装置に送信する送信手 段とを備えることを特徴とする。
発明の効果
[0009] 本発明に係る対話支援装置によれば、差分情報によって対話の相手は自分の発 話が完全に終了するタイミングを知ることができる。したがって、発話の途中で割り込 むことが抑制され、対話支援装置を介した対話がスムーズに進行する。特に、親切や 好意で相手の発話に即答したために対話が混乱してしまい、対話終了後に双方が 不快な思いをするという現象が解消される。
図面の簡単な説明
[0010] [図 1]図 1は本発明に係る対話支援装置の一実施の形態の構成を示すブロック図で ある。
[図 2]図 2は用例データベースの一例を示す図である。
[図 3]図 3は用例選択部の動作を示すフローチャートである。
[図 4]図 4は用例選択部が類似度の計算に使用する動的計画法の一例を示す図で ある。
[図 5]図 5は本発明に係る対話支援装置が利用される場面の一例を示す図である。
[図 6]図 6 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。
[図 7]図 7 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。
[図 8]図 8 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。
[図 9]図 9 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。 園 10]図 10 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 11]図 11 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 12]図 12 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 13]図 13 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。
[図 14]図 14 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。 園 15]図 15 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 16]図 16は本発明に係る対話支援装置の他の実施の形態の構成を示すブロック 図である。
園 17]図 17は表現変換部の一例を示す図である。
園 18]図 18 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 19]図 19は本発明に係る対話支援装置の他の実施の形態の構成を示すブロック 図である。
園 20]図 20 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。
[図 21]図 21は用例データベースの一例を示す図である。
園 22]図 22 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 23]図 23 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 24]図 24 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。 園 25]図 25 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 26]図 26 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。 園 27]図 27 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 28]図 28 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。 園 29]図 29 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。 園 30]図 30 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。 園 31]図 31 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 32]図 32は表現変換部の一例を示す図である。
園 33]図 33 (a)、(b)は本発明に係る対話支援装置の表示例を示す図である。 園 34]図 34 (a)、 (b)は本発明に係る対話支援装置の表示例を示す図である。 園 35]図 35は本発明に係る対話支援装置の他の実施の形態の構成を示すブロック 図である。
園 36]図 36は本発明に係る対話支援装置の他の実施の形態の構成を示すブロック 図である。
符号の説明
101 用例データベース
102 発話受付部
103 用例選択部
104 送信部
105 発話差分計算部
106 受信部
107 発話出力部
501 ユーザ 1の PDA
502 ユーザ 2の PDA
503 発話入力ボタン
504 発話入力ボタン
505 発話情報 Uおよび部分発話情報 uの表示領域
506 発話情報 Uおよび部分発話情報 uの表示領域
507 予測候補 Eの表示領域
508 予測候補 Eの表示領域
509 対応する用例の表示領域
510 対応する用例の表示領域
511 差分情報の表示領域
512 差分情報の表示領域
513 発話受付部 102のマイク
514 発話受付部 102のマイク
701 受信状態における相手の用例の表示領域
702 受信状態における相手の用例の表示領域
801 発話情報 Uにおける uの部分を示す下線 1201 残差情報を表現する棒グラフ
1202 残差情報を表現する棒グラフ
1301 残差情報を表現する円グラフ
1302 残差情報を表現する円グラフ
1401 残差情報を表現するメタファ
1501 表現変換部
1701 言語表現に変換された残差情報
1801 フィラーデータベース
発明を実施するための最良の形態
[0012] 本発明の実施の形態に係る対話支援装置は、対話を支援する対話支援装置であ つて、対話で使用される第 1用例および第 2用例を対応付けて保持する用例データ ベースと、ユーザの発話を受け付ける発話受付手段と、前記発話受付手段によって 受け付けられた前記発話に基づいて前記用例データベースを検索することによって 第 1用例を選択し、選択した前記第 1用例に対応する第 2用例を出力する用例選択 手段と、前記発話と前記用例選択手段によって選択された前記第 1用例との差分を 計算し、計算した前記差分を示す差分情報を出力する発話差分計算手段と、前記 用例選択手段によって出力された前記第 2用例と前記発話差分計算手段によって出 力された前記差分情報とを相手ユーザの対話支援装置に送信する送信手段とを備 えることを特徴とする。
[0013] これによつて、言いたいこと (発話受付手段によって受け付けられた発話)のうちど の程度までが相手に対して発話された力を相手に通知することができ、誤解や早合 点による発話を低減し、速やかに対話が完了するように対話を支援することができる
[0014] また、前記用例選択手段は、さらに、選択した前記第 1用例と前記発話との差分に 基づいて、前記発話に対する次の第 1用例を選択してもよい。これによつて、相手に 発話された残りの部分についても、順次、相手に対して発話することができ、その時 点における差分情報を通知することができる。
[0015] また、前記用例選択手段は、前記発話と前記第 1用例との類似度合いを示す類似 度を、文字、単語、または読みの文字を単位として動的計画法を用いて計算してもよ レ、。
[0016] また、前記発話差分計算手段は、前記発話と前記用例選択手段によって選択され た前記第 1用例とを、文字、単語、または読みの文字によって比較して前記差分を計 算してもよい。
[0017] また、前記対話支援装置は、さらに、前記相手ユーザの対話支援装置から送信さ れる第 2用例と差分情報とを受信する受信手段と、前記受信手段によって受信された 前記第 2用例と前記差分情報とを出力する発話出力手段とを備えてもよい。これによ つて、相手の言いたいことのうちどの程度までが発話されたかを知ることができ、発話 に対して応答すべきであるか否かを客観的に判断することが可能になる。したがって 、誤解や早合点による発話を低減し、速やかに対話が完了するように対話を支援す ること力 Sできる。
[0018] また、前記発話出力手段は、前記受信手段によって受信された前記差分情報を数 字で表示してもよい。また、前記発話出力手段は、前記受信手段によって受信された 前記差分情報を図形で表示してもよい。これによつて、ユーザは差分情報を直感的 に把握することが可能になり、次の発話を待つストレスが軽減される。
[0019] また、前記発話出力手段は、前記受信手段によって受信された前記差分情報を定 性的な言語表現に変換し、変換した前記言語表現を出力してもよい。また、前記発 話出力手段は、前記受信手段によって受信された前記差分情報に基づいてフィラー に相当する言語表現をランダムに生成し、生成した前記言語表現を出力してもよい。 これによつて、次の発話を待つユーザのストレスを軽減することが可能になる。
[0020] また、前記対話支援装置は、さらに、前記用例選択手段によって選択された前記第 1用例の候補を前記ユーザに通知する候補通知手段と、前記第 1用例の候補の中か ら 1つの第 1用例の選択指示を前記ユーザから受け付ける選択指示受付手段とを備 え、前記用例選択手段は、前記発話に基づいて前記用例データベースを検索する ことによって前記第 1用例の候補を選択するとともに、前記選択指示受付手段によつ て受け付けられた前記選択指示により前記第 1用例を選択してもよい。
[0021] また、前記発話受付手段は、前記用例データベースが保持する前記第 1用例から 構築された言語モデルを用いた連続音声認識処理で前記発話を受け付ける、また は、前記用例データベースが保持する前記第 1用例を構成する単語に入力を限定さ れたキーボードから前記発話を受け付けてもよい。
[0022] また、本発明の実施の形態に係る対話支援システムは、第 1対話支援装置および 第 2対話支援装置を用いて対話を支援する対話支援システムであって、前記第 1対 話支援装置は、対話で使用される第 1用例および第 2用例を対応付けて保持する用 例データベースと、ユーザの発話を受け付ける発話受付手段と、前記発話受付手段 によって受け付けられた前記発話に基づいて前記用例データベースを検索すること によって第 1用例を選択し、選択した前記第 1用例に対応する第 2用例を出力する用 例選択手段と、前記発話と前記用例選択手段によって選択された前記第 1用例との 差分を計算し、計算した前記差分を示す差分情報を出力する発話差分計算手段と、 前記用例選択手段によって出力された前記第 2用例と前記発話差分計算手段によ つて出力された前記差分情報とを前記第 2対話支援装置に送信する送信手段とを備 え、前記第 2対話支援装置は、前記第 1対話支援装置から送信される前記第 2用例 と前記差分情報とを受信する受信手段と、前記受信手段によって受信された前記第 2用例と前記差分情報とを出力する発話出力手段とを備えることを特徴とする。
[0023] また、本発明の実施の形態に係る対話支援システムは、サーバと接続される第 1対 話支援装置および第 2対話支援装置を用いて対話を支援する対話支援システムで あって、前記第 1対話支援装置は、ユーザの発話を受け付ける発話受付手段と、前 記発話受付手段によって受け付けられた前記発話を前記サーバに送信する送信手 段とを備え、前記サーバは、対話で使用される第 1用例および第 2用例を対応付けて 保持する用例データベースと、前記第 1対話支援装置から送信された前記発話に基 づいて前記用例データベースを検索することによって第 1用例を選択し、選択した前 記第 1用例に対応する第 2用例を出力する用例選択手段と、前記発話と前記用例選 択手段によって選択された前記第 1用例との差分を計算し、計算した前記差分を示 す差分情報を出力する発話差分計算手段と、前記用例選択手段によって出力され た前記第 2用例と前記発話差分計算手段によって出力された前記差分情報とを前記 第 2対話支援装置に送信する送信手段とを備え、前記第 2対話支援装置は、前記サ ーバから送信される前記第 2用例と前記差分情報とを受信する受信手段と、前記受 信手段によって受信された前記第 2用例と前記差分情報とを出力する発話出力手段 とを備えることを特 ί数とする。
[0024] なお、本発明は、このような対話支援装置として実現することができるだけでなぐこ のような対話支援装置が備える特徴的な手段をステップとする対話支援方法として実 現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりす ることもできる。そして、そのようなプログラムは、 CD— ROM等の記録媒体やインタ 一ネット等の伝送媒体を介して配信することができるのは言うまでもない。
[0025] 以下、本発明の実施の形態について、図面を参照しながら説明する。
[0026] 図 1は本発明に係る対話支援装置の一実施の形態の構成を示すブロック図である
[0027] 対話支援装置は、人と人との対話を支援するための装置であり、図 1に示すように 用例データベース 101、発話受付部 102、用例選択部 103、発話差分計算部 105、 送信部 104、受信部 106、および発話出力部 107を備えている。
[0028] ここで、発話受付部 102は発話受付手段に、用例選択部 103は用例選択手段、候 補通知手段および選択指示受付手段に、発話差分計算部 105は発話差分計算手 段に、送信部 104は送信手段に、受信部 106は受信手段に、発話出力部 107は発 話出力手段に、それぞれ相当する。
[0029] 用例データベース 101は、対話で使用される用例を保持している。発話受付部 10 2は、ユーザの発話を受け付け、発話情報として出力する。用例選択部 103は、発話 情報に最も近い用例データベース 101に含まれる用例を順次選択し、その用例に対 応する用例を出力する。発話差分計算部 105は、発話情報と用例選択部 103によつ て選択された用例との差分を計算して差分情報を出力する。送信部 104は、用例選 択部 103から出力される用例と差分情報を相手ユーザの対話支援装置に送信する。 受信部 106は、相手ユーザの対話支援装置から出力される用例と差分情報とを受信 する。発話出力部 107は、受信部 106で受信された差分情報と用例とを出力する。 なお、ユーザの送信部 104と相手ユーザの受信部 106、あるいは、相手ユーザの送 信部 104とユーザの受信部 106は、用例と差分情報を直接送受信してもよいし、サ ーバを介して間接的に送受信してもよい。
[0030] 次に、上記のように構成された対話支援装置で異言語の対話を支援する場合の構 成について、さらに説明する。ユーザの母国語は日本語、相手ユーザの母国語は英 語であると仮定する。
[0031] 図 2は用例データベース 101が保持する用例の一例を示す図である。第 1用例に 相当する言語 1は自分の母国語、第 2用例に相当する言語 2は相手の母国語であり 、言語 1と言語 2の用例は対訳関係である。例えば、用例選択部 103によって言語 1 の発話 No. 16の用例「空港へ行きたい」が選択されると対応する用例として言語 2の 1 want to go to the airport. 出力 れ 。
[0032] 発話受付部 102は、ユーザの発話を連続音声認識処理またはキーボードによって 文字情報として取得し、発話情報として出力する。ここで、発話情報はユーザの発話 に相当する文字列である。発話受付部 102がユーザの発話を連続音声認識処理に よって受け付ける場合は、言語モデルを用例データベース 101が保持する用例から 構築することで、音声認識精度を向上させることが可能である。また、発話受付部 10 2がユーザの発話をキーボードから受け付ける場合は、用例データベース 101が保 持する言語 1の用例を構成する単語に入力を限定することで、効率的に文字入力す ることが可能になる。
[0033] 図 3は用例選択部 103の動作の流れを示すフローチャートである。用例選択部 10 3は図 3のフローチャートに従って発話情報に最も近い用例を順次出力する。
[0034] まず、用例選択部 103は、発話受付部 102から入力された発話に相当する発話情 報を全発話情報 Uにセットする (ステップ S301)。次に、部分発話情報 uに Uをセット し、変換済発話情報 Vをクリアする。また、送信部 104を通じて相手ユーザの対話支 援装置のモードを受信状態に変更する (ステップ S302)。用例選択部 103は、部分 発話情報 uと用例データベース 101の言語 1のすベての用例との類似度を計算する( ステップ S303)。ここで、用例選択部 103は、類似度として例えば図 4に示す動的計 画法を用いて部分発話情報 uと各用例との距離を計算する。この場合、距離の値が 小さいほど類似度は高レ、。図 4の動的計画法において、文の構成単位は文字または 単語または読みの文字などのいずれカ あるいは、その組み合わせである。例えば、 構成単位が単語で α = 1の場合、文 1 = {空港、へ、行く }と文 2= {空港、まで、行く } の類似度は a [3] [3] = 1として計算される。
[0035] 次に、用例選択部 103は、言語 1のすベての用例の中で類似度が閾値 以下の 用例を選択して用例候補 Eにセットする (ステップ S304)。なお、閾値 /3は用例デー タベース 101が保持する用例の数と、その中で表現として類似する用例の数を考慮 して決定する。そして、用例選択部 103は、用例候補 Eが空であるか否力、を判定する (ステップ S305)。この結果、用例候補 Eが空でなければ(ステップ S305で No)、部 分発話情報 uと用例候補 Eをユーザに提示し、所望の用例を選択させる (ステップ S3 06)。そして、ユーザによって用例 eが選択されると、送信部 104へその対訳用例を 出力する (ステップ S307)。次に、用例選択部 103は、部分発話情報 uと変換済発話 情報 Vの内容を V— v + uおよび u— U_vとして更新し、発話差分計算部 105へ出力 する(ステップ S308)。そして、部分発話情報 uが空であるか否かを判定 (ステップ S3 10)し、部分発話情報 uが空であれば (ステップ S310で Yes)終了し、空でなければ( ステップ S310で No)類似度計算処理 (ステップ S303)に戻る。
[0036] 一方、上記判定処理 (ステップ S305)で用例候補 Eが空である場合 (ステップ S305 で No)、部分発話情報 uに最も近い用例を用例データベース 101の中から選択する ために、部分発話情報 uを最後尾から縮退させる(ステップ S309)。ここで、縮退の単 位は、文字、単語、または文節のいずれかである。例えば u= "空港へ行く電車は何 時発ですカノ'の場合、部分発話情報 uを文節の単位で縮退するのであれば、部分発 話情報 11は{空港へ、行ぐ電車は、何時発ですか }なので、 u= "空港へ行く電車は" となる。次に、再び、類似度計算処理 (ステップ S303)に戻り、用例データベース 10 1の言語 1の各用例との類似度の計算を繰り返す。
[0037] 発話差分計算部 105は、全発話情報 Uと変換済発話情報 Vに基づき、差分情報(
U_v) ZUを計算して送信部 104へ出力する。差分情報は、例えば全発話情報 Uと 変換済発話情報 Vの文字数、単語数、または読みの文字数で計算する。全発話情報 U = "空港へ行く電車は何時発ですか"、変換済発話情報 v= "空港へ行ぐ'である場 合に文字数で差分情報を計算すると(14_ 5) /14 0. 64となる。
[0038] 送信部 104は、用例選択部 103から順次出力される用例データベース 101の言語 2の用例に、発話差分計算部 105から出力される差分情報を重畳して相手の対話支 援装置に送信する。送信された情報は相手の対話支援装置の受信部 106で受信さ れ、発話出力部 107を通じて相手に出力される。発話出力部 107は、例えば LCDな どの表示デバイスまたは音声合成処理で構成する。
[0039] 以下、上記のように構成された対話支援装置で異言語の対話を支援する場合の動 作について説明する。ここでは、図 5に示すように観光客で母国語が日本語であるュ 一ザ (ユーザ 1)力 ホテルのフロントのスタッフで英語が母国語である相手ユーザ (ュ 一ザ 2)と対話を行う場合を例として説明する。
[0040] 図 6 (a)、 (b)は対話支援装置を実装した PDAを示す図である。図 6 (a)に示す PD A501はユーザ 1が使用し、図 6 (b)に示す PDA502はユーザ 2が使用する。各ユー ザは発話入力ボタン 503、 504を押して音声で発話を入力する。発話が入力されると 、発話受付部 102によって受け付けられた発話が発話情報として表示領域 505、 50 6に表示され、用例選択部 103によって用例の候補 Eが表示領域 507、 508に表示 される。用例の候補から所望の用例 eが選択されると、その対訳用例が表示領域 509 、 510に表示され、相手の対話支援装置に送信される。表示領域 511および 512に は差分情報が表示される。マイク 513と 514は発話受付部 102へユーザの音声を入 力するマイクである。
[0041] 例えば図 7 (a)に示すように、ユーザ 1が発話入力ボタン 503を押して「空港へ行く 電車は何時発ですか」という発話を入力した場合、発話受付部 102の音声認識処理 によって発話情報「空港へ行く電車は何時発です力」に変換され、図 8 (a)に示すよう に表示領域 505に表示される。発話情報は用例選択部 103に入力され、ステップ 30 1におレ、て全発話情報 U = "空港へ行く電車は何時発ですか"、ステップ 302におレヽ て部分発話情報 u = "空港へ行く電車は何時発ですか"、変換済発話情報 v = ""とな り、相手ユーザの PDA502のモードを、送信部 104を通じて受信状態に変更する。 受信状態では表示領域 701に相手ユーザの対話支援装置で最近選択された用例 の対訳用例が表示され、表示領域 702には相手ユーザの対話支援装置で選択され たすベての用例の対訳用例が順次表示される。なお、 PDA502の受信状態は発話 入力ボタン 504を押して発話の入力を開始すると解除されて図 6の状態に戻る。 [0042] 次に、用例選択部 103は、ステップ 303、ステップ 304、ステップ 305、ステップ 309 で部分発話情報 uを縮退させながらすべての用例との類似度を計算し、最終的に部 分発話情報 u= "空港へ行ぐに対して用例候補 E= {空港へ行きたい、空港へ行く 方法を教えて下さい }を得る。ステップ 306において、部分発話情報 uの値は表示領 域 505の表示に反映され、図 9 (a)に示すように下線 801でユーザ 1に対して示され る。また、用例選択部 103は、用例候補 Eを表示領域 507に表示する。図 10 (a)に示 すようにユーザ 1が所望の用例 eとして「空港へ行きたレ、」を選択すると、ステップ 307 においてその対訳用例 "I want to go to the ak ort."が送信部 104に出力される。ス テツプ 308において v = "空港へ行く"、 u = U_v、すなわち、部分発話情報 u = "電 車は何時発ですカ 'に更新される。これらの情報は発話差分計算部 105に出力され 、発話差分計算部 105は (U _v) ZU= (14 _ 5) Zl4^ 0. 64の差分情報を得る。 得られた差分情報は表示領域 511に表示され、送信部 104からは対訳用例 "I want to go to the ai卬 ort."と差分情報「0· 64」が PDA502に送信される。 PDA502の受 信部 106で受信されたこれらの情報は、図 10 (b)に示すように発話出力部 107によ つて表示領域 701、 702に表示される。また、発話出力部 107は、音声合成処理によ つて "I want to go to the ai卬 ort."に相当する音声情報を PDA502から出力する。こ こで、差分情報は表示領域 512に表示されるので、ユーザ 2はユーザ 1の言いたいこ とがなお 64%残っていることを知ることができる。したがって、ユーザ 2はユーザ 1の 発話がまだ半分以上伝わっていないことから、 "I want to go to the ai卬 ort."だけを聞 レ、てすぐに応答するよりも残りの発話を待つべきであると客観的に判断することが可 能になり、不要な発話が抑制される。
[0043] 次に、ステップ 310において、部分発話情報 u= "電車は何時発ですカ 'であるの で、ステップ 303に戻り、同様にステップ 305で用例候補 E= {電車は何時に出発し ますか、電車は何時に到着します力 \電車は何で遅れていますか }が得られると、図 11 (a)に示すようにステップ 306で表示領域 505、 507に対してそれぞれ部分発話 情報 uと用例候補 Eが表示される。図 12 (a)に示すように、同様にユーザ 1が所望の 用例「電車は何時に出発しますか」を選択すると、図 12 (b)に示すように、その対訳 用例" What time does the train leave?"が PDA502から出力される。ステップ 308に おいて変換済発話情報 v= "空港へ行く電車は何時発ですか"、部分発話情報 u =" "に更新される。これらの情報は発話差分計算部 105に出力され、発話差分計算部 1 05は(U—v) /U= (14—14) /14 = 0の差分情報を得る。得られた差分情報は表 示領域 511に表示され、同様に表示領域 512にも表示される。ユーザ 2はユーザ 1の 言レヽたレ、ことが表示領域 702にすベて含まれてレ、ることを知ること力できる。したがつ て、表示領域 702に対して応答すべきであることを客観的に判断することが可能にな り、必要かつ十分な発話で相手に応答することか可能になる。
[0044] なお、上記では差分情報を数値で表現する例を示したが、例えば図 13 (a)、 (b)に 示すような棒グラフ 1201、 1202、または図 14 (a)、(b)に示す円グラフ 1301、 1302 などの図形で差分情報を表現してもよい。または、差分情報を制御パラメータとして 差分情報を表現するメタファを制御してもよい。例えば図 15 (b)に示すような回転す る砂時計 1401の回転速度を差分情報に比例させることも可能である。このように差 分情報を図形やメタファで表現することによって、ユーザは差分情報を直感的に把握 することが可能になり、次の発話を待つストレスが軽減される。
[0045] また、図 16に示すように図 1に示す対話支援装置の構成に加えて表現変換部 150 1を備え、差分情報を言語表現でユーザに伝えてもよい。表現変換部 1501は、例え ば図 17のような差分情報から言語表現への変換規則で構成する。図 10の状態で差 分情報が 0. 64のとき、図 16の構成では差分情報は表現変換部 1501の変換規則 N o. 2によって" Wait for a mi皿 te."に変換され、図 18 (b)に示すように定性的な言語 表現 1701で相手ユーザに伝えられる。このように差分情報を適切な言語で表現する ことによって、ユーザは次の発話を待つストレスが軽減される。
[0046] また、図 19に示すように図 1に示す対話支援装置の構成に加えてフィラーデータべ ース 1801を備えてもよい。この場合、発話出力部 107は、相手の対話支援装置から 送信された差分情報が 0でないときに、この差分情報を制御パラメータとして、相手の 対話支援装置から次の用例が届くまでの間に、フィラーデータベース 1801の中の「 え一つと」「そうですね」" And please wait,"などのフィラーに相当する文を規則的に、 あるいは、ランダムに生成させてもよレ、。図 19の構成では、図 11の状態のときに図 2 0 (b)に示すようにフィラーの音声が PDA502からランダムに再生される。このように 次の発話が届くまでの空白の時間を適切なフィラーで聴覚的に坦めることによって、 次の発話を待つユーザのストレスを軽減することが可能になる。このとき、図 20に示 す表示領域 512への差分情報の表示は、行っても行わなくてもどちらでも構わない。
[0047] ここまでは、対話支援装置にぉレ、て、ユーザが日本語を話し、相手ユーザが英語を 話すと仮定した場合について説明したが、以下では、ユーザが中国語を話し、相手 ユーザが英語を話すと仮定した場合について説明する。ここでは、上記同様に図 5に 示すように観光客で母国語が中国語であるユーザ (ユーザ 1)が、ホテルのフロントの スタッフで母国語が英語である相手ユーザ (ユーザ 2)と対話を行う場合を例として説 明する。なお、上記と同様の構成については説明を省略する。
[0048] 図 21は用例データベース 101が保持する用例の一例を示す図である。第 1用例に 相当する言語 1は中国語、第 2用例に相当する言語 2は英語であり、言語 1と言語 2 の用例は対訳関係である。例えば、用例選択部 103によって言語 1の発話 No. 16の 用例
「想去机场」 が選択されると対応する用例として言語 2の "I want to go to the ai卬 ort."が出力され る。
[0049] 図 22 (a)、 (b)は対話支援装置を実装した PDAを示す図である。図 22 (a)に示す PDA501はユーザ 1が使用し、図 22 (b)に示す PDA502はユーザ 2が使用する。各 ユーザは発話入力ボタン 503、 504を押して音声で発話を入力する。発話が入力さ れると、発話受付部 102によって受け付けられた発話が発話情報として表示領域 50 5、 506に表示され、用例選択部 103によって用例の候補 Eが表示領域 507、 508に 表示される。用例の候補から所望の用例 eが選択されると、その対訳用例が表示領 域 509、 510に表示され、相手の対話支援装置に送信される。表示領域 511および 512には差分情報が表示される。マイク 513と 514は発話受付部 102へユーザの音 声を入力するマイクである。
[0050] 例えば図 23 (a)に示すように、ユーザ 1が発話入力ボタン 503を押して
「去机场的电车的出发时间是几点」 という発話を入力した場合、発話受付部 102の音声認識処理によって発話情報
「去机场的电车的出发时间是几点」 に変換され、図 24 (a)に示すように表示領域 505に表示される。発話情報は用例選 択部 103に入力され、ステップ 301において全発話情報 U =
"去机场的电车的出发时间是几点"
、ステップ 302において部分発話情報 u = "去机场的电车的出发时阆是几点"
、変換済発話情報 v= ""となり、相手ユーザの PDA502のモードを、送信部 104を通 じて受信状態に変更する。受信状態では表示領域 701に相手ユーザの対話支援装 置で最近選択された用例の対訳用例が表示され、表示領域 702には相手ユーザの 対話支援装置で選択されたすベての用例の対訳用例が順次表示される。なお、 PD A502の受信状態は発話入力ボタン 504を押して発話の入力を開始すると解除され て図 22の状態に戻る。
次に、用例選択部 103は、ステップ 303、ステップ 304、ステップ 305、ステップ 309 で部分発話情報 uを縮退させながらすべての用例との類似度を計算し、最終的に部 分発話情報 u=
"去机场的" に対して用例候補 E =
{想去机场、 请教我一下去机场怎么走 } を得る。ステップ 306において、部分発話情報 uの値は表示領域 505の表示に反映 され、図 25 (a)に示すように下線 801でユーザ 1に対して示される。また、用例選択 部 103は、用例候補 Eを表示領域 507に表示する。図 26 (a)に示すようにユーザ 1が 所望の用例 eとして
「想去机场」 を選択すると、ステップ 307においてその対訳用例 "I want to go to the ai卬 ort."が 送信部 104に出力される。ステップ 308において v=
"去机场的"
、 u=U— v、すなわち、部分発話情報 u=
" 电车的出发时间是几点 " に更新される。これらの情報は発話差分計算部 105に出力され、発話差分計算部 1 05は、文字数で差分情報を計算すると (U_v) /U= (14 _4) /14 ^ 0. 71の差 分情報を得る。得られた差分情報は表示領域 511に表示され、送信部 104からは対 訳用例" I want to go to the ai卬 ort."と差分情報「0. 71」力 SPDA502に送信される。
PDA502の受信部 106で受信されたこれらの情報は、図 26 (b)に示すように発話出 力部 107によって表示領域 701、 702に表示される。また、発話出力部 107は、音声 合成処理によって" I want to go to the ak ort."に相当する音声情報を PDA502力、 ら出力する。ここで、差分情報は表示領域 512に表示されるので、ユーザ 2はユーザ 1の言いたいことがなお 71 %残っていることを知ることができる。したがって、ユーザ 2 はユーザ 1の発話がまだ半分以上伝わっていないことから、 "I want to go to the airp ort."だけを聞いてすぐに応答するよりも残りの発話を待つべきであると客観的に判断 することが可能になり、不要な発話が抑制される。
次に、ステップ 310において、部分発話情報 u=
" 电车的出发时间是几点 " であるので、ステップ 303に戻り、同様にステップ 305で用例候補 E = {电车几点钟出发?、 电车几点钟到达?、 电车为什么点? } 力 S得られると、図 27 (a)に示すようにステップ 306で表示領域 505、 507に対してそ れぞれ部分発話情報 uと用例候補 Eが表示される。図 28 (a)に示すように、同様にュ 一ザ 1が所望の用例
「电车几点钟出发?」 を選択すると、図 28 (b)に示すように、その対訳用例" What time does the train leave ?"が PDA502から出力される。ステップ 308において変換済発話情報 v=
" 去机场的电车的出发时间是几点 "
、部分発話情報 u= ""に更新される。これらの情報は発話差分計算部 105に出力さ れ、発話差分計算部105は(1;ー^ /1;= (14 14) /14 = 0の差分情報を得る。 得られた差分情報は表示領域 511に表示され、同様に表示領域 512にも表示される 。ユーザ 2はユーザ 1の言レヽたレ、ことが表示領域 702にすベて含まれてレ、ることを知 ること力 Sできる。したがって、表示領域 702に対して応答すべきであることを客観的に 判断することが可能になり、必要かつ十分な発話で相手に応答することか可能になる
[0053] なお、上記では差分情報を数値で表現する例を示したが、例えば図 29 (a)、 (b)に 示すような棒グラフ 1201、 1202、または図 30 (a)、(b)に示す円グラフ 1301、 1302 などの図形で差分情報を表現してもよい。または、差分情報を制御パラメータとして 差分情報を表現するメタファを制御してもよい。例えば図 31 (b)に示すような回転す る砂時計 1401の回転速度を差分情報に比例させることも可能である。このように差 分情報を図形やメタファで表現することによって、ユーザは差分情報を直感的に把握 することが可能になり、次の発話を待つストレスが軽減される。
[0054] また、図 16に示すように図 1に示す対話支援装置の構成に加えて表現変換部 150 1を備え、差分情報を言語表現でユーザに伝えてもよい。表現変換部 1501は、例え ば図 32のような差分情報から言語表現への変換規則で構成する。図 26の状態で差 分情報が 0. 71のとき、図 16の構成では差分情報は表現変換部 1501の変換規則 N o. 2によって" Wait for a mi皿 te."に変換され、図 33 (b)に示すように定性的な言語 表現 1701で相手ユーザに伝えられる。このように差分情報を適切な言語で表現する ことによって、ユーザは次の発話を待つストレスが軽減される。
[0055] また、図 19に示すように図 1に示す対話支援装置の構成に加えてフィラーデータべ ース 1801を備えてもよい。この場合、発話出力部 107は、相手の対話支援装置から 送信された差分情報が 0でないときに、この差分情報を制御パラメータとして、相手の 対話支援装置から次の用例が届くまでの間に、フィラーデータベース 1801の中の 「那个」、 「就是」
、 "And please wait,"などのフィラーに相当する文を規則的に、あるいは、ランダムに 生成させてもよい。図 19の構成では、図 27の状態のときに図 34 (b)に示すようにフィ ラーの音声が PDA502からランダムに再生される。このように次の発話が届くまでの 空白の時間を適切なフィラーで聴覚的に埋めることによって、次の発話を待つユーザ のストレスを軽減することが可能になる。このとき、図 34に示す表示領域 512への差 分情報の表示は、行っても行わなくてもどちらでも構わない。
[0056] また、図 35に示すように用例データベース 101と発話受付部 102と用例選択部 10 3と送信部 104と発話差分計算部 105とによって構成される送信側と、受信部 106と 発話出力部 107によって構成される受信側を独立した構成にしてもよい。
[0057] また、図 36に示すように対話支援装置が発話受付部 102と送信部 104と受信部 10 6と発話出力部 107とを備え、インターネット等のネットワーク 2210を介して対話支援 装置と接続されるサーバが用例データベース 101と用例選択部 104と発話差分計算 部 105とを備えるシステムとして構成することも可能である。この場合、送信部 104が 発話情報をサーバに送信し、サーバの受信部 2201が受信する。そして、サーバの 送信部 2202が、サーバが発話情報に基づいて特定した用例と差分情報とを相手ュ 一ザの対話支援装置の受信部 106に送信することになる。なお、サーバが発話情報 に基づいて特定した用例と差分情報とを一旦ユーザの対話支援装置に送信した後、 ユーザの対話支援装置から相手ユーザの対話支援装置に送信しても構わない。
[0058] また、本実施の形態では、一例として日本語と英語の場合と、中国語と英語の場合 とを取り上げたが、仏語など他の言語についても同様に実施可能であり、本発明は 言語に依存しない。
産業上の利用可能性
[0059] 本発明に係る対話支援装置は、対話参加者の発話を速やかに完了させる機能を 有し、携帯電話や携帯端末等の翻訳アプリケーションソフトウェア等として有用である 。また公共の街頭端末や案内端末等の用途にも応用できる。さらに、同言語の対話

Claims

請求の範囲
[1] 対話を支援する対話支援装置であって、
対話で使用される第 1用例および第 2用例を対応付けて保持する用例データべ一 スと、
ユーザの発話を受け付ける発話受付手段と、
前記発話受付手段によって受け付けられた前記発話に基づいて前記用例データ ベースを検索することによって第 1用例を選択し、選択した前記第 1用例に対応する 第 2用例を出力する用例選択手段と、
前記発話と前記用例選択手段によって選択された前記第 1用例との差分を計算し 、計算した前記差分を示す差分情報を出力する発話差分計算手段と、
前記用例選択手段によって出力された前記第 2用例と前記発話差分計算手段によ つて出力された前記差分情報とを相手ユーザの対話支援装置に送信する送信手段 と
を備えることを特徴とする対話支援装置。
[2] 前記用例選択手段は、さらに、選択した前記第 1用例と前記発話との差分に基づ いて、前記発話に対する次の第 1用例を選択する
ことを特徴とする請求項 1記載の対話支援装置。
[3] 前記用例選択手段は、前記発話と前記第 1用例との類似度合いを示す類似度を、 文字、単語、または読みの文字を単位として動的計画法を用いて計算する
ことを特徴とする請求項 1記載の対話支援装置。
[4] 前記発話差分計算手段は、前記発話と前記用例選択手段によって選択された前 記第 1用例とを、文字、単語、または読みの文字によって比較して前記差分を計算す る
ことを特徴とする請求項 1記載の対話支援装置。
[5] 前記対話支援装置は、さらに、
前記相手ユーザの対話支援装置力 送信される第 2用例と差分情報とを受信する 受信手段と、
前記受信手段によって受信された前記第 2用例と前記差分情報とを出力する発話 出力手段とを備える
ことを特徴とする請求項 1記載の対話支援装置。
[6] 前記発話出力手段は、前記受信手段によって受信された前記差分情報を数字で 表示する
ことを特徴とする請求項 5記載の対話支援装置。
[7] 前記発話出力手段は、前記受信手段によって受信された前記差分情報を図形で 表示する
ことを特徴とする請求項 5記載の対話支援装置。
[8] 前記発話出力手段は、前記受信手段によって受信された前記差分情報を定性的 な言語表現に変換し、変換した前記言語表現を出力する
ことを特徴とする請求項 5記載の対話支援装置。
[9] 前記発話出力手段は、前記受信手段によって受信された前記差分情報に基づい てフイラ一に相当する言語表現を生成し、生成した前記言語表現を出力する ことを特徴とする請求項 5記載の対話支援装置。
[10] 前記対話支援装置は、さらに、
前記用例選択手段によって選択された前記第 1用例の候補を前記ユーザに通知 する候補通知手段と、
前記第 1用例の候補の中から 1つの第 1用例の選択指示を前記ユーザから受け付 ける選択指示受付手段とを備え、
前記用例選択手段は、前記発話に基づいて前記用例データベースを検索すること によって前記第 1用例の候補を選択するとともに、前記選択指示受付手段によって 受け付けられた前記選択指示により前記第 1用例を選択する
ことを特徴とする請求項 1記載の対話支援装置。
[11] 前記発話受付手段は、前記用例データベースが保持する前記第 1用例から構築さ れた言語モデルを用いた連続音声認識処理で前記発話を受け付ける、または、前 記用例データベースが保持する前記第 1用例を構成する単語に入力を限定されたキ 一ボードから前記発話を受け付ける
ことを特徴とする請求項 1記載の対話支援装置。
[12] 第 1対話支援装置および第 2対話支援装置を用いて対話を支援する対話支援シス テムであって、
前記第 1対話支援装置は、
対話で使用される第 1用例および第 2用例を対応付けて保持する用例データべ一 スと、
ユーザの発話を受け付ける発話受付手段と、
前記発話受付手段によって受け付けられた前記発話に基づいて前記用例データ ベースを検索することによって第 1用例を選択し、選択した前記第 1用例に対応する 第 2用例を出力する用例選択手段と、
前記発話と前記用例選択手段によって選択された前記第 1用例との差分を計算し 、計算した前記差分を示す差分情報を出力する発話差分計算手段と、
前記用例選択手段によって出力された前記第 2用例と前記発話差分計算手段によ つて出力された前記差分情報とを前記第 2対話支援装置に送信する送信手段とを備 え、
前記第 2対話支援装置は、
前記第 1対話支援装置から送信される前記第 2用例と前記差分情報とを受信する 受信手段と、
前記受信手段によって受信された前記第 2用例と前記差分情報とを出力する発話 出力手段と
を備えることを特徴とする対話支援システム。
[13] サーバと接続される第 1対話支援装置および第 2対話支援装置を用いて対話を支 援する対話支援システムであって、
前記第 1対話支援装置は、
ユーザの発話を受け付ける発話受付手段と、
前記発話受付手段によって受け付けられた前記発話を前記サーバに送信する送 信手段とを備え、
前記サーバは、
対話で使用される第 1用例および第 2用例を対応付けて保持する用例データべ一 スと、
前記第 1対話支援装置から送信された前記発話に基づいて前記用例データべ一 スを検索することによって第 1用例を選択し、選択した前記第 1用例に対応する第 2 用例を出力する用例選択手段と、
前記発話と前記用例選択手段によって選択された前記第 1用例との差分を計算し 、計算した前記差分を示す差分情報を出力する発話差分計算手段と、
前記用例選択手段によって出力された前記第 2用例と前記発話差分計算手段によ つて出力された前記差分情報とを前記第 2対話支援装置に送信する送信手段とを備 前記第 2対話支援装置は、
前記サーバから送信される前記第 2用例と前記差分情報とを受信する受信手段と、 前記受信手段によって受信された前記第 2用例と前記差分情報とを出力する発話 出力手段と
を備えることを特徴とする対話支援システム。
[14] 対話を支援する対話支援方法であって、
ユーザの発話を受け付ける発話受付ステップと、
前記発話受付ステップにおいて受け付けられた前記発話に基づいて、対話で使用 される第 1用例および第 2用例を対応付けて保持する用例データベースを検索する ことによって第 1用例を選択し、選択した前記第 1用例に対応する第 2用例を出力す る用例選択ステップと、
前記発話と前記用例選択ステップにおいて選択された前記第 1用例との差分を計 算し、計算した前記差分を示す差分情報を出力する発話差分計算ステップと、 前記用例選択ステップにおいて出力された前記第 2用例と前記発話差分計算ステ ップにおいて出力された前記差分情報とを相手ユーザの対話支援装置に送信する 送信ステップと
を含むことを特徴とする対話支援方法。
[15] 対話を支援するためのプログラムであって、
ユーザの発話を受け付ける発話受付ステップと、 前記発話受付ステップにおいて受け付けられた前記発話に基づいて、対話で使用 される第 1用例および第 2用例を対応付けて保持する用例データベースを検索する ことによって第 1用例を選択し、選択した前記第 1用例に対応する第 2用例を出力す る用例選択ステップと、
前記発話と前記用例選択ステップにおいて選択された前記第 1用例との差分を計 算し、計算した前記差分を示す差分情報を出力する発話差分計算ステップと、 前記用例選択ステップにおいて出力された前記第 2用例と前記発話差分計算ステ ップにおいて出力された前記差分情報とを相手ユーザの対話支援装置に送信する 送信ステップとをコンピュータに実行させる
ことを特徴とするプログラム。
PCT/JP2006/311786 2005-07-06 2006-06-13 対話支援装置 WO2007004391A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2006800011442A CN101052964B (zh) 2005-07-06 2006-06-13 对话支援装置
JP2006538189A JP3984642B2 (ja) 2005-07-06 2006-06-13 対話支援装置
US11/785,368 US7562006B2 (en) 2005-07-06 2007-04-17 Dialog supporting device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005197923 2005-07-06
JP2005-197923 2005-07-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/785,368 Continuation US7562006B2 (en) 2005-07-06 2007-04-17 Dialog supporting device

Publications (1)

Publication Number Publication Date
WO2007004391A1 true WO2007004391A1 (ja) 2007-01-11

Family

ID=37604266

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/311786 WO2007004391A1 (ja) 2005-07-06 2006-06-13 対話支援装置

Country Status (4)

Country Link
US (1) US7562006B2 (ja)
JP (1) JP3984642B2 (ja)
CN (1) CN101052964B (ja)
WO (1) WO2007004391A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120239377A1 (en) * 2008-12-31 2012-09-20 Scott Charles C Interpretor phone service
KR101870729B1 (ko) * 2011-09-01 2018-07-20 삼성전자주식회사 휴대용 단말기의 번역 트리구조를 이용한 번역장치 및 방법
US9792901B1 (en) * 2014-12-11 2017-10-17 Amazon Technologies, Inc. Multiple-source speech dialog input
CN108650419A (zh) * 2018-05-09 2018-10-12 深圳市知远科技有限公司 基于智能手机的电话翻译系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242642A (ja) * 1999-02-18 2000-09-08 Sony Corp 翻訳処理方法及び翻訳処理装置
JP2003288339A (ja) * 2001-01-24 2003-10-10 Matsushita Electric Ind Co Ltd 音声変換装置、音声変換方法、プログラム、及び媒体
JP2005107597A (ja) * 2003-09-26 2005-04-21 Nec Corp 類似文検索装置、類似文検索方法、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6535842B1 (en) * 1998-12-10 2003-03-18 Global Information Research And Technologies, Llc Automatic bilingual translation memory system
JP3695191B2 (ja) * 1998-12-25 2005-09-14 日本電気株式会社 翻訳支援装置及びその方法並びにコンピュータ可読記録媒体
JP3822990B2 (ja) * 1999-01-07 2006-09-20 株式会社日立製作所 翻訳装置、記録媒体
US6438524B1 (en) * 1999-11-23 2002-08-20 Qualcomm, Incorporated Method and apparatus for a voice controlled foreign language translation device
US7050979B2 (en) * 2001-01-24 2006-05-23 Matsushita Electric Industrial Co., Ltd. Apparatus and method for converting a spoken language to a second language
JP2003030187A (ja) 2001-07-18 2003-01-31 Nec Corp 自動通訳システム、会話学習装置、自動通訳装置及びその方法並びにそのプログラム
US7353165B2 (en) * 2002-06-28 2008-04-01 Microsoft Corporation Example based machine translation system
EP1677207A4 (en) * 2003-03-14 2010-05-05 Fujitsu Ltd TRANSLATION ASSISTING DEVICE
CN1553381A (zh) * 2003-05-26 2004-12-08 杨宏惠 多语种对应目录式语言数据库及同步电脑互译、交流方法
GB2415518A (en) * 2004-06-24 2005-12-28 Sharp Kk Method and apparatus for translation based on a repository of existing translations

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000242642A (ja) * 1999-02-18 2000-09-08 Sony Corp 翻訳処理方法及び翻訳処理装置
JP2003288339A (ja) * 2001-01-24 2003-10-10 Matsushita Electric Ind Co Ltd 音声変換装置、音声変換方法、プログラム、及び媒体
JP2005107597A (ja) * 2003-09-26 2005-04-21 Nec Corp 類似文検索装置、類似文検索方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2007004391A1 (ja) 2009-01-22
CN101052964A (zh) 2007-10-10
CN101052964B (zh) 2010-05-19
US20070244687A1 (en) 2007-10-18
US7562006B2 (en) 2009-07-14
JP3984642B2 (ja) 2007-10-03

Similar Documents

Publication Publication Date Title
US20220122580A1 (en) Intent recognition and emotional text-to-speech learning
KR101857648B1 (ko) 지능형 디지털 어시스턴트에 의한 사용자 트레이닝
JP4481972B2 (ja) 音声翻訳装置、音声翻訳方法及び音声翻訳プログラム
US10679605B2 (en) Hands-free list-reading by intelligent automated assistant
JP5247062B2 (ja) ボイスメッセージのテキスト表示を通信装置へ提供する方法及びシステム
US8447609B2 (en) Adjustment of temporal acoustical characteristics
KR20140082771A (ko) 핸즈-프리 상호작용을 위한 자동 적응식 사용자 인터페이스
WO2006040969A1 (ja) 対話支援装置
JP2010085536A (ja) 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム
US20080195375A1 (en) Echo translator
WO2007004391A1 (ja) 対話支援装置
JP3714159B2 (ja) ブラウザ搭載装置
JPH08278972A (ja) 音声入力翻訳装置
JPH1138863A (ja) 言語情報装置
JP2009529704A (ja) 移動通信端末装置を利用した通訳サービス方法
JP2020113150A (ja) 音声翻訳対話システム
JP6310950B2 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JP6383748B2 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
WO2017122657A1 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JP2006301968A (ja) 会話支援装置
JP2002132291A (ja) 自然言語対話処理装置およびその方法並びにその記憶媒体
JP4041104B2 (ja) 翻訳装置
JP6198879B1 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
JP6110539B1 (ja) 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム
KR20050052943A (ko) 여행자용 키워드 기반 음성번역 시스템 및 그 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2006538189

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11785368

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200680001144.2

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06757271

Country of ref document: EP

Kind code of ref document: A1