WO2013190956A1 - 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム - Google Patents

機能実行指示システム、機能実行指示方法及び機能実行指示プログラム Download PDF

Info

Publication number
WO2013190956A1
WO2013190956A1 PCT/JP2013/064766 JP2013064766W WO2013190956A1 WO 2013190956 A1 WO2013190956 A1 WO 2013190956A1 JP 2013064766 W JP2013064766 W JP 2013064766W WO 2013190956 A1 WO2013190956 A1 WO 2013190956A1
Authority
WO
WIPO (PCT)
Prior art keywords
function
execution
category
word
instructed
Prior art date
Application number
PCT/JP2013/064766
Other languages
English (en)
French (fr)
Inventor
孝輔 辻野
Original Assignee
株式会社エヌ・ティ・ティ・ドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エヌ・ティ・ティ・ドコモ filed Critical 株式会社エヌ・ティ・ティ・ドコモ
Priority to US14/395,696 priority Critical patent/US20150095024A1/en
Priority to EP13806936.4A priority patent/EP2863385B1/en
Priority to JP2014521250A priority patent/JP6073881B2/ja
Priority to CN201380031463.8A priority patent/CN104380374A/zh
Publication of WO2013190956A1 publication Critical patent/WO2013190956A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Definitions

  • the present invention relates to a function execution instruction system, a function execution instruction method, and a function execution instruction program that can instruct execution of one or more functions.
  • Patent Document 1 describes that functions such as setting a registered location as a destination and viewing a map of the registered location are executed based on voice recognized by the car navigation device.
  • the system checks the transfer from the nearest station of the user to Tokyo station (a transfer guidance application is activated). After that, it is assumed that the user speaks “Yokohama” because he wants to know the transfer to Yokohama Station instead of the transfer to Tokyo Station. At this time, if the task to be newly executed is determined from the user's utterance content, the utterance “Yokohama” does not include the keyword for executing the task of checking the transfer “transfer”. For example, a task of examining a map of Yokohama that is activated only from a place name is executed instead of a task of examining a transfer.
  • the present invention has been made in view of the above-described problems, and provides a function execution instruction system, a function execution instruction method, and a function execution instruction program that can appropriately execute a function using words that are continuously input.
  • the purpose is to provide.
  • a function execution instruction system includes a function execution instruction unit that instructs execution of one or more functions related to a category set in advance for each function;
  • One or more word input means for inputting information including a word, category specifying means for specifying a category of a word included in the information input by the word input means, and one or more according to the category specified by the category specifying means
  • An execution function determining unit that determines a function to be instructed by the function execution instructing unit from the function.
  • the execution function determining unit is executed by the category specified by the category specifying unit and in the past by the function execution instructing unit. Based on the category related to the instructed function, the execution of the function instructed to be executed by the function execution instructing means in the past will be executed from now on. It is judged whether or not Shimesuru.
  • the function execution instruction system it is determined whether to instruct execution of a function that has been instructed in the past based on a category related to the function and a category of the input word. Is done. Accordingly, for example, it is appropriately determined whether a function executed in the past should be executed subsequently or a new function should be executed. That is, according to the function execution instruction system according to an embodiment of the present invention, it is possible to appropriately execute a function using words that are continuously input.
  • the function execution instruction system further includes an execution function storage means for storing a function instructed to be executed by the function execution instruction means, and the execution function determination means stores the category specified by the category specification means and the execution function storage means. Determining whether or not to instruct execution of a function that has been instructed to be executed by the function execution instructing means in the past, based on a category related to the function that has been instructed in the past by the function execution instructing means. It is good.
  • a preset word is associated with at least one of the one or more functions, and the execution function determination unit is configured to execute the one or more functions based on the word input by the word input unit and the preset word.
  • the function to be instructed to execute by the function execution instruction means may be determined from the function. According to this configuration, for example, a function can be appropriately executed based on a word deeply related to the function.
  • the execution function determining means instructs the execution of the function instructed to be executed by the function execution instructing means immediately before a word related to the category is input by the word input means according to the category specified by the category specifying means. It may be determined whether or not. According to this configuration, for example, it is appropriately determined whether the function executed immediately before should be executed continuously or a new function should be executed, and the function can be appropriately executed by continuously input words. it can.
  • the function that is instructed to be executed by the function execution instructing unit includes a function that is included in the information input by the word input unit and that inputs a word of a category related to the function. It is determined whether or not the words of the category specified by the category specifying means can be input to the function for which execution has been instructed by the function execution instructing means in the past, and the function execution instructing means in the past according to the determination It is also possible to determine whether or not to instruct execution of the function instructed to execute by. According to this configuration, together with the execution of the function, the input word can be used as an input to the function, and the convenience for the user can be improved. For example, in combination with the execution of the transfer guidance function described above, guidance based on the input station name can be performed. Further, it is possible to determine whether or not to execute a function executed in the past more appropriately, and it is possible to more appropriately implement an embodiment of the present invention.
  • the execution function determining unit is input to the function that has been instructed in the past by the function execution instructing unit.
  • This word may be used as an input to the function.
  • the word used by the function performed in the past can be made into the input to the function performed anew, and a user's convenience can be improved further.
  • the transfer guidance function described above it is possible to provide guidance in which only the arrival station is changed.
  • the execution function determining means determines whether the category specified by the category specifying means matches the category of the word that has been input to the function for which execution has been instructed in the past. In such a case, it may be determined that the execution of the function will be instructed. According to this configuration, the embodiment of the present invention can be more appropriately implemented.
  • the function execution instruction system may further include voice recognition means for inputting voice, performing voice recognition on the input voice, and inputting the result of voice recognition to the word input means. According to this configuration, the function can be executed by the user's voice.
  • the present invention can be described as an invention of a function execution instruction system and a function execution instruction program as follows, in addition to being described as an invention of a function execution instruction system as described above.
  • This is substantially the same invention only in different categories and the like, and has the same operations and effects.
  • a function execution instruction method inputs a function execution instruction step for instructing execution of one or more functions related to a preset category for each function, and information including words.
  • the category specifying step for specifying the category of the word included in the information input in the word input step
  • the category specified in the category specifying step An execution function determination step for determining a function to be instructed to execute, wherein the execution function determination step relates to a category specified in the category specifying step and a function for which execution has been instructed in the function execution instruction step in the past. Based on the category, execution is instructed in the function execution instruction step in the past. To determine whether or not the future or to instruct the execution of the function was.
  • a function execution instruction program includes a function execution instruction means for instructing a computer to execute one or more functions related to a preset category for each function, and information including words.
  • the function is executed from one or more functions according to the category specified by the category specifying means, the category specifying means for specifying the category of the word included in the information input by the word input means, and the category specifying means
  • the execution function determining unit functions as an execution function determining unit that determines a function that is instructed to be executed by the instructing unit, and the execution function determining unit is instructed to execute by the category specified by the category specifying unit and in the past by the function execution instructing unit. Based on the category related to the function, the execution of the function that was previously instructed by the function execution instruction means To determine whether or not to instruct.
  • based on a category associated with (associated with) a function and an input word category it is determined whether or not to instruct execution of a function that has been instructed in the past. Is done. Accordingly, for example, it is appropriately determined whether a function executed in the past should be executed subsequently or a new function should be executed. That is, according to one embodiment of the present invention, it is possible to appropriately execute a function based on continuously input words.
  • FIG. 1 shows a function execution instruction system 1 according to this embodiment.
  • the function execution instruction system 1 includes a function execution instruction server 10 and a voice recognition server 20.
  • the function execution instruction system 1 is a system that instructs the communication terminal 30 to execute one or more preset functions.
  • the functions instructed to be executed from the function execution instruction system 1 to the communication terminal 30 are equivalent to, for example, transfer guidance, gourmet search, image search, music search, music player, scheduler, mail, memo, route guide, and map search. To do.
  • the function to be executed is called a task. Specifically, with regard to transfer guidance, gourmet search, image search, music search, and map search, for example, information on guidance and search results is displayed and output on the communication terminal 30.
  • the communication terminal 30 is a device that can communicate with the function execution instruction server 10 and the voice recognition server 20 through a communication network (for example, a mobile communication network), for example, a mobile phone or a PC (Personal Computer). It corresponds to. Since the above task is executed with the user's voice as a trigger, the communication terminal 30 has a function of inputting the user's voice. In addition, the communication terminal 30 has a function of executing a task in response to an instruction from the function execution instruction system 1, for example, an information reception function, an information processing function, a display function, and the like.
  • the communication terminal 30 has function execution means for executing one or more (or a plurality of) tasks. Specifically, the communication terminal 30 stores an application program corresponding to the task in advance, and executes the task by executing (starting) the stored application program. The task executed by the communication terminal 30 is instructed by the function execution instruction server 10 as described later. In addition to executing the application, the task may be executed by acquiring information corresponding to the task from the network.
  • the task execution instruction to the communication terminal 30 by the function execution instruction system 1 is performed as follows. First, the communication terminal 30 inputs a user's voice. The input voice is transmitted from the communication terminal 30 to the voice recognition server 20.
  • the voice recognition server 20 receives voice from the communication terminal 30 and performs voice recognition on the received voice.
  • the voice recognition server 20 transmits a sentence or a set of words as a result of the voice recognition to the communication terminal 30.
  • the communication terminal 30 receives the result of voice recognition and further transmits it to the function execution instruction server 10.
  • the function execution instruction server 10 receives the result of the voice recognition, determines a task to be executed based on the result of the voice recognition, and instructs the communication terminal 30 to execute the task.
  • the function execution instruction server 10 transmits information indicating a task to be executed to the communication terminal 30.
  • the communication terminal 30 receives an instruction from the function execution instruction server 10 and executes a task according to the instruction.
  • a set of sentences or words as a result of voice recognition may be directly transmitted from the voice recognition server 20 to the function execution instruction server 10 without being sent to the communication terminal 30 once.
  • the function execution instruction server 10 and the voice recognition server 20 may be integrated.
  • the function execution instruction server 10 executes the task of transfer guidance from the nearest station to the Tokyo station at the current position of the communication terminal 30.
  • the communication terminal 30 is instructed to execute the transfer guidance task.
  • the transfer guidance task is executed as described above, the current position of the communication terminal 30 is acquired when the task is executed. As described above, additional information is acquired as necessary depending on the task.
  • the above is the outline of the function execution instruction system 1 according to the present embodiment.
  • the voice recognition server 20 is a device that is a voice recognition unit that inputs voice, performs voice recognition on the input voice, and outputs a result of the voice recognition. Specifically, as described above, the voice recognition server 20 receives voice data from the communication terminal 30.
  • the voice recognition server 20 has a voice recognition engine, and performs voice recognition using the voice recognition engine. For speech recognition itself, any conventional speech recognition method can be used.
  • the voice recognition server 20 acquires the voice recognition result as a set of words (a group of words including one or more words) or a sentence and transmits the result to the communication terminal 30.
  • the function execution instruction server 10 includes a function execution instruction unit 11, a word input unit 12, a category identification unit 13, an execution function determination unit 14, and an execution function storage unit 15. Is done.
  • the function execution instructing unit 11 is a function execution instructing unit that instructs the communication terminal 30 to execute one or more tasks. Specifically, the function execution instructing unit 11 instructs the execution of the task by transmitting a command for executing the task to the communication terminal 30. The task whose execution is instructed by the function execution instructing unit 11 is determined by the execution function determining unit 14 as described later.
  • Tasks are related to (associated with) categories preset for each task.
  • the category for example, classifies words for each attribute.
  • the categories are “station”, “commercial facility name”, “overseas travel”, and “cooking name”.
  • a transfer guidance task it is related to (associated with) the category of “station”.
  • a gourmet search task it is related to (associated with) the category of “dishes name”.
  • the task may be associated with a preset word.
  • a task of transfer guidance is associated with the word “transfer”.
  • the task that is instructed to execute has a function that takes words as input (arguments). This is called a task slot.
  • the slot is predetermined. For example, as shown in FIG. 2, in the case of a transfer guidance task, the task is executed with the departure station and arrival station as inputs to the slot. Alternatively, in the case of a gourmet search task, a store relating to the input dish is searched using the dish name as an input to the slot. Note that zero or more slots are defined for the task. That is, some tasks do not have slots.
  • each slot is associated with information of “slot type”, “size”, “required?”, And “takeover?”.
  • the “slot type” is information specifying a category (a type of a word that can be accepted in the slot) input to the slot, and indicates (holds), for example, category ID information. That is, a word category can be associated with a slot.
  • “type_station” is held as the slot type of the slot corresponding to the arrival station and the departure station. This means that “station” can be input as the word category for the slot.
  • the slot type may be configured such that a word can be input when the word is a specific expression. For example, “to” (corresponding to to. * Type_station of the arrival station in FIG.
  • a word may be input into a slot. Further, the “slot type” does not have to specify a specific category, and a word of an arbitrary category may be input. “Size” indicates the number of words input to the slot. “Mandatory?” Indicates whether or not input of a word is essential when executing the task. If there is no word to be input to the True slot in the “required?” Field, the slot content may be returned without executing the task, and the user may be prompted to input to the slot. .
  • Each slot may be associated with information indicating whether a preset word (default word) is input when no word is input to the slot. For example, in the case of transfer guidance, for the departure station, the station name of the station closest to the current position of the user acquired by GPS (Global Positioning System) or the like may be input as a default word.
  • GPS Global Positioning System
  • the word input unit 12 is word input means for inputting information including words. Specifically, the word input unit 12 receives the information from the communication terminal 30 by receiving information indicating one or more words as a result of speech recognition by the speech recognition server 20. Alternatively, when the result of speech recognition by the speech recognition server 20 is a sentence (input sentence), the word input unit 12 receives the sentence and extracts the word from the sentence, or cuts the document into words. Get a word. In addition, the method of acquiring a word from sentences can use arbitrary conventional methods, such as a morpheme analysis using a morpheme dictionary.
  • the word input to the word input unit 12 is a user's utterance unit for the communication terminal 30. That is, a word group included in one utterance is treated as one unit.
  • the word input unit 12 inputs information indicating the acquired word to the category specifying unit 13.
  • the category specifying unit 13 is a category specifying unit that specifies the category of the word input from the word input unit 12. Specifically, for example, the category specifying unit 13 stores in advance information for specifying a word category as shown in FIG. 3 and specifies the category based on the information. This information is previously input and stored in the function execution instruction server 10 by, for example, an administrator of the function execution instruction system 1 or the like. In this information, as shown in FIG. 3, a word is associated with a category ID and a category tag (category name) that are information for specifying a category. One category ID and category tag are associated with one or more words.
  • the category specifying unit 13 determines whether or not each word input from the word input unit 12 matches the word included in the information shown in FIG.
  • the attached category is specified as the category of the word input from the word input unit 12.
  • the category specifying unit 13 may specify the category by, for example, the technique of specific expression extraction (Named Entity Extraction) without using the information indicating the correspondence between the category and the word as shown in FIG. .
  • the category specifying unit 13 may store a regular expression in advance and specify the category depending on whether or not the word matches the stored regular expression. For example, if a word matches a regular expression, the word is identified as a category that matches the regular expression.
  • the category specifying unit 13 may acquire the phone book data stored in the communication terminal 30 and specify the category by determining whether or not the word is a word included in the phone book data. For example, when a word is included in the phone book data, the word is specified as a category of words existing in the phone book data.
  • the category identification unit 13 outputs information indicating the word input from the word input unit 12 and the category of the identified word to the execution function determination unit 14. Note that it is not always necessary to specify a category for each word, and there may be a word for which no category is specified.
  • the execution function determination unit 14 is an execution function determination unit that determines a task whose execution is instructed by the function execution instruction unit 11 according to the category specified by the category specification unit 13. For example, the execution function determination unit 14 determines a task that is instructed to be executed based on the association (association) between a task and a category as described above. Specifically, the score of the category is stored for each task, the score of the word input in the user's utterance unit is specified, and the task to be instructed to execute is determined based on the specified score. The score of each category is determined according to the degree of association with the task.
  • the user's utterance is “transfer to Tokyo”.
  • the user's utterance is divided into the words “Tokyo”, “To”, “No”, and “Transfer”.
  • the score of the category matched with each word for every task is calculated
  • the score of each word is specified, and by summing them, the score of each task (in the example of FIG. 4, "transfer guide”, “gourmet search”, “map search” tasks) is totaled.
  • the score may be determined not only for the category but also for each word.
  • a task to be instructed to execute may be determined based on a word input by the word input unit 12 and a preset word.
  • the execution function determination unit 14 determines, for example, the task having the highest score as a task whose execution is instructed by the function execution instruction unit 11.
  • the execution function determination unit 14 notifies the function execution instruction unit 11 of the determined task.
  • the function execution instructing unit 11 instructs the communication terminal 30 to execute the task.
  • a word that is input to the slot of the task to be executed (a word whose category matches the category of the slot) is also notified. Also good.
  • a word to be input to the slot is also transmitted from the function execution instruction unit 11 to the communication terminal 30 together with the task execution instruction.
  • the word “Tokyo” in the “station” category is associated with the word in the “station” category. It is used as an input for a station slot.
  • the station name of the station closest to the current position of the user is input as a default word.
  • the transfer from the nearest station to the Tokyo station from the current position of the user is searched, and the result is presented to the user.
  • the user may be prompted to input to the slot at that time, and the word to be input to the slot may be input again.
  • the execution function determining unit 14 determines a task to be instructed to be executed by the function execution instructing unit 11 from now on. The determination of this task is assigned to the task instructed to be executed by the function execution instructing unit 11 in the past. It may be based on. Specifically, it is determined whether or not a task for which execution has been instructed in the past is to be executed subsequently. For example, if execution of the task of “transfer guidance” has been instructed in the past (the task has been executed), and then a word input based on the user's utterance has been input to the function execution instruction server 10, It is determined whether to instruct the execution of the task of “transfer guidance” continuously. A configuration for this will be described below.
  • the execution function storage unit 15 is an execution function storage unit that stores a task instructed to be executed by the function execution instruction unit 11. For example, the execution function storage unit 15 inputs information (for example, task name) indicating a task for which execution has been instructed from the function execution instruction unit 11, and stores information indicating the input task. At this time, the task execution instruction time may be stored together. The execution function storage unit 15 also inputs a word input to the slot at the time of task execution instruction from the function execution instruction unit 11, and stores the word together with the executed task. Also good.
  • the information stored in the execution function storage unit 15 is appropriately referred to by the execution function determination unit 14 as follows.
  • the execution function determination unit 14 is a category related to (associated with) the category specified by the category specification unit 13 and the task stored in the execution function storage unit 15 and instructed to be executed by the function execution instruction unit 11 in the past. Based on the above, it is determined whether or not to instruct execution of the task that has been instructed to be executed by the function execution instruction unit 11 in the past. At this time, the task for determining whether or not to instruct execution is the task that is instructed to be executed by the function execution instructing unit 11 immediately before a word is input to the function execution instructing server 10 (one time before. It may be determined whether or not to instruct execution of a task for which execution is instructed.
  • a task for which execution has been instructed two or more times before may not be a target of a task for which execution is instructed continuously. Furthermore, only tasks that are instructed to be executed within a predetermined time (for example, within 1 hour) set in advance from the word input may be set as candidate tasks to be instructed to be executed subsequently.
  • the execution function determination unit 14 includes a category related to (associated with) a task that has been instructed by the function execution instruction unit 11 in the past and stored in the execution function storage unit 15, and a category specification unit 13. It is determined whether or not the category specified by (1) matches, and according to the determination, it is determined whether or not to instruct execution of the function that has been instructed by the function execution instructing unit 11 in the past. For example, the execution function determining unit 14 matches the category of the word specified by the category specifying unit 13 with the category associated with the slot of the task whose execution has been instructed by the function execution instructing unit 11 in the past (category The above determination is made by determining whether the word specified by the specifying unit 13 can be input to the task slot.
  • the execution instruction in the past If it is determined that the task to be executed is instructed to be executed continuously, and it is determined that the tasks do not coincide with each other, it is determined that the instruction to continue execution of the task is not performed, that is, the execution of a new task is instructed.
  • the execution of the task is instructed only when the category of the word specified by the category specifying unit 13 coincides with all the categories associated with the task slots instructed to be executed by the function execution instructing unit 11 in the past. It may be possible to instruct the execution of the task when it matches the category associated with a part of the slot. Further, only when the category of the word specified by the category specifying unit 13 matches the category associated with any of the task slots instructed to be executed by the function execution instructing unit 11 in the past, the task execution is continued. (That is, all the categories of the words specified by the category specifying unit 13 match the category corresponding to any of the task slots for which execution has been instructed by the function executing unit 11 in the past, and are input.
  • the task may be instructed to continue only when there is no noun that does not correspond to any category in the sentence and therefore does not correspond to any slot.
  • Some categories of the designated words are slotted for tasks for which execution has been instructed by the function execution instructing unit 11 in the past. May instruct the execution of the tasks subsequent when matching the categories marked with corresponding to any one of. If the slot of the task whose execution has been instructed in the past by the function execution instructing unit 11 is not of a type that specifies a category (if it is a type in which words of an arbitrary category can be input, for example, for the task of “image search” The “search word” slot) may be instructed to always execute a task regardless of which category of word is input, so the above determination may not be performed.
  • the execution function determination unit 14 determines that a task for which execution has been instructed in the past by the function execution instruction unit 11 is to be executed (to continue the task), the category associated with the slot The function execution instructing unit 11 is instructed to execute the word that matches with the input to the slot.
  • the execution function determination unit 14 sets, as a part of (or all) a task slot, the word input to the past slot stored by the execution function storage unit 15 as an input to the task. Also good. In this case, in each slot of the task shown in FIG. 2, even if the input of the word is performed only when the information in the “takeover?” Column is information indicating that the input of the word is inherited (True). Good. If the execution function determination unit 14 determines that the task is not continuously executed by the above determination, the execution function determination unit 14 determines an instruction to execute the task based on the score described above.
  • “transfer guidance” is displayed in the execution function storage unit 15 as a task for which execution has been instructed in the past.
  • the word “Tokyo” is stored as an input of the arrival station slot. Assume that the user's utterance after that is “Yokohama”. In this case, since the word “Yokohama” is the “station” category, it is determined that it matches the category associated with the slot of the arrival station of the “transfer guidance” task executed in the past. Therefore, it is determined that the “transfer guidance” task executed in the past is continuously instructed to be executed again. At that time, “Yokohama” is entered in the slot of the arrival station. As for the departure station, the station name of the nearest station from the current position of the user is inherited as in the case of “transfer to Tokyo” (the “takeover” column of the departure station is True as shown in FIG. 2). ing).
  • the score is determined by the utterance “Yokohama” without determining whether or not the execution function determination unit 14 continues to instruct execution of the task as described above.
  • the user's utterance is divided into the words “after all” and “Yokohama”. Then, as in the above-described example, the score of each word is specified for each task, and these are added together to calculate the score for each task.
  • the highest score is “map search” in which the score is high only by the place name “Yokohama”, not “transfer guidance”. It becomes.
  • the execution function determination unit 14 determines a task instructing execution by calculating a score based on an utterance “curry”. As shown in FIG. 6, the user's utterance is composed only of the word “curry”. Then, as in the example described above, the score of the category associated with each word is specified for each task, and these are added together to calculate the score for each task. In this case, “gourmet search” has the highest score, and it is determined that the task of “gourmet search” is executed. If the user utters “curry” after the user utters “transfer to Tokyo”, it is a completely different topic, so he would like to know information about “curry” instead of “transfer guidance”. As described above, in this case, the task score is not determined to be taken over, but the task score is calculated from the user's utterance, and the execution of the task of “gourmet search” is instructed.
  • task transition may be forcibly performed in a specific case. For example, when information indicating that a transition is made to a new task is received from the communication terminal 30 by a user operation on the communication terminal 30, the task transition may be forcibly performed (the task is not taken over). ).
  • the determination of the task instructed to be executed by the execution function determination unit 14 may be performed as follows. When determining a task to be executed from an input word group (user's utterance), the score corresponding to the word is given for each task as described above, but it is not always necessary to calculate the score. For example, a task is associated with a word (category), and it is determined whether or not the word (category) associated with the task is included in the word group input for each task. If it is determined, the execution of the task may be instructed.
  • a task instructing execution may be determined from a newly input word or sentence.
  • task transition may be forced. For example, if the word “transfer” is included, a highly relevant “transfer guidance” task is executed.
  • the word input to the slot may be taken over.
  • all words that can be taken over are extracted from the slot contents before task transition.
  • all slot contents are once empty.
  • the input word is input to the slot according to the slot input rules.
  • FIG. 7 shows a hardware configuration of a server device constituting the function execution instruction server 10 and the voice recognition server 20 according to the present embodiment.
  • the server device includes a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102 and a ROM (Read Only Memory) 103 which are main storage devices, a communication module 104 for performing communication, and
  • the computer is configured to include a computer including hardware such as an auxiliary storage device 105 such as a hard disk.
  • the functions of the function execution instruction server 10 and the voice recognition server 20 described above are exhibited by the operation of these components by a program or the like.
  • the above is the configuration of the function execution instruction system 1 according to the present embodiment.
  • a function execution instruction method that is a process executed by the function execution instruction system 1 according to the present embodiment will be described with reference to the flowchart of FIG.
  • a user operation on the communication terminal 30 for receiving a function execution instruction by the function execution instruction system 1 according to the present embodiment is performed, and the user's operation for causing the communication terminal 30 to execute the function is performed.
  • Voice (utterance) is input.
  • the voice is transmitted from the communication terminal 30 to the voice recognition server 20.
  • the voice recognition server 20 receives and inputs the voice (S01, voice recognition step).
  • the voice recognition server 20 performs voice recognition on the input voice (S02, voice recognition step).
  • Information indicating a set of words or a sentence as a speech recognition result is transmitted from the speech recognition server 20 to the communication terminal 30.
  • the communication terminal 30 receives the information and transmits it to the function execution instruction server 10.
  • the word input unit 12 receives and inputs information including a word that is a speech recognition result (S03, word input step). The input information is output from the word input unit 12 to the category specifying unit 13. Subsequently, the category specifying unit 13 specifies the category of the word included in the information input from the word input unit 12 (S04, category specifying step). Information on the specified category is output from the category specifying unit 13 to the execution function determining unit 14 together with the word.
  • the execution function determination unit 14 determines a candidate task to be executed (S05, execution function determination step).
  • the determination of the task candidate is performed by calculating a score for each task based on the input word and the category of the word as described with reference to FIGS. The task with the highest score is the task candidate to be executed.
  • the execution function determining unit 14 corresponds to the category specified by the category specifying unit 13 and the slot of the task for which execution is instructed by the function execution instructing unit 11 in the past stored by the execution function storing unit 15. Based on the category, it is determined whether or not to instruct execution of a task that has been instructed to be executed by the function execution instructing unit 11 in the past (S06, execution function determining step). That is, it is determined whether to instruct execution of the task that has been instructed immediately before or to instruct execution of a new task (task transition).
  • the task that has been instructed to execute in the past is not used for judgment because it is an execution instruction before a certain period of time. In some cases, the above determination need not be made. In this case, the task to be executed is determined based on the word input in S03.
  • the task is determined as the task for which execution is instructed (S07, execution function determination step).
  • the task determined as a task candidate in S05 is determined as a task that is instructed to be executed (S07, execution function determination step).
  • the execution function determination unit 14 instructs the function execution instruction unit 11 to instruct execution of the determined task.
  • the word input to the task slot is also output to the function execution instruction unit 11.
  • the function execution instruction unit 11 that has received the instruction instructs the communication terminal 30 to execute the task (S08, function execution instruction step).
  • the communication terminal 30 receives this instruction and executes a task related to the instruction.
  • whether or not to instruct execution of a task that has been instructed in the past based on the category associated with (associated with) the task and the category of the input word is determined. To be judged. Thereby, for example, it is appropriately determined whether a task executed in the past should be executed subsequently or a new task should be executed. In other words, according to the present embodiment, it is possible to appropriately perform the function using the words that are continuously input.
  • the “map search” task is executed as described above, unlike the user's intention. End up. As described above, in the present embodiment, task takeover or task transition is appropriately performed according to the user's intention, and an appropriate task is executed.
  • a keyword that is strongly related to a specific task such as “transfer” may be set as a preset word, and a task to be executed may be determined based on the keyword.
  • a task can be appropriately executed based on a word deeply related to a function.
  • a slot may be provided in the task, and the word input by the word input unit 12 may be input to the slot.
  • the word input by the word input unit 12 can be used as an input to the task, an appropriate task can be executed, and the convenience of the user is improved. be able to. For example, in combination with the execution of the task of “transfer guidance” described above, guidance based on the input station name can be performed.
  • the determination of task takeover is made by comparing the category (slot category) related to the task (the category of the slot) with the category of the input word, and whether they match. It may be performed by judging. According to this configuration, it is possible to determine whether or not to instruct execution of a task for which execution has been instructed in the past more appropriately, and it is possible to more appropriately implement the present invention.
  • voice recognition may be performed by inputting voice
  • the voice recognition result may be information including the input word.
  • the function can be executed by the user's voice.
  • the function execution instruction system 1 includes the voice recognition server 20, but the voice recognition server 20 is not necessarily included. In this case, a result of speech recognition or a word group or a sentence not based on speech recognition is input to the function execution instruction system 1.
  • the function execution instruction server 10 and the voice recognition server 20 are configured separately, but they may be configured as a single unit. In this case, it is not necessary to transmit / receive the voice recognition result via the communication terminal 30.
  • a function used by the function execution instruction server 10 or the voice recognition server 20 may be provided in a terminal used by a user such as the communication terminal 30. In that case, the terminal is a function execution instruction system according to an embodiment of the present invention.
  • the function execution instruction server 10 may have a function of executing a task, and the task execution result may be provided to the communication terminal 30.
  • the communication terminal 30 stores information indicating a task (task executed or executed in accordance with the instruction) instructed to be executed immediately from the function execution instruction server 10 (function execution instruction unit 11 thereof).
  • the result is sent to the function execution instruction server 10 together with the result of the voice recognition.
  • the communication terminal 30 transmits the utterance information “Yokohama” or “curry” and the “transfer guidance” information indicating the task being executed to the function execution instruction server 10.
  • the execution function determination unit 14 determines a function to be executed in the same manner as described above based on the received information.
  • the execution function determination unit 14 of the function execution instruction server 10 communicates information stored in the execution function storage unit 15 other than the above information (for example, information input to the slot of the task executed immediately before).
  • the function may be received from the terminal 30 and used to determine a function to be executed and to instruct execution.
  • the function execution instruction program 50 is inserted into a computer and accessed, or stored in a program storage area 41 formed on a recording medium 40 provided in the computer.
  • the function execution instruction program 50 includes a function execution module 51, a word input module 52, a category identification module 53, an execution function determination module 54, and an execution function storage module 55.
  • the functions implemented by executing the function execution module 51, the word input module 52, the category identification module 53, the execution function determination module 54, and the execution function storage module 55 are the functions of the function execution instruction server 10 described above.
  • the functions of the function execution instructing unit 11, the word input unit 12, the category specifying unit 13, the execution function determining unit 14, and the execution function storage unit 15 are the same.
  • the function execution instruction program 50 may include a module corresponding to the function of the voice recognition server 20.
  • a part or all of the function execution instruction program 50 may be transmitted via a transmission medium such as a communication line and received and recorded (including installation) by another device. Further, each module of the function execution instruction program 50 may be installed in any one of a plurality of computers instead of one computer. In that case, the series of function execution instruction programs 50 described above is performed by the computer system of the plurality of computers.
  • a function execution instruction system provides a function execution instruction means for instructing execution of one or more functions associated with a preset category for each function.
  • a word input unit for inputting information including a word
  • a category specifying unit for specifying a category of a word included in the information input by the word input unit, and one corresponding to the category specified by the category specifying unit.
  • An execution function determination unit that determines a function that is instructed to be executed by the function execution instruction unit, and an execution function storage unit that stores a function that is instructed to be executed by the function execution instruction unit.
  • the means may be executed by the function execution instruction means in the past stored by the category specified by the category specifying means and the execution function storage means. Based on the categories marked with corresponding functions indicated, it determines whether now or to instruct the execution of the execution is instructed function by the past to the function execution instruction means.
  • a preset word is associated with at least one of the one or more functions, and the execution function determination unit is configured to execute the one or more functions based on the word input by the word input unit and the preset word.
  • the function to be instructed to execute by the function execution instruction means may be determined from the function.
  • the execution function determining means instructs the execution of the function instructed to be executed by the function execution instructing means immediately before a word related to the category is input by the word input means according to the category specified by the category specifying means. It may be determined whether or not.
  • the function instructed to be executed by the function execution instructing unit includes a function of inputting a word of a category that is included in the information input by the word input unit and is associated with the function.
  • the word of the category specified by the category specifying means is determined whether it can be input to the function that has been instructed to be executed by the function execution instructing means in the past stored by the execution function storing means. Accordingly, it may be determined whether or not to instruct execution of the function that has been instructed by the function execution instructing means in the past.
  • the execution function storage means stores a word input to the function together with the function instructed to be executed by the function execution instruction means, and the execution function determination means has a function that has been instructed to be executed by the function execution instruction means in the past. When it is determined that an instruction to execute is to be instructed from now on, the word stored by the execution function storage means may be used as an input to the function.
  • the execution function determining means determines whether the category specified by the category specifying means matches the category of the word input to the function instructed to be executed in the past stored by the execution function storage means. If it is determined that they match, it may be determined that the execution of the function will be instructed from now on.
  • the function execution instruction system may further include voice recognition means for inputting voice, performing voice recognition on the input voice, and inputting the result of voice recognition to the word input means.
  • a function execution instruction method inputs a function execution instruction step for instructing execution of one or more functions associated with a preset category for each function, and information including words.
  • the category specifying step for specifying the category of the word included in the information input in the word input step, and the category specified in the category specifying step
  • An execution function determination step for determining a function to be instructed for execution; and an execution function storage step for storing the function instructed to be executed in the function execution instruction step.
  • Function execution in the past stored in the category and execution function storage step It is shown on the basis of the categories marked with corresponding to the execution is instructed function in step, it is determined whether to now direct the execution of the functions executed in the function execution instruction step in the past has been instructed.
  • a function execution instruction program includes a function execution instruction means for instructing a computer to execute one or more functions associated with a preset category for each function, and information including words
  • the function is executed from one or more functions according to the category specified by the category specifying means, the category specifying means for specifying the category of the word included in the information input by the word input means, and the category specifying means
  • the execution function determining means for determining the function instructed to be executed by the instruction means, and the execution function storage means for storing the function instructed to execute by the function execution instructing means.
  • the category specified by the specifying means and the execution instruction by the function execution instruction means in the past stored by the execution function storage means Based on the categories marked with corresponding functionality to determine whether now or to instruct the execution of the execution is instructed function by the past to the function execution instruction means.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 連続して入力された単語による機能の実行を適切に行う。 機能実行指示システム1の機能実行指示サーバ10は、タスク毎に予め設定されたカテゴリに関連する1つ以上のタスクの実行を指示する機能実行指示部11と、単語を含む情報を入力する単語入力部12と、単語のカテゴリを特定するカテゴリ特定部13と、特定されたカテゴリに応じて実行が指示されるタスクを決定する実行機能決定部14と、実行が指示されたタスクを記憶する実行機能記憶部15とを備える。実行機能決定部14は、特定されたカテゴリ、及び過去に実行が指示されたタスクに関連するカテゴリに基づいて、当該過去に実行が指示された機能をこれから実行指示するか否か判断する。

Description

機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
 本発明は、1つ以上の機能の実行を指示することができる機能実行指示システム、機能実行指示方法及び機能実行指示プログラムに関する。
 従来から、ユーザの音声を認識して、認識した音声に基づいて機能を実行するシステムが知られている。例えば特許文献1には、カーナビゲーション装置において認識した音声に基づいて、登録地を目的地として設定したり、登録地の地図を見たりといった機能が実行されることが記載されている。
特開2006-23444号公報
 ここで、複数の機能(タスク)を実行可能で、かつユーザが複数回に渡って発話指示(音声による指示)が可能な音声エージェントシステムを考える。従来のこうしたシステムにおいては、発話された内容がそれまでのタスクにおける条件付加や変更の発話であるのか、あるいはそれまでのタスクと関係のない、新しい要件の発話であるのかが判断できない。
 例えば、ユーザが「東京までの乗換」とシステムに対して発話した場合、システムではユーザの最寄り駅から東京駅までの乗換が調べられる(乗換案内のアプリケーションが起動される)。その後、ユーザが、東京駅までの乗換ではなく横浜駅までの乗換を知りたいため「やっぱり横浜」と発話したものとする。このとき、ユーザの発話内容から新たに実行されるタスクが判断されるものとすると、「やっぱり横浜」という発話に「乗換」という乗換を調べるタスクを実行するためのキーワードが含まれていないため、乗換を調べるタスクではなく、例えば、地名のみから起動される横浜の地図を調べるタスクが実行されてしまうこととなる。
 一方で、以前のタスクである乗換を調べるタスクが引き継がれたとすると、ユーザの希望通り、横浜駅までの乗換が調べられることが可能となる。しかし、このように一律にタスクを引き継ぐものとすると、「東京までの乗換」との発話の後にユーザが乗換ではなく、カレーの店舗を調べたいため「カレー」と発話した場合であっても、再度、乗換を調べるタスクが実行されてしまうこととなる。上記のように単に入力された単語によってタスクを実行することとすると、連続して入力された単語により適切なタスクを実行することができない。
 本発明は、上記の問題点に鑑みてなされたものであり、連続して入力された単語による機能の実行を適切に行うことができる機能実行指示システム、機能実行指示方法及び機能実行指示プログラムを提供することを目的とする。
 上記の目的を達成するために、本発明の一実施形態に係る機能実行指示システムは、機能毎に予め設定されたカテゴリに関連する1つ以上の機能の実行を指示する機能実行指示手段と、単語を含む情報を入力する単語入力手段と、単語入力手段によって入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定手段と、カテゴリ特定手段によって特定されたカテゴリに応じて、1つ以上の機能から機能実行指示手段によって実行が指示される機能を決定する実行機能決定手段と、を備え、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリ、及び過去に機能実行指示手段によって実行が指示された機能に関連するカテゴリに基づいて、当該過去に機能実行指示手段によって実行が指示された機能の実行をこれから指示するか否か判断する。
 本発明の一実施形態に係る機能実行指示システムでは、機能に関連するカテゴリと入力された単語のカテゴリとに基づいて、過去に実行が指示された機能の実行をこれから指示するか否かが判断される。これにより、例えば、過去に実行された機能を引き続いて実行すべきか、新たな機能を実行すべきか適切に判断される。即ち、本発明の一実施形態に係る機能実行指示システムによれば、連続して入力された単語による機能の実行を適切に行うことができる。
 機能実行指示システムは、機能実行指示手段によって実行が指示された機能を記憶する実行機能記憶手段を更に備え、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリ、及び実行機能記憶手段によって記憶された過去に機能実行指示手段によって実行が指示された機能に関連するカテゴリに基づいて、当該過去に機能実行指示手段によって実行が指示された機能の実行をこれから指示するか否か判断する、こととしてもよい。
 1つ以上の機能の少なくとも何れかに、予め設定した単語が対応付けられており、実行機能決定手段は、単語入力手段によって入力された単語及び予め設定した単語にも基づいて、1つ以上の機能から機能実行指示手段によって実行が指示される機能を決定する、こととしてもよい。この構成によれば、例えば、機能に深く関連する単語に基づいて、適切に機能を実行することができる。
 実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリに応じて、当該カテゴリに係る単語が単語入力手段によって入力される直前に機能実行指示手段によって実行が指示された機能の実行を指示するか否か判断することとしてもよい。この構成によれば、例えば、直前に実行された機能を引き続いて実行すべきか、新たな機能を実行すべきか適切に判断され、連続して入力された単語による機能の実行を適切に行うことができる。
 機能実行指示手段によって実行が指示される機能には、単語入力手段によって入力された情報に含まれると共に当該機能に関連するカテゴリの単語を入力する機能が含まれており、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリの単語が、過去に機能実行指示手段によって実行が指示された機能への入力が可能か否かを判断して、当該判断に応じて当該過去に機能実行指示手段によって実行が指示された機能の実行を指示するか否かを判断する、こととしてもよい。この構成によれば、機能の実行と合わせて、入力された単語を当該機能への入力とすることができ、ユーザの利便性を向上させることができる。例えば、上述した乗換案内の機能の実行と合わせて、入力された駅名による案内を行うことができる。また、より適切に過去に実行された機能を実行するか否かを判断することができ、より適切に本発明の一実施形態を実施することができる。
 実行機能決定手段は、過去に機能実行指示手段によって実行が指示された機能の実行をこれから指示すると判断した場合に、当該過去に前記機能実行指示手段によって実行が指示された機能への入力とされた単語を当該機能への入力とする、こととしてもよい。この構成によれば、過去に実行された機能で用いられた単語を新たに実行される機能への入力とすることができ、更にユーザの利便性を向上させることができる。例えば、上述した乗換案内の機能において、着駅のみを変更した案内を行うことができる。
 また、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリと、過去に実行が指示された機能への入力とされた単語のカテゴリとが一致するか否かを判断して、一致すると判断した場合に当該機能の実行をこれから指示すると判断することとしてもよい。この構成によれば、更に適切に本発明の一実施形態を実施することができる。
 機能実行指示システムは、音声を入力して、入力した音声に対して音声認識を行って、音声認識を行った結果を単語入力手段に入力する音声認識手段を更に備えることとしてもよい。この構成によれば、ユーザの音声によって機能を実行することが可能となる。
 ところで、本発明は、上記のように機能実行指示システムの発明として記述できる他に、以下のように機能実行指示方法及び機能実行指示プログラムの発明としても記述することができる。これはカテゴリ等が異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。
 即ち、本発明の一実施形態に係る機能実行指示方法は、機能毎に予め設定されたカテゴリに関連する1つ以上の機能の実行を指示する機能実行指示ステップと、単語を含む情報を入力する単語入力ステップと、単語入力ステップにおいて入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定ステップと、カテゴリ特定ステップにおいて特定されたカテゴリに応じて、1つ以上の機能から機能実行指示ステップにおいて実行が指示される機能を決定する実行機能決定ステップと、を含み、実行機能決定ステップにおいて、カテゴリ特定ステップにおいて特定されたカテゴリ、及び過去に機能実行指示ステップにおいて実行が指示された機能に関連するカテゴリに基づいて、当該過去に機能実行指示ステップにおいて実行が指示された機能の実行をこれから指示するか否か判断する。
 また、本発明の一実施形態に係る機能実行指示プログラムは、コンピュータを、機能毎に予め設定されたカテゴリに関連する1つ以上の機能の実行を指示する機能実行指示手段と、単語を含む情報を入力する単語入力手段と、単語入力手段によって入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定手段と、カテゴリ特定手段によって特定されたカテゴリに応じて、1つ以上の機能から機能実行指示手段によって実行が指示される機能を決定する実行機能決定手段と、して機能させ、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリ、及び過去に機能実行指示手段によって実行が指示された機能に関連するカテゴリに基づいて、当該過去に機能実行指示手段によって実行が指示された機能の実行をこれから指示するか否か判断する。
 本発明の一実施形態では、機能に関連する(対応付けられた)カテゴリと入力された単語のカテゴリとに基づいて、過去に実行が指示された機能の実行をこれから指示するか否かが判断される。これにより、例えば、過去に実行された機能を引き続いて実行すべきか、新たな機能を実行すべきか適切に判断される。即ち、本発明の一実施形態によれば、連続して入力された単語による機能の実行を適切に行うことができる。
本発明の実施形態に係る機能実行指示システムの構成を示す図である。 機能実行指示システムにおいて実行されるタスクとスロットとの対応関係を示す図である。 単語からカテゴリを特定するための情報を示す表である。 ユーザの発話が「東京までの乗換」というものであった場合のタスク毎のスコアを示す表である。 ユーザの発話が「やっぱり横浜」というものであった場合のタスク毎のスコアを示す表である。 ユーザの発話が「カレー」というものであった場合のタスク毎のスコアを示す表である。 本発明の実施形態に係る機能実行指示システムを構成する機能実行指示サーバ及び音声認識サーバのハードウェア構成を示す図である。 本発明の実施形態に係る機能実行指示システムで実行される処理(機能実行指示方法)を示すフローチャートである。 本発明の実施形態に係る機能実行指示プログラムの構成を、記録媒体と共に示す図である。
 以下、図面と共に本発明に係る機能実行指示システム、機能実行指示方法及び機能実行指示プログラムの実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
 図1に本実施形態に係る機能実行指示システム1を示す。機能実行指示システム1は、機能実行指示サーバ10と音声認識サーバ20とを備えて構成される。機能実行指示システム1は、通信端末30に対して予め設定された1つ以上の機能の実行を指示するシステムである。機能実行指示システム1から通信端末30に対して実行が指示される機能は、例えば、乗換案内、グルメ検索、画像検索、音楽検索、音楽プレーヤ、スケジューラ、メール、メモ、ルート案内、地図検索が相当する。なお、本実施形態では、実行される機能をタスクと呼ぶ。具体的には、乗換案内、グルメ検索、画像検索、音楽検索、地図検索に関しては、例えば、通信端末30において案内や検索結果の情報が表示出力される。
 通信端末30は、通信網(例えば、移動体通信網)を介して機能実行指示サーバ10及び音声認識サーバ20等と通信を行うことができる装置であり、例えば、携帯電話機やPC(Personal Computer)に相当する。上記のタスクは、ユーザの音声をトリガとして実行されるため、通信端末30はユーザの音声を入力する機能を有している。また、通信端末30は、機能実行指示システム1からの指示を受けてタスクを実行する機能、例えば、情報の受信機能、情報処理機能及び表示機能等を有している。
 即ち、通信端末30は、1つ以上の(あるいは複数の)タスクを実行する機能実行手段を有している。具体的には、通信端末30は、タスクに対応するアプリケーションプログラムを予め記憶しておき、記憶したアプリケーションプログラムを実行(起動)することによってタスクを実行する。通信端末30によって実行されるタスクは、後述するように機能実行指示サーバ10によって指示される。また、タスクの実行は、アプリケーションを実行する以外にも、ネットワークからタスクに応じた情報を取得することで行われてもよい。
 機能実行指示システム1による通信端末30に対するタスクの実行の指示は、次のように行われる。まず、通信端末30がユーザの音声を入力する。入力された音声は、通信端末30から音声認識サーバ20に送信される。音声認識サーバ20は、通信端末30から音声を受信し、受信した音声に対して音声認識を行う。音声認識サーバ20は、音声認識の結果である文章あるいは単語の集合を通信端末30に送信する。通信端末30は、音声認識の結果を受信して、更に機能実行指示サーバ10に送信する。機能実行指示サーバ10は、当該音声認識の結果を受信して、その音声認識の結果に基づいて実行すべきタスクを決定して、当該タスクを実行するように通信端末30に指示する。例えば、機能実行指示サーバ10は、実行すべきタスクを示す情報を通信端末30に送信する。通信端末30は、機能実行指示サーバ10からの指示を受信して、当該指示に応じたタスクを実行する。なお、音声認識の結果である文章あるいは単語の集合はいったん通信端末30に送られることなく、音声認識サーバ20から機能実行指示サーバ10へ直接送信されてもよい。更に、機能実行指示サーバ10と音声認識サーバ20は一体であってもよい。
 例えば、通信端末30のユーザが「東京駅の乗換」と発話した場合には、機能実行指示サーバ10において、通信端末30の現在位置の最寄り駅から東京駅までの乗換案内のタスクが実行されるものと判断されて、乗換案内のタスクの実行が通信端末30に指示される。なお、上記のように乗換案内のタスクが実行される場合には、そのタスクの実行の際に通信端末30の現在位置の取得が行われる。このように、タスクによっては必要に応じて付加的な情報の取得が行われる。以上が、本実施形態に係る機能実行指示システム1の概要である。
 引き続いて、本実施形態に係る機能実行指示システム1の機能について説明する。音声認識サーバ20は、音声を入力して、入力した音声に対して音声認識を行い、音声認識を行った結果を出力する音声認識手段である装置である。具体的には、上述したように音声認識サーバ20は、通信端末30から音声データを受信する。音声認識サーバ20は、音声認識エンジンを有しており、当該音声認識エンジンを用いて音声認識を行う。音声認識自体は、従来の任意の音声認識方法を利用することができる。音声認識サーバ20は、音声認識結果を単語の集合(1以上の単語からなる単語群)あるいは文章として取得して、通信端末30に送信する。
 図1に示すように、機能実行指示サーバ10は、機能実行指示部11と、単語入力部12と、カテゴリ特定部13と、実行機能決定部14と、実行機能記憶部15とを備えて構成される。
 機能実行指示部11は、通信端末30に対して、1つあるいは複数のタスクの実行を指示する機能実行指示手段である。具体的には、機能実行指示部11は、タスクを実行させるコマンドを通信端末30に送信することでタスクの実行を指示する。機能実行指示部11によって実行が指示されるタスクは、後述するように実行機能決定部14によって決定される。
 タスクは、タスク毎に予め設定されたカテゴリに関連する(対応付けられている)。カテゴリは、例えば、単語を属性毎に区分けするものである。例えば、カテゴリは、「駅」、「商業施設名」、「海外旅行」及び「料理名」である。例えば、乗換案内のタスクであれば、「駅」のカテゴリに関連する(対応付けられている)。また、グルメ検索のタスクであれば、「料理名」のカテゴリに関連する(対応付けられている)。また、タスクは、予め設定した単語に対応付けられていてもよい。例えば、乗換案内のタスクであれば、「乗換」という単語に対応付けられている。これらの対応付けは、例えば、予め機能実行指示システム1の管理者等によって機能実行指示サーバ10に入力されて記憶されている。これらの関連及び対応付けは、後述するように実行が指示されるタスクの判断に用いられる。具体的にどのように用いられるかは後述する。
 また、実行が指示されるタスクには、単語を入力(引数)とする機能がある。これをタスクのスロットと呼ぶ。スロットは予め定められている。例えば、図2に示すように乗換案内のタスクであれば、発駅や着駅をスロットへの入力としてタスクが実行される。あるいは、グルメ検索のタスクであれば、料理名をスロットへの入力として、入力された料理に関しての店舗が検索される。なお、タスクには0個以上のスロットが定義されている。即ち、スロットがないタスクもある。
 図2に示すように、スロットには、それぞれ「スロット型」、「サイズ」、「必須?」、「引き継ぐ?」の情報が対応付けられている。「スロット型」は、スロットに入力されるカテゴリ(スロットに受け入れることができる単語の型)を特定する情報等であり、例えばカテゴリIDの情報等を示している(保持している)。即ち、スロットには、単語のカテゴリが対応付けられえる。図2の例では、着駅及び発駅に対応するスロットのスロット型として「type_station」が保持されているが、これは当該スロットに対して、単語のカテゴリとして「駅」が入力可能であることを表している。また、スロット型は、単語が特定の表現だった場合に単語を入力可能とするものとしてもよい。例えば「~まで」(図2の着駅のto.*type_stationに相当)や「~から」(図2の着駅のfrom.*type_stationに相当)等の表現の場合に「~」に対応する単語をスロットに入力するものであってもよい。また、「スロット型」は、特定のカテゴリを特定するものでなくてもよく、任意のカテゴリの単語が入力できるようになっていてもよい。「サイズ」は、スロットに入力される単語の数を示している。「必須?」は、当該タスクを実行する際に単語の入力が必須であるか否かを示している。もし、「必須?」の欄のTrueのスロットに入力される単語が無い場合には、タスクを実行せずにスロット内容を聞き返して、ユーザに対して当該スロットへの入力を促すこととしてもよい。
 「引き継ぐ?」は、後述するように当該タスクが引き続き実行される場合にスロットへの入力も引き継ぐか否かを示している。また、各スロットには、スロットへの単語の入力が無かった場合に予め設定された単語(デフォルトの単語)が入力されるかを示す情報が対応付けられていてもよい。例えば、乗換案内の場合は、発駅については、GPS(Global Positioning System)等で取得されるユーザの現在位置から最も近い駅の駅名をデフォルトの単語として入力することとしてもよい。
 単語入力部12は、単語を含む情報を入力する単語入力手段である。具体的には、単語入力部12は、通信端末30から、音声認識サーバ20による音声認識の結果である1つ以上の単語を示す情報を受信することで上記の情報を入力する。あるいは、音声認識サーバ20による音声認識の結果が文章(入力文)である場合には、単語入力部12は、文章を受信して、文章から単語を抽出する、又は文書を単語に切り分けることで単語を取得する。なお、文章から単語を取得する方法は、形態素辞書を用いた形態素解析等の従来の任意の方法を用いることができる。単語入力部12に入力される単語は、通信端末30に対するユーザの発話単位である。即ち、一回の発話に含まれる単語群を一つの単位として扱う。単語入力部12は、取得した単語を示す情報をカテゴリ特定部13に入力する。
 カテゴリ特定部13は、単語入力部12から入力された単語のカテゴリを特定するカテゴリ特定手段である。具体的には例えば、カテゴリ特定部13は、図3に示すように単語のカテゴリを特定するための情報を予め記憶しておき、その情報に基づいてカテゴリの特定を行う。この情報は、例えば、予め機能実行指示システム1の管理者等によって機能実行指示サーバ10に入力されて記憶されている。この情報は、図3に示すようにカテゴリを特定する情報であるカテゴリID及びカテゴリタグ(カテゴリ名)に単語が対応付けられたものである。1つのカテゴリID及びカテゴリタグには、1つ以上の単語が対応付けられている。例えば、カテゴリIDが「type_station」でカテゴリタグが「駅」というカテゴリには、「大阪」、「大阪駅」、「東京」、「東京駅」、「横浜」及び「横浜駅」という単語が対応付けられている。
 カテゴリ特定部13は、単語入力部12から入力された単語それぞれについて、図3に示す情報に含まれる単語と一致しているか否かを判断して、一致していた場合にはその単語に対応付けられたカテゴリを、単語入力部12から入力された単語のカテゴリと特定する。また、カテゴリ特定部13は、図3に示すようなカテゴリと単語との対応関係を示す情報を用いずに、例えば、固有表現抽出(Named Entity Extraction)の技術によってカテゴリを特定することとしてもよい。また、カテゴリ特定部13は、予め正規表現を記憶しておき、単語が記憶した正規表現に合致するか否かでカテゴリを特定することとしてもよい。例えば、単語がある正規表現に合致した場合は、その単語はその正規表現に合致するカテゴリであると特定される。あるいは、カテゴリ特定部13は、通信端末30が記憶した電話帳データを取得し、単語が電話帳データに含まれる単語か否かを判断することでカテゴリを特定することとしてもよい。例えば、単語が電話帳データに含まれる場合は、その単語は電話帳データに存在する単語のカテゴリであると特定される。カテゴリ特定部13は、単語入力部12から入力された単語、及び特定した当該単語のカテゴリを示す情報を実行機能決定部14に出力する。なお、必ずしも全て単語についてカテゴリを特定する必要はなく、カテゴリが特定されていない単語があってもよい。
 実行機能決定部14は、カテゴリ特定部13によって特定されたカテゴリに応じて、機能実行指示部11によって実行が指示されるタスクを決定する実行機能決定手段である。例えば、実行機能決定部14は、上述したようなタスクとカテゴリとの関連(対応付け)に基づいて実行が指示されるタスクを決定する。具体的には、タスク毎にカテゴリのスコアを記憶しておき、ユーザの発話単位で入力された単語のスコアを特定して、特定したスコアに基づいて実行が指示されるタスクを決定する。各カテゴリのスコアは、タスクとの関連度合に応じて定められている。
 例えば、ユーザの発話が「東京までの乗換」というものであったとする。この場合、図4に示すように、ユーザの発話は、「東京」、「まで」、「の」、「乗換」という単語に分けられる。そして、タスク毎に各単語に対応づけられたカテゴリのスコアを求め、それらが合計されてタスク毎のスコアが算出される。図4に示すように各単語のスコアを特定し、それらを合計することで各タスク(図4の例では「乗換案内」、「グルメ検索」、「地図検索」のタスク)のスコアが合計される。スコアは、カテゴリだけでなく単語単位で定められていてもよい。例えば、「乗換」という単語は「乗換案内」のタスクに強く関連付けられるので、「乗換案内」のタスクには「乗換」という単語自体のスコアが対応付けられている。このように、単語入力部12によって入力された単語及び予め設定した単語にも基づいて、実行が指示されるタスクが決定されてもよい。
 実行機能決定部14は、例えば、スコアが最も高いタスクを、機能実行指示部11によって実行が指示されるタスクとして決定する。実行機能決定部14は、機能実行指示部11に対して、決定したタスクを通知する。この通知がされると、機能実行指示部11から通信端末30に対してタスクの実行が指示される。また、この通知の際に、単語入力部12によって入力された単語のうち、実行されるタスクのスロットへの入力となる単語(カテゴリがスロットのカテゴリと一致する単語)も合わせて通知することとしてもよい。スロットへの入力となる単語も、機能実行指示部11から通信端末30に対してタスクの実行の指示と合わせて送信される。例えば、「東京までの乗換」という発話によって「乗換案内」のタスクが実行される場合には、「駅」カテゴリである「東京」という単語が、「駅」カテゴリの単語に対応付けられた着駅のスロットの入力とされる。この場合、発駅のスロットには、ユーザの現在位置から最も近い駅の駅名がデフォルトの単語として入力される。これにより、ユーザの現在位置から最も近い駅から東京駅までの乗換が検索されて、その結果がユーザに提示される。なお、タスクの実行の上でスロットへの入力が不足している場合には、その時点でユーザにスロットへの入力を促して、改めてスロットに入力する単語を入力することとしてもよい。
 上記のように、実行機能決定部14は、これから機能実行指示部11によって実行が指示されるタスクを決定するが、このタスクの決定を過去に機能実行指示部11によって実行が指示されたタスクに基づくこととしてもよい。具体的には、過去に実行が指示されたタスクを引き続いて実行するか否かを判断する。例えば、過去に「乗換案内」のタスクの実行が指示されて(当該タスクが実行されて)おり、その後、ユーザの発話に基づく単語の入力が機能実行指示サーバ10に対してあった場合、「乗換案内」のタスクの実行を引き続いて指示するか否かを判断する。そのための構成を以下に説明する。
 実行機能記憶部15は、機能実行指示部11によって実行が指示されたタスクを記憶する実行機能記憶手段である。例えば、実行機能記憶部15は、機能実行指示部11から実行が指示されたタスクを示す情報(例えば、タスク名)を入力して、入力したタスクを示す情報を記憶する。この際、タスクの実行指示時刻を合わせて記憶しておいてもよい。また、実行機能記憶部15は、タスクの実行指示の際にスロットに入力された単語も合わせて機能実行指示部11から入力して、当該単語も実行されたタスクと合わせて記憶しておいてもよい。実行機能記憶部15に記憶された情報は、以下のように実行機能決定部14によって適宜参照される。
 実行機能決定部14は、カテゴリ特定部13によって特定されたカテゴリ、及び実行機能記憶部15によって記憶された過去に機能実行指示部11によって実行が指示されたタスクに関連する(対応付いた)カテゴリに基づいて、当該過去に機能実行指示部11によって実行が指示されたタスクをこれから実行指示するか否か判断する。このとき、引き続いて実行指示するか否かを判断するタスクは、単語の入力が機能実行指示サーバ10に対してなされた直前に機能実行指示部11によって実行が指示されたタスク(1回前に実行が指示されたタスク)の実行を指示するか否か判断することとしてもよい。即ち、2回以上前に実行が指示されたタスクは、引き続き実行が指示されるタスクの対象とならないこととしてもよい。更に、単語の入力から遡って予め設定した一定時間以内(例えば、1時間以内)に実行が指示されたタスクのみを引き続いて実行が指示される候補のタスクとすることとしてもよい。
 具体的には、実行機能決定部14は、実行機能記憶部15によって記憶された過去に機能実行指示部11によって実行が指示されたタスクに関連する(対応付いた)カテゴリと、カテゴリ特定部13によって特定されたカテゴリとが一致しているか否かを判断して、当該判断に応じて当該過去に機能実行指示部11によって実行が指示された機能の実行を指示するか否かを判断する。例えば、実行機能決定部14は、カテゴリ特定部13によって特定された単語のカテゴリが、過去に機能実行指示部11によって実行が指示されたタスクのスロットに対応付いたカテゴリと一致している(カテゴリ特定部13によって特定された単語がタスクのスロットに入力可能である)か否かを判断することで上記の判断を行う。カテゴリ特定部13によって特定された単語のカテゴリが、過去に機能実行指示部11によって実行が指示されたタスクのスロットに対応付いたカテゴリと一致していると判断された場合、当該過去に実行指示されたタスクを引き続いて実行指示すると判断し、一致していないと判断された場合、タスクの引き続きの実行指示が行われない、即ち、新たなタスクの実行を指示すると判断する。
 このとき、カテゴリ特定部13によって特定された単語のカテゴリが、過去に機能実行指示部11によって実行が指示されたタスクのスロットに対応付いたカテゴリ全てと一致する場合のみ引き続いてタスクの実行を指示するとしてもよいし、スロットの一部に対応付いたカテゴリと一致する場合に引き続いてタスクの実行を指示するとしてもよい。また、カテゴリ特定部13によって特定された単語のカテゴリ全てが、過去に機能実行指示部11によって実行が指示されたタスクのスロットの何れかに対応付いたカテゴリと一致する場合のみ引き続いてタスクの実行を指示する(即ち、カテゴリ特定部13によって特定された単語のカテゴリ全てが、過去に機能実行部11によって実行が指示されたタスクのスロットの何れかに対応付いたカテゴリと一致し、かつ、入力文の中に、いずれのカテゴリとも対応づいておらず、従っていずれのスロットと対応づかない名詞がひとつも存在しない場合のみ引き続いてタスクを実行指示する)としてもよいし、カテゴリ特定部13によって特定された単語の一部のカテゴリが、過去に機能実行指示部11によって実行が指示されたタスクのスロットの何れかに対応付いたカテゴリと一致する場合に引き続いてタスクの実行を指示するとしてもよい。なお、過去に機能実行指示部11によって実行が指示されたタスクのスロットが、カテゴリを特定するタイプでない場合(任意のカテゴリの単語を入力できるタイプである場合、例えば、「画像検索」のタスクに対する「検索ワード」のスロット)には、どのカテゴリの単語が入力されても常に引き続きのタスクの実行が指示されてしまうおそれがあるため、上記の判断を行わないこととしてもよい。
 但し、この場合であっても、入力された単語のカテゴリが、過去に機能実行指示部11によって実行が指示されたタスクのスロットに入力された単語のカテゴリと一致するか否かを判断して、それらが一致したと判断された場合(直前の発話の単語のカテゴリと入力された単語のカテゴリとが一致した場合)には、引き続いてタスクの実行を指示するとしてもよい。この構成によれば、スロットに任意のカテゴリの単語を入力できるタスクであっても適切にタスクの引き継ぎを判断することができる。
 また、実行機能決定部14は、過去に機能実行指示部11によって実行が指示されたタスクをこれから実行指示する(タスクを引き続き実行する)と判断した場合に、カテゴリがスロットに対応付けられたカテゴリと一致した単語をスロットへの入力として機能実行指示部11に実行を指示させる。また、実行機能決定部14は、タスクのスロットの一部(あるいは全部)について、実行機能記憶部15によって記憶された過去のスロットへの入力とされた単語を当該タスクへの入力とすることとしてもよい。この場合、図2に示すタスクの各スロットにおいて、「引き継ぐ?」の欄の情報が、単語の入力を引き継ぐこと示すもの(True)であった場合のみに単語の入力の引き継ぎが行われてもよい。実行機能決定部14は、上記の判断によってタスクの引き続きの実行が行われないと判断した場合には、上述したスコアによるタスクの実行の指示を判断する。
 上述した例のように「東京までの乗換」という発話によって「乗換案内」のタスクの実行が指示された場合、実行機能記憶部15に、過去に実行が指示されたタスクとして「乗換案内」が記憶されており、着駅のスロットの入力として「東京」という単語が記憶されている。その後のユーザの発話が「やっぱり横浜」というものであったとする。この場合、「横浜」という単語が「駅」カテゴリであるため、過去に実行された「乗換案内」のタスクの着駅のスロットに対応付いたカテゴリと一致すると判断される。従って、過去に実行された「乗換案内」のタスクが引き続いて再度実行が指示されるものと判断される。その際、着駅のスロットには「横浜」が入力される。なお、発駅については、「東京までの乗換」の際と同様にユーザの現在位置から最も近い駅の駅名が引き継がれる(図2に示すように発駅の「引き継ぐ」の欄はTrueになっている)。
 一方で上述のような実行機能決定部14によるタスクを引き続き実行指示するか否かの判断を行わず、「やっぱり横浜」という発話によってスコアを決定する場合について説明する。この場合、図5に示すように、ユーザの発話は、「やっぱり」、「横浜」という単語に分けられる。そして、上述した例と同様にタスク毎に各単語のスコアが特定されて、それらが合計されてタスク毎のスコアが算出される。この場合、ユーザの発話には「乗換案内」に関連が高い単語が含まれていないため、最も高いスコアは、「乗換案内」ではなく「横浜」という地名だけでスコアが高くなる「地図検索」となる。「東京までの乗換」とユーザが発話した後、「やっぱり横浜」とユーザが発話した場合には、ユーザは横浜駅までの乗換を知りたいと考えられる。上述したようにタスクの引き継ぎを判断した場合、適切に「乗換案内」のタスクの実行が指示される。一方で、(本実施形態とは異なり)上記のようにユーザの発話から独立して実行されるタスクを判断すると、ユーザの意図とは異なる「地図検索」というタスクが実行されることとなる。
 また、「東京までの乗換」との発話後のユーザの発話が「カレー」というものであったとする。この場合、「カレー」という単語が「料理名」カテゴリであるため、過去に実行の指示がされた「乗換案内」のタスクのスロットに対応付いたカテゴリと一致しないと判断される。従って、過去に実行が指示された「乗換案内」のタスクが引き続いて再度実行されないと判断される。
 この場合、実行機能決定部14は、「カレー」という発話によるスコアを計算することで、実行を指示するタスクを決定する。図6に示すように、ユーザの発話は、「カレー」という単語のみから構成される。そして、上述した例と同様にタスク毎に各単語に対応付けられたカテゴリのスコアが特定されて、それらが合計されてタスク毎のスコアが算出される。この場合、「グルメ検索」が最も高いスコアとなり、「グルメ検索」のタスクが実行されるものと判断される。「東京までの乗換」とユーザが発話した後、「カレー」とユーザが発話した場合には、全く異なる話題であるため、「乗換案内」ではなく「カレー」に関する情報を知りたいと考えられる。上述したように、この場合はタスクを引き継ぐものとは判断されずに、ユーザの発話からタスクのスコアが算出されて「グルメ検索」のタスクの実行が指示されることとなる。
 別の例として、過去に実行が指示されたタスクがカレーに関する「グルメ検索」であり、グルメ検索の対象となる地域を示すスロットに「東京」が入力されていた場合には、「やっぱ大阪」との入力があった場合には、「東京」の部分が「大阪」で上書きされてカレーに関する「グルメ検索」の実行が指示されるものと判断される。
 なお、タスクの遷移については、特定の場合には強制的に行うことができるようにしておくこととしてもよい。例えば、通信端末30に対するユーザの操作によって通信端末30から新たなタスクに遷移させる旨の情報を受信した場合には、タスクの遷移を強制的に行わせることとしてもよい(タスクの引き継ぎを行わない)。
 実行機能決定部14による実行が指示されるタスクの判断は、以下のように行われてもよい。入力される単語群(ユーザの発話)から、実行が指示されるタスクを判断する場合、上述したようにタスク毎に単語に応じたスコアを出していたが、必ずしもスコアを算出する必要はない。例えば、タスクと単語(カテゴリ)とを対応付けておき、タスク毎に入力された単語群にタスクに対応付けられた単語(カテゴリ)が含まれているか否かを判断して、含まれていると判断された場合当該タスクの実行を指示することとしてもよい。
 また、入力した単語や文章中に特定のタスクと強い関連性を持つキーワード(強いキーワード)があると判断した場合(スコアが極めて大きい値となる場合)には、過去に実行を指示したタスクを引き継ぐことはせず、新たに入力した単語や文章から実行を指示するタスクを判断してもよい。即ち、強制的にタスク遷移させてもよい。例えば、「乗換」という単語が含まれていたら、関連性の強い「乗換案内」のタスクを実行するようにする。
 また、タスクを引き継がずに新たなタスクの実行を指示した場合、即ち、タスクが遷移した場合であっても、スロットに入力される単語を引き継ぐこととしてもよい。この場合、タスク遷移前のスロット内容から引継ぎ可能な単語を全て取り出す。切り替え後のタスクにおいては、スロット内容は一旦全て空になっている。上記の取り出された引継ぎ可能な単語を、切り替え後のタスクのスロットに入力する(埋める)ことを試みる(入力できない単語は捨てる)。入力された単語をスロット入力のルールに従ってスロットに入力する。以上が、本実施形態に係る機能実行指示システム1の機能構成である。
 図7に本実施形態に係る機能実行指示サーバ10及び音声認識サーバ20を構成するサーバ装置のハードウェア構成を示す。図7に示すように当該サーバ装置は、CPU(Central Processing Unit)101、主記憶装置であるRAM(Random Access Memory)102及びROM(Read Only Memory)103、通信を行うための通信モジュール104、並びにハードディスク等の補助記憶装置105等のハードウェアを備えるコンピュータを含むものとして構成される。これらの構成要素がプログラム等により動作することにより、上述した機能実行指示サーバ10及び音声認識サーバ20の機能が発揮される。以上が、本実施形態に係る機能実行指示システム1の構成である。
 引き続いて、図8のフローチャートを用いて、本実施形態に係る機能実行指示システム1で実行される処理である機能実行指示方法を説明する。本処理では、まず、本実施形態に係る機能実行指示システム1による機能実行の指示を受けるための通信端末30に対するユーザの操作が行われて、通信端末30に、機能を実行させるためのユーザの音声(発話)が入力される。続いて、当該音声が通信端末30から音声認識サーバ20に送信される。音声認識サーバ20では、当該音声が受信されて入力される(S01、音声認識ステップ)。続いて、音声認識サーバ20では、入力された音声に対して音声認識が行われる(S02、音声認識ステップ)。音声認識結果である単語の集合あるいは文章を示す情報が音声認識サーバ20から通信端末30に送信される。通信端末30では、その情報が受信されて、機能実行指示サーバ10に送信される。
 機能実行指示サーバ10では、単語入力部12によって、音声認識結果である単語を含む情報が受信されて入力される(S03、単語入力ステップ)。入力された情報は、単語入力部12からカテゴリ特定部13に出力される。続いて、カテゴリ特定部13によって、単語入力部12から入力された情報に含まれる単語のカテゴリが特定される(S04、カテゴリ特定ステップ)。特定されたカテゴリの情報は単語と共にカテゴリ特定部13から実行機能決定部14に出力される。
 続いて、実行機能決定部14によって、実行が指示されるタスクの候補が決定される(S05、実行機能決定ステップ)。タスク候補の決定は、図4~図6を用いて説明したように入力された単語及び当該単語のカテゴリに基づいて、タスク毎にスコアが算出されることによって行われる。最も高いスコアのタスクが実行されるタスク候補となる。
 続いて、実行機能決定部14によって、カテゴリ特定部13によって特定されたカテゴリ、及び実行機能記憶部15によって記憶された過去に機能実行指示部11によって実行が指示されたタスクのスロットに対応付いたカテゴリに基づいて、当該過去に機能実行指示部11によって実行が指示されたタスクの実行をこれから指示するか否かが判断される(S06、実行機能決定ステップ)。即ち、直前に実行が指示されたタスクを引き続いて実行指示するか、新たなタスクを実行指示するか(タスク遷移するか)が判断される。なお、過去に実行が指示されたタスクが無い場合や、過去に実行指示されたタスクがあっても、過去に実行指示されたタスクが一定期間以前の実行指示であるため判断に利用しないものである場合等には、上記の判断は行われなくてよい。この場合、S03で入力された単語に基づいて実行が指示されるタスクが決定される。
 直前に実行が指示されたタスクの実行を引き続いて指示すると判断した場合、当該タスクが実行指示されるタスクとして決定される(S07、実行機能決定ステップ)。一方で、タスク遷移すると判断された場合、S05においてタスク候補とされたタスクが実行指示されるタスクとして決定される(S07、実行機能決定ステップ)。続いて、決定したタスクの実行を指示するように実行機能決定部14から機能実行指示部11に指示が行われる。この際、タスクのスロットに入力される単語も合わせて機能実行指示部11に出力される。続いて、指示を受けた機能実行指示部11によって通信端末30に対してタスクの実行が指示される(S08、機能実行指示ステップ)。通信端末30では、この指示が受け付けられ、指示に係るタスクが実行される。
 続いて、機能実行指示部11によって実行が指示されたタスクを示す情報が、実行機能記憶部15によって記憶される(S09、実行機能記憶ステップ)。ここで記憶されたタスクを示す情報は、次にユーザの音声によってタスクの実行が指示される際に、実行が指示されるタスクの決定の際(S06)に参照される。音声によるタスクの実行(起動)の処理(S01~S09の処理)は繰り返し行われえる。以上が本実施形態に係る機能実行指示システム1で実行される処理である機能実行指示方法である。
 上述したように本実施形態では、タスクに関連する(対応付けられた)カテゴリと入力された単語のカテゴリとに基づいて、過去に実行が指示されたタスクの実行をこれから指示するか否かが判断される。これにより、例えば、過去に実行されたタスクを引き続いて実行すべきか、新たなタスクを実行すべきか適切に判断される。即ち、本実施形態によれば、連続して入力された単語による機能の実行を適切に行うことができる。
 例えば、上述した例のように「乗換案内」のタスクによって、東京駅までの乗換が調べられた後、「やっぱり横浜」と発話された場合には、タスクの引き継ぎが行われて横浜駅までの乗換が調べられる。一方で、「カレー」と発話された場合には、タスクの引き継ぎが行われず「グルメ検索」のタスクが実行される。本実施形態とは異なり、一律にタスクを引き継ぐとした場合は、「カレー」と発話された場合、「乗換案内」と「カレー」とが対応しないため、「カレー」が無視され、ユーザの意図とは異なり再度東京駅までの乗換が調べられてしまう。また、本実施形態とは異なり、一律にタスクを引き継がないとした場合は、「やっぱり横浜」と発話された場合、ユーザの意図とは異なり上述したように「地図検索」のタスクが実行されてしまう。上記のように本実施形態では、タスクの引き継ぎ、あるいはタスク遷移が、ユーザの意図に沿って適切に行われて適切なタスクが実行される。
 また、本実施形態のように「乗換」といった特定タスクとの関連が強いキーワードを予め設定した単語として設定しておき、上記キーワードに基づいて実行されるタスクが決定されることとしてもよい。この構成によれば、例えば、機能に深く関連する単語に基づいて、適切にタスクを実行することができる。
 また、上述した例のように直前に実行されたタスクを引き継いで実行するか判断することとしてもよい。この構成によれば、例えば、直前に実行されたタスクを引き続いて実行すべきか、新たなタスクを実行すべきか適切に判断され、連続して入力された単語による機能の実行を適切に行うことができる。但し、必ずしも、直前に実行されたタスクのみを引き継ぎの判断対象とする必要はなく、例えば、一定時間以内に実行された複数のタスクを引き継ぎの対象としてもよい。
 また、本実施形態のようにタスクにスロットを設けて、単語入力部12によって入力された単語をスロットに入力する構成としてもよい。この構成によれば、タスクの実行と合わせて、単語入力部12によって入力された単語を当該タスクへの入力とすることができ、適切なタスクの実行が可能となり、ユーザの利便性を向上させることができる。例えば、上述した「乗換案内」のタスクの実行と合わせて、入力された駅名による案内を行うことができる。
 また、本実施形態のようにタスクの引き継ぎの判断は、タスクに関連する(対応付いた)カテゴリ(スロットのカテゴリ)と、入力された単語のカテゴリとを比較して、それらが一致しているか判断することによって行うこととしてもよい。この構成によれば、より適切に過去に実行が指示されたタスクを実行指示するか否かを判断することができ、より適切に本発明を実施することができる。
 また、スロットに入力した単語を記憶しておき、記憶した単語を次にタスクの実行が指示されるときのスロットへの入力とすることとしてもよい。この構成によれば、過去に実行が指示されたタスクで用いられた単語を新たに実行される機能への入力とすることができ、更にユーザの利便性を向上させることができる。例えば、上述した「乗換案内」のタスクにおいて、着駅のみを変更した案内を行うことができる。
 また、本実施形態のように音声を入力して音声認識を行って、音声認識結果を入力される単語を含む情報とすることとしてもよい。この構成によれば、ユーザの音声によって機能を実行することが可能となる。
 但し、本実施形態においては、機能実行指示システム1において、音声認識サーバ20を含むこととしていたが、必ずしも音声認識サーバ20を含む必要はない。この場合、音声認識された結果、あるいは音声認識によらない単語群や文章が機能実行指示システム1に入力される。また、本実施形態では、機能実行指示サーバ10と音声認識サーバ20とが別体として構成されていたが、それらが一体として構成されていてもよい。この場合、音声認識結果を、通信端末30を介して送受信する必要がない。また、通信端末30等のユーザに用いられる端末に、機能実行指示サーバ10あるいは音声認識サーバ20の機能が備えられていてもよい。その場合、当該端末が本発明の一実施形態に係る機能実行指示システムとなる。あるいは、機能実行指示サーバ10がタスクを実行する機能を有しており、タスクの実行結果を通信端末30に提供する構成であってもよい。
 また、上述した実施形態では、機能実行指示部11によって実行が指示されたタスクを示す情報が、実行機能記憶部15に入力されて記憶されていた。しかしながら、実行機能記憶部15に記憶される情報は、機能実行指示部11からではなく、通信端末30から送信されて、機能実行指示サーバ10に受信されることとしてもよい。この場合、上述したような機能実行指示サーバ10の実行機能記憶部15の機能は必ずしも必要ない。
 この場合、通信端末30は、機能実行指示サーバ10(の機能実行指示部11)から直前に実行を指示されたタスク(当該指示によって実行された、あるいは実行されているタスク)を示す情報を、上記の音声認識の結果と合わせて機能実行指示サーバ10に送信する。例えば、通信端末30は、「やっぱり横浜」あるいは「カレー」という発話の情報と、実行中のタスクを示す「乗換案内」の情報とを機能実行指示サーバ10に送信する。機能実行指示サーバ10では、当該情報が受信されて、実行機能決定部14が受信された情報に基づいて上記と同様に実行が指示される機能を決定する。また、機能実行指示サーバ10の実行機能決定部14は、上記の情報以外の実行機能記憶部15に記憶される情報(例えば、直前に実行されたタスクのスロットに入力された情報)を、通信端末30から受信して、実行が指示される機能の決定及び実行の指示に用いることとしてもよい。
 引き続いて、上述した一連の機能実行指示サーバ10による処理をコンピュータに実行させるための機能実行指示プログラムを説明する。図9に示すように、機能実行指示プログラム50は、コンピュータに挿入されてアクセスされる、あるいはコンピュータが備える記録媒体40に形成されたプログラム格納領域41内に格納される。
 機能実行指示プログラム50は、機能実行モジュール51と、単語入力モジュール52と、カテゴリ特定モジュール53と、実行機能決定モジュール54と、実行機能記憶モジュール55とを備えて構成される。機能実行モジュール51と、単語入力モジュール52と、カテゴリ特定モジュール53と、実行機能決定モジュール54と、実行機能記憶モジュール55とを実行させることにより実現される機能は、上述した機能実行指示サーバ10の機能実行指示部11と、単語入力部12と、カテゴリ特定部13と、実行機能決定部14と、実行機能記憶部15との機能とそれぞれ同様である。また、機能実行指示プログラム50は、音声認識サーバ20の機能に対応するモジュールを備えていてもよい。
 なお、機能実行指示プログラム50は、その一部若しくは全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。また、機能実行指示プログラム50の各モジュールは、1つのコンピュータでなく、複数のコンピュータのいずれかにインストールされてもよい。その場合、当該複数のコンピュータによるコンピュータシステムよって上述した一連の機能実行指示プログラム50の処理が行われる。
 上記の目的を達成するために、本発明の一実施形態に係る機能実行指示システムは、機能毎に予め設定されたカテゴリに対応付けられた1つ以上の機能の実行を指示する機能実行指示手段と、単語を含む情報を入力する単語入力手段と、単語入力手段によって入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定手段と、カテゴリ特定手段によって特定されたカテゴリに応じて、1つ以上の機能から機能実行指示手段によって実行が指示される機能を決定する実行機能決定手段と、機能実行指示手段によって実行が指示された機能を記憶する実行機能記憶手段と、を備え、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリ、及び実行機能記憶手段によって記憶された過去に機能実行指示手段によって実行が指示された機能に対応付いたカテゴリに基づいて、当該過去に機能実行指示手段によって実行が指示された機能の実行をこれから指示するか否か判断する。
 1つ以上の機能の少なくとも何れかに、予め設定した単語が対応付けられており、実行機能決定手段は、単語入力手段によって入力された単語及び予め設定した単語にも基づいて、1つ以上の機能から機能実行指示手段によって実行が指示される機能を決定する、こととしてもよい。
 実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリに応じて、当該カテゴリに係る単語が単語入力手段によって入力される直前に機能実行指示手段によって実行が指示された機能の実行を指示するか否か判断することとしてもよい。
 機能実行指示手段によって実行が指示される機能には、単語入力手段によって入力された情報に含まれると共に当該機能に対応付いたカテゴリの単語を入力する機能が含まれており、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリの単語が、実行機能記憶手段によって記憶された過去に機能実行指示手段によって実行が指示された機能への入力が可能か否かを判断して、当該判断に応じて当該過去に機能実行指示手段によって実行が指示された機能の実行を指示するか否かを判断する、こととしてもよい。
 実行機能記憶手段は、機能実行指示手段によって実行が指示された機能と共に当該機能への入力とされた単語を記憶し、実行機能決定手段は、過去に機能実行指示手段によって実行が指示された機能の実行をこれから指示すると判断した場合に、実行機能記憶手段によって記憶された単語を当該機能への入力とする、こととしてもよい。
 また、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリと、実行機能記憶手段によって記憶された過去に実行が指示された機能への入力とされた単語のカテゴリとが一致するか否かを判断して、一致すると判断した場合に当該機能の実行をこれから指示すると判断することとしてもよい。
 機能実行指示システムは、音声を入力して、入力した音声に対して音声認識を行って、音声認識を行った結果を単語入力手段に入力する音声認識手段を更に備えることとしてもよい。
 本発明の一実施形態に係る機能実行指示方法は、機能毎に予め設定されたカテゴリに対応付けられた1つ以上の機能の実行を指示する機能実行指示ステップと、単語を含む情報を入力する単語入力ステップと、単語入力ステップにおいて入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定ステップと、カテゴリ特定ステップにおいて特定されたカテゴリに応じて、1つ以上の機能から機能実行指示ステップにおいて実行が指示される機能を決定する実行機能決定ステップと、機能実行指示ステップにおいて実行が指示された機能を記憶する実行機能記憶ステップと、を含み、実行機能決定ステップにおいて、カテゴリ特定ステップにおいて特定されたカテゴリ、及び実行機能記憶ステップにおいて記憶された過去に機能実行指示ステップにおいて実行が指示された機能に対応付いたカテゴリに基づいて、当該過去に機能実行指示ステップにおいて実行が指示された機能の実行をこれから指示するか否か判断する。
 本発明の一実施形態に係る機能実行指示プログラムは、コンピュータを、機能毎に予め設定されたカテゴリに対応付けられた1つ以上の機能の実行を指示する機能実行指示手段と、単語を含む情報を入力する単語入力手段と、単語入力手段によって入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定手段と、カテゴリ特定手段によって特定されたカテゴリに応じて、1つ以上の機能から機能実行指示手段によって実行が指示される機能を決定する実行機能決定手段と、機能実行指示手段によって実行が指示された機能を記憶する実行機能記憶手段と、して機能させ、実行機能決定手段は、カテゴリ特定手段によって特定されたカテゴリ、及び実行機能記憶手段によって記憶された過去に機能実行指示手段によって実行が指示された機能に対応付いたカテゴリに基づいて、当該過去に機能実行指示手段によって実行が指示された機能の実行をこれから指示するか否か判断する。
 1…機能実行指示システム、10…機能実行指示サーバ、11…機能実行指示部、12…単語入力部、13…カテゴリ特定部、14…実行機能決定部、15…実行機能記憶部、20…音声認識サーバ、101…CPU、102…RAM、103…ROM、104…通信モジュール、105…補助記憶装置、30…通信端末、40…記録媒体、41…プログラム格納領域、50…機能実行指示プログラム、51…機能実行モジュール、52…単語入力モジュール、53…カテゴリ特定モジュール、54…実行機能決定モジュール、55…実行機能記憶モジュール。

Claims (10)

  1.  機能毎に予め設定されたカテゴリに関連する1つ以上の機能の実行を指示する機能実行指示手段と、
     単語を含む情報を入力する単語入力手段と、
     前記単語入力手段によって入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定手段と、
     前記カテゴリ特定手段によって特定されたカテゴリに応じて、前記1つ以上の機能から前記機能実行指示手段によって実行が指示される機能を決定する実行機能決定手段と、を備え、
     前記実行機能決定手段は、前記カテゴリ特定手段によって特定されたカテゴリ、及び過去に前記機能実行指示手段によって実行が指示された機能に関連するカテゴリに基づいて、当該過去に前記機能実行指示手段によって実行が指示された機能の実行をこれから指示するか否か判断する機能実行指示システム。
  2.  前記機能実行指示手段によって実行が指示された機能を記憶する実行機能記憶手段を更に備え、
     前記実行機能決定手段は、前記カテゴリ特定手段によって特定されたカテゴリ、及び前記実行機能記憶手段によって記憶された過去に前記機能実行指示手段によって実行が指示された機能に関連するカテゴリに基づいて、当該過去に前記機能実行指示手段によって実行が指示された機能の実行をこれから指示するか否か判断する、請求項1に記載の機能実行指示システム。
  3.  前記1つ以上の機能の少なくとも何れかに、予め設定した単語が対応付けられており、
     前記実行機能決定手段は、前記単語入力手段によって入力された単語及び前記予め設定した単語にも基づいて、前記1つ以上の機能から前記機能実行指示手段によって実行が指示される機能を決定する、請求項1又は2に記載の機能実行指示システム。
  4.  前記実行機能決定手段は、前記カテゴリ特定手段によって特定されたカテゴリに応じて、当該カテゴリに係る単語が前記単語入力手段によって入力される直前に前記機能実行指示手段によって実行が指示された機能の実行を指示するか否か判断する請求項1~3の何れか一項に記載の機能実行指示システム。
  5.  前記機能実行指示手段によって実行が指示される機能には、前記単語入力手段によって入力された情報に含まれると共に当該機能に関連するカテゴリの単語を入力する機能が含まれており、
     前記実行機能決定手段は、前記カテゴリ特定手段によって特定されたカテゴリの単語が、前記過去に前記機能実行指示手段によって実行が指示された機能への入力が可能か否かを判断して、当該判断に応じて当該過去に前記機能実行指示手段によって実行が指示された機能の実行を指示するか否かを判断する、請求項1~4の何れか一項に記載の機能実行指示システム。
  6.  前記実行機能決定手段は、過去に前記機能実行指示手段によって実行が指示された機能の実行をこれから指示すると判断した場合に、当該過去に前記機能実行指示手段によって実行が指示された機能への入力とされた単語を当該機能への入力とする、請求項5に記載の機能実行指示システム。
  7.  前記実行機能決定手段は、前記カテゴリ特定手段によって特定されたカテゴリと、前記過去に実行が指示された機能への入力とされた単語のカテゴリとが一致するか否かを判断して、一致すると判断した場合に当該機能の実行をこれから指示すると判断する請求項6に記載の機能実行指示システム。
  8.  音声を入力して、入力した音声に対して音声認識を行って、音声認識を行った結果を前記単語入力手段に入力する音声認識手段を更に備える請求項1~7の何れか一項に記載の機能実行指示システム。
  9.  機能毎に予め設定されたカテゴリに関連する1つ以上の機能の実行を指示する機能実行指示ステップと、
     単語を含む情報を入力する単語入力ステップと、
     前記単語入力ステップにおいて入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定ステップと、
     前記カテゴリ特定ステップにおいて特定されたカテゴリに応じて、前記1つ以上の機能から前記機能実行指示ステップにおいて実行が指示される機能を決定する実行機能決定ステップと、を含み、
     前記実行機能決定ステップにおいて、前記カテゴリ特定ステップにおいて特定されたカテゴリ、及び過去に前記機能実行指示ステップにおいて実行が指示された機能に関連するカテゴリに基づいて、当該過去に前記機能実行指示ステップにおいて実行が指示された機能の実行をこれから指示するか否か判断する機能実行指示方法。
  10.  コンピュータを、
     機能毎に予め設定されたカテゴリに関連する1つ以上の機能の実行を指示する機能実行指示手段と、
     単語を含む情報を入力する単語入力手段と、
     前記単語入力手段によって入力された情報に含まれる単語のカテゴリを特定するカテゴリ特定手段と、
     前記カテゴリ特定手段によって特定されたカテゴリに応じて、前記1つ以上の機能から前記機能実行指示手段によって実行が指示される機能を決定する実行機能決定手段と、して機能させ、
     前記実行機能決定手段は、前記カテゴリ特定手段によって特定されたカテゴリ、及び過去に前記機能実行指示手段によって実行が指示された機能に関連するカテゴリに基づいて、当該過去に前記機能実行指示手段によって実行が指示された機能の実行をこれから指示するか否か判断する機能実行指示プログラム。
PCT/JP2013/064766 2012-06-19 2013-05-28 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム WO2013190956A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/395,696 US20150095024A1 (en) 2012-06-19 2013-05-28 Function execution instruction system, function execution instruction method, and function execution instruction program
EP13806936.4A EP2863385B1 (en) 2012-06-19 2013-05-28 Function execution instruction system, function execution instruction method, and function execution instruction program
JP2014521250A JP6073881B2 (ja) 2012-06-19 2013-05-28 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
CN201380031463.8A CN104380374A (zh) 2012-06-19 2013-05-28 功能执行指示系统、功能执行指示方法及功能执行指示程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-137842 2012-06-19
JP2012137842 2012-06-19

Publications (1)

Publication Number Publication Date
WO2013190956A1 true WO2013190956A1 (ja) 2013-12-27

Family

ID=49768559

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/064766 WO2013190956A1 (ja) 2012-06-19 2013-05-28 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム

Country Status (5)

Country Link
US (1) US20150095024A1 (ja)
EP (1) EP2863385B1 (ja)
JP (1) JP6073881B2 (ja)
CN (1) CN104380374A (ja)
WO (1) WO2013190956A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017516153A (ja) * 2014-05-20 2017-06-15 アマゾン テクノロジーズ インコーポレイテッド 以前の対話行為を使用する自然言語処理における文脈解釈
US10706854B2 (en) 2013-11-18 2020-07-07 Amazon Technologies, Inc. Dialog management with multiple applications
JP2020134745A (ja) * 2019-02-21 2020-08-31 富士ゼロックス株式会社 情報処理装置及びプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9773499B2 (en) * 2014-06-18 2017-09-26 Google Inc. Entity name recognition based on entity type
CN107833574B (zh) * 2017-11-16 2021-08-24 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
US11494554B2 (en) * 2018-02-27 2022-11-08 Ntt Docomo, Inc. Function execution instruction system
US11431817B2 (en) * 2018-12-04 2022-08-30 Samsung Electronics Co., Ltd. Method and apparatus for management of network based media processing functions
KR20210033167A (ko) * 2019-09-18 2021-03-26 삼성전자주식회사 전자장치 및 그 음성인식 제어방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034289A (ja) * 1999-07-16 2001-02-09 Nec Corp 自然言語を用いた対話システム
JP2002169584A (ja) * 2000-11-29 2002-06-14 Denso Corp 音声操作システム
JP2006023444A (ja) 2004-07-07 2006-01-26 Nissan Motor Co Ltd 音声対話装置
JP2006137366A (ja) * 2004-11-15 2006-06-01 Honda Motor Co Ltd 車両用機器制御装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6052666A (en) * 1995-11-06 2000-04-18 Thomson Multimedia S.A. Vocal identification of devices in a home environment
US6553345B1 (en) * 1999-08-26 2003-04-22 Matsushita Electric Industrial Co., Ltd. Universal remote control allowing natural language modality for television and multimedia searches and requests
US6415257B1 (en) * 1999-08-26 2002-07-02 Matsushita Electric Industrial Co., Ltd. System for identifying and adapting a TV-user profile by means of speech technology
US6598018B1 (en) * 1999-12-15 2003-07-22 Matsushita Electric Industrial Co., Ltd. Method for natural dialog interface to car devices
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
US8374875B2 (en) * 2000-01-31 2013-02-12 Intel Corporation Providing programming information in response to spoken requests
GB0025331D0 (en) * 2000-10-16 2000-11-29 Canon Kk Control apparatus
JP4294853B2 (ja) * 2000-12-19 2009-07-15 アルパイン株式会社 操作指示装置
JP4155383B2 (ja) * 2001-03-05 2008-09-24 アルパイン株式会社 音声認識機器操作装置
JP3523213B2 (ja) * 2001-03-28 2004-04-26 株式会社ジャストシステム コマンド処理装置、コマンド処理方法、及びコマンド処理プログラム
US8566102B1 (en) * 2002-03-28 2013-10-22 At&T Intellectual Property Ii, L.P. System and method of automating a spoken dialogue service
JP4144443B2 (ja) * 2003-06-19 2008-09-03 富士通株式会社 対話装置
JP2005010691A (ja) * 2003-06-20 2005-01-13 P To Pa:Kk 音声認識装置、音声認識方法、会話制御装置、会話制御方法及びこれらのためのプログラム
JP4503310B2 (ja) * 2004-02-20 2010-07-14 本田技研工業株式会社 電子機器制御装置
JP2006127148A (ja) * 2004-10-28 2006-05-18 Fujitsu Ltd 音声自動対話システムにおける情報処理方法
JP4131978B2 (ja) * 2006-02-24 2008-08-13 本田技研工業株式会社 音声認識機器制御装置
DE602006005830D1 (de) * 2006-11-30 2009-04-30 Harman Becker Automotive Sys Interaktives Spracherkennungssystem

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034289A (ja) * 1999-07-16 2001-02-09 Nec Corp 自然言語を用いた対話システム
JP2002169584A (ja) * 2000-11-29 2002-06-14 Denso Corp 音声操作システム
JP2006023444A (ja) 2004-07-07 2006-01-26 Nissan Motor Co Ltd 音声対話装置
JP2006137366A (ja) * 2004-11-15 2006-06-01 Honda Motor Co Ltd 車両用機器制御装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10706854B2 (en) 2013-11-18 2020-07-07 Amazon Technologies, Inc. Dialog management with multiple applications
US11688402B2 (en) 2013-11-18 2023-06-27 Amazon Technologies, Inc. Dialog management with multiple modalities
JP2017516153A (ja) * 2014-05-20 2017-06-15 アマゾン テクノロジーズ インコーポレイテッド 以前の対話行為を使用する自然言語処理における文脈解釈
US10726831B2 (en) 2014-05-20 2020-07-28 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
JP2020134745A (ja) * 2019-02-21 2020-08-31 富士ゼロックス株式会社 情報処理装置及びプログラム
JP7334420B2 (ja) 2019-02-21 2023-08-29 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
JP6073881B2 (ja) 2017-02-01
EP2863385A1 (en) 2015-04-22
EP2863385B1 (en) 2019-03-06
EP2863385A4 (en) 2016-03-09
JPWO2013190956A1 (ja) 2016-05-26
CN104380374A (zh) 2015-02-25
US20150095024A1 (en) 2015-04-02

Similar Documents

Publication Publication Date Title
JP6073881B2 (ja) 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
US10769385B2 (en) System and method for inferring user intent from speech inputs
EP3195307B1 (en) Platform for creating customizable dialog system engines
EP3032532B1 (en) Disambiguating heteronyms in speech synthesis
US8775189B2 (en) Control center for a voice controlled wireless communication device system
JP5819261B2 (ja) 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
US8862467B1 (en) Contextual speech recognition
CN105874531B (zh) 终端设备、服务器设备以及计算机可读记录介质
KR20190000776A (ko) 정보 입력 방법
JP2020516980A (ja) コンテキストディープブックマーキング
JP2008234427A (ja) ユーザ間の対話を支援する装置、方法およびプログラム
JP5901694B2 (ja) 辞書データベース管理装置、apiサーバ、辞書データベース管理方法、及び辞書データベース管理プログラム
JP6085149B2 (ja) 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
JP6223739B2 (ja) 機能実行指示システム及び機能実行指示方法
JP5341548B2 (ja) 音声認識装置
JP2015102805A (ja) 音声認識システム、電子装置、サーバー、音声認識方法および音声認識プログラム
JP5958504B2 (ja) コミュニケーション処理装置、コミュニケーション処理システム、コミュニケーション処理方法、及び、コミュニケーション処理プログラム
WO2016136208A1 (ja) 音声対話装置、音声対話システム、および、音声対話装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13806936

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014521250

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013806936

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14395696

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE