WO2016147401A1 - 分類装置、方法及びプログラム - Google Patents

分類装置、方法及びプログラム Download PDF

Info

Publication number
WO2016147401A1
WO2016147401A1 PCT/JP2015/058324 JP2015058324W WO2016147401A1 WO 2016147401 A1 WO2016147401 A1 WO 2016147401A1 JP 2015058324 W JP2015058324 W JP 2015058324W WO 2016147401 A1 WO2016147401 A1 WO 2016147401A1
Authority
WO
WIPO (PCT)
Prior art keywords
classification
search
user
dialog
utterance
Prior art date
Application number
PCT/JP2015/058324
Other languages
English (en)
French (fr)
Inventor
祐美子 下郡
尚義 永江
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to JP2017505993A priority Critical patent/JP6305629B2/ja
Priority to PCT/JP2015/058324 priority patent/WO2016147401A1/ja
Publication of WO2016147401A1 publication Critical patent/WO2016147401A1/ja
Priority to US15/433,149 priority patent/US11163812B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding

Definitions

  • Embodiments of the present invention relate to a classification device, a method, and a program.
  • search service data classification is generally performed on the service provider side. For this reason, when a search is performed according to a classification designated by the user, a search result desired by the user may not be obtained. For example, one piece of data may not be hit. Search services are required to be able to automatically customize data classification for users.
  • the problem to be solved by the present invention is to provide a classification apparatus, method, and program capable of customizing data classification from a dialogue log.
  • the classification device can access a dialogue log storage unit that stores a dialogue log related to a dialogue between a user and a dialogue system, and includes a target log extraction unit and a classification relationship generation unit.
  • the target log extracting unit includes information indicating a first classification used for a first search performed by the dialog system based on the first utterance of the user from the dialog log storage unit, and the first log Information indicating that the search has failed, and information indicating data acquired as a result of a second search performed by the dialog system based on the second utterance of the user that occurred after the first utterance; , To extract a set of interaction logs for one interaction.
  • the classification relationship generation unit generates a classification relationship in which the first classification and the data are associated with each other.
  • FIG. 1 is a block diagram showing a dialogue system according to a first embodiment.
  • category was performed based on the dialog shown by FIG.
  • the flowchart which shows the example of a procedure of the log extraction process of the target log extraction part shown in FIG.
  • category was performed based on the dialogue shown in FIG.
  • the block diagram which shows the dialogue system which concerns on 3rd Embodiment The figure which shows the shared classification data stored in the classification data storage part shown in FIG. The figure which shows the shared classification data after the update stored in the classification data storage part shown in FIG. The block diagram which shows the dialogue system which concerns on 3rd Embodiment.
  • FIG. 1 schematically shows an interactive system 100 according to the first embodiment.
  • the dialogue system 100 includes a voice recognition unit 101, an intention understanding unit 102, a dictionary storage unit 103, an intention model storage unit 104, a dialogue control unit 105, a response generation unit 106, a dialogue log management unit 107, A dialogue log storage unit 108, a target log extraction unit 109, a classification relationship generation unit 110, and a classification data storage unit 111 are provided.
  • a portion including the target log extraction unit 109 and the classification relationship generation unit 110 is referred to as a classification device.
  • the interactive system 100 is mounted on a server that can communicate with a client (user device) via a network such as the Internet.
  • the client is, for example, a terminal device such as a smartphone or a television.
  • an audio signal is exchanged between the dialogue system 100 and the client.
  • a voice (utterance) uttered by the user is converted into a voice signal by a microphone provided in the client and sent to the dialogue system 100.
  • part or all of the interactive system 100 may be implemented in the client.
  • the voice recognition unit 101 performs voice recognition on a user's utterance and generates a natural language text (hereinafter simply referred to as text) corresponding to the utterance.
  • the intention understanding unit 102 analyzes the text using the dictionary stored in the dictionary storage unit 103 and the intention model stored in the intention model storage unit 104 to understand the intention of the utterance.
  • the intention understanding unit 102 performs morphological analysis and semantic class analysis on text with reference to a dictionary. Thereby, the text is divided into words, and information such as a semantic class representing the meaning of the word is given to each word.
  • the dictionary words are registered in association with information such as semantic classes.
  • the intention understanding unit 102 understands the intention of the utterance by referring to the intention model using features such as a word and its semantic class.
  • the intention model is generated in advance from a large number of utterance samples by learning using semantic classes and words as features.
  • the intention understanding unit 102 outputs an intention understanding result including the utterance (text) and the intention of the utterance.
  • the method of understanding the intention is not limited to the example described here.
  • the dialogue control unit 105 executes an action based on the intention understanding result. For example, when the intention of the utterance is search, the dialogue control unit 105 searches the database using the classification specified from the utterance and notifies the user of the search result.
  • the response generation unit 106 generates a response sentence for the user's utterance.
  • the response sentence is converted into a voice signal by a voice synthesis technique and sent to the client.
  • the dialogue log management unit 107 collects information on processing executed by the intention understanding unit 102, the dialogue control unit 105, and the response generation unit 106, and stores the information in the dialogue log storage unit 108.
  • the dialogue log storage unit 108 stores a dialogue log related to the dialogue between the user and the dialogue system 100.
  • the target log extraction unit 109 extracts a set of dialogue logs related to one dialogue from the dialogue log storage unit 108.
  • a set of dialogue logs may include a user's first utterance, a user's second utterance that occurred after the first utterance, and a first search performed by the dialogue system 100 based on the first utterance.
  • information indicating data acquired as a result of the second search is indicating data acquired as a result of the second search.
  • the classification relationship generation unit 110 classifies data based on the set of dialogue logs extracted by the target log extraction unit 109. According to the above example, the classification relation generation unit 110 determines that the first classification used in the first search, the first search failed, the second search from the information included in the set of dialogue logs. The second classification used in the above and the data acquired as a result of the second search are specified. Then, the classification relationship generation unit 110 generates a classification relationship in which the first classification and the data are associated with each other, and a classification relation indicating that the first classification is a lower classification of the second classification, and the classification data Store in the storage unit 111.
  • the process of generating the classification relationship can be executed at an arbitrary timing. For example, the process of generating the classification relationship may be executed periodically, or may be executed when a certain number of dialog logs are added to the dialog log storage unit 108 after the previous process.
  • the dialogue system 100 including the above elements classifies data based on a dialogue log regarding dialogue with the user. Thereby, the data classification can be customized for the user.
  • the user's utterance may be input as text using a keyboard or a touch panel and sent to the dialogue system 100.
  • the voice recognition unit 101 can be deleted.
  • the response sentence may be sent to the client without applying speech synthesis and displayed to the user.
  • FIG. 2 shows an example of dialogue between the user and the dialogue system 100.
  • the client is a television device
  • the interactive system 100 acquires a program desired by the user from the database, and provides the acquired program to the television device.
  • the user speaks “I want to watch a program whose genre is a suspense drama”.
  • the dialogue system 100 searches for “suspense drama”.
  • no program is found, and the dialogue system 100 outputs a response sentence “Not found”.
  • the user utters “Eh?
  • the dialog system 100 detects from this utterance that the user has specified another classification and stated corrections and dissatisfaction.
  • the dialogue system 100 searches for “drama”.
  • 20 programs are found, and the dialogue system 100 outputs a response sentence “Searched in drama. 20 found.” And presents a list of found programs.
  • the user looks at the list and utters “Play AAA”.
  • a specific TV program name is entered in AAA.
  • the dialogue system 100 outputs a response sentence “Play AAA” and provides AAA data to the television apparatus.
  • the intention understanding unit 102 detects from the user's utterance “I want to watch a program whose genre is a suspense drama” that the user has designated the classification “suspense drama”. Furthermore, the intent understanding unit 102 detects that the user has designated a category “drama” that is different from the category described above, from the user's utterance “Eh? The search for the category “Suspense Drama” failed, but the search for the category “Drama” was successful, so the category “Suspense Drama” was judged to be closely related to the category “Drama”, and the program “AAA” Associated with “Suspense Drama”.
  • FIG. 3 shows the classification relationship generated based on the dialogue shown in FIG.
  • “domestic drama” belongs to the subcategory of “drama”
  • program “AAA” is associated with “drama” and “domestic drama”.
  • the program “AAA” is associated with the “suspense drama” and the “suspense drama” is a subclass of the “drama”, as indicated by a broken line. are categorized.
  • FIG. 4 shows an example of the dialogue between the user and the dialogue system 100 after the classification is performed based on the dialogue shown in FIG.
  • the user utters “I want to watch a program whose genre is a suspense drama”.
  • the dialogue system 100 searches for “suspense drama”. Since “AAA” is associated with “Suspense Drama”, “AAA” is found as a result of the search.
  • the dialogue system 100 outputs a response sentence “Searched in suspense drama. One found.”.
  • the user receives this response sentence and utters “Reproduce it”.
  • the dialogue system 100 outputs a response sentence “I understand. I will play AAA” and provides the data of “AAA” to the television apparatus.
  • the classification accuracy can be improved by classifying data based on the dialogue log related to the dialogue between the user and the dialogue system 100.
  • FIG. 5 shows an example of a dialogue log stored in the dialogue log storage unit.
  • the dialogue log is recorded separately for ID, Input, Output, intention, and argument fields.
  • the ID field stores identification information for uniquely identifying the log.
  • the Input field stores information such as the user's utterance, the state of the client (the television in this example), the action result of the client.
  • the Output field stores information such as an action command to the client and a message to the user.
  • information is structured in the JSON format.
  • the JSON format is an example of a structured format, and information may be described in other formats.
  • the intention field stores the intention output by the intention understanding unit 102.
  • the argument field stores an argument accompanying the intention output by the intention understanding unit 102.
  • the argument is, for example, a combination of a semantic class and a keyword.
  • Logs with IDs 1 to 5 are logs corresponding to the dialog shown in FIG. 2, and logs with ID 6 are logs corresponding to dialogs that occur after the dialog shown in FIG.
  • the Input field will be described.
  • command represents an action command that the system instructs the client.
  • the command type is described in command.action
  • command argument is described in command.args.genre.
  • “suspense drama” is described in command.args.genre.
  • the dialogue log does not include the time and user information fields.
  • the dialogue log includes fields of time and user information so that events can be identified in time series for each user using the time and user ID. Note that the user ID is not required when the interactive system is used by only one user.
  • FIG. 6 shows a procedure example of the log extraction process of the target log extraction unit 109.
  • the target log extraction unit 109 detects information indicating a location where action execution (search) has failed from the dialogue log stored in the dialogue log storage unit 108.
  • the target log extraction unit 109 extracts an action command (search expression) that is the basis of the search result from the Output field of the log immediately before the detected log, and confirms whether genre is used for the action command.
  • genre the target log extraction unit 109 sets the log as the start position of the target log.
  • step S603 the target log extraction unit 109 detects a log in which a replacement is stored in the intention field.
  • the classification relationship generation unit 110 generates a classification relationship from the set of dialogue logs extracted by the target log extraction unit 109 and stores the classification relationship in the classification data storage unit 111.
  • 7A and 7B show examples of classification formats stored in the classification data storage unit 111.
  • FIG. relaion_id indicates an ID for specifying the relationship
  • user_name indicates the user who created the relationship.
  • main indicates that the system has been created in advance
  • hanako is the name of the user who performed the dialogue.
  • the subject is the subject
  • the predicate is the predicate
  • the object is the object, and the relationship of classification is expressed by these three sets.
  • the classification relation generation unit 110 generates a classification relation that “suspense drama” is a lower classification of “domestic drama”.
  • the classification relation generation unit 110 generates a classification relation that is a program of the “suspense drama” genre in which “AAA” is the lowest layer classification.
  • the dialogue system 100 refers to the classification relation (classification data) created for the user when searching based on the user's utterance.
  • the classification data may be centrally managed by a server on the cloud or may be managed on the client side.
  • the data classification can be customized for the user.
  • FIG. 8 schematically shows an interactive system 800 according to the second embodiment.
  • the dialogue system 800 shown in FIG. 8 includes an importance calculation unit 801 and a classification relationship update unit 802 in addition to the configuration of the dialogue system 100 shown in FIG.
  • a plurality of users use the interactive system 800, and the classification data storage unit 111 manages shared classification data generated based on the classification data of these users.
  • the importance calculation unit 801 calculates the importance of the classification relationship based on at least one of the number of users, the classification relationship usage frequency, and the search result usage frequency.
  • the number of users indicates the number of users having a classification relationship to be calculated.
  • the classification relationship usage frequency indicates the frequency at which the calculation target classification relationship is used for the search for all users.
  • the search result use frequency indicates the frequency at which the search result using the classification relationship of the calculation target is used for all users. For example, in an example in which the client is a television device, the frequency with which the search result is used corresponds to the number of times the program obtained by the search has been played.
  • the classification relationship update unit 802 reflects the classification relationship whose importance is equal to or greater than the threshold value in the shared classification data. The classification update may be performed in real time when classification customization by the user occurs, or may be performed at regular intervals.
  • FIG. 9A schematically shows a state in which the classification is customized for each of the users 1, 2, and 3.
  • the classification relation usage frequency is all 1 and the search result usage frequency is all 1.
  • the classification relationship update unit 802 updates the shared classification data using a classification relationship having an importance level equal to or higher than a threshold.
  • the threshold value is 4. In this case, as shown in FIG. 9B, the classification relationship in which the program I1 belongs to the classification C2 is added to the shared classification data.
  • the threshold value may be dynamically set from the number of users using the interactive system 100 or the distribution of the number of searches.
  • the shared classification data is shared by all users. Specifically, the shared classification added to the shared classification data is included in the classification data of all users. For example, when a new user is generated, the initial classification data of the user can be the same as the shared classification data.
  • the importance of the classification relationship is calculated, and the shared classification data is updated using the classification relationship having a high importance.
  • the classification accuracy is improved.
  • FIG. 10 schematically shows an interactive system 1000 according to the third embodiment.
  • a dialogue system 1000 shown in FIG. 10 includes a similarity calculation unit 1001 in addition to the configuration of the dialogue system 100 shown in FIG.
  • the similarity calculation unit 1001 calculates the similarity between categories included in the dialogue log.
  • the topic change is determined based on the client state, the argument is not classified, and there is no correction.
  • the user will say an unrelated classification, and a user may say a related keyword. Therefore, the similarity calculation unit 1001 calculates the similarity between classifications, and the target log extraction unit 109 detects a topic change using the similarity. Thereby, it becomes possible to detect a topic change more accurately.
  • the similarity calculation unit 1001 calculates the similarity between the classification of a program that has been processed for reproduction or recording from the programs detected by the keyword and the classification that appears as a topic in the dialogue log, The target log extraction unit 109 detects that the topic has changed when the similarity is smaller than the threshold.
  • the existing method can be used as the similarity calculation method.
  • the calculation method using the closeness of the graph path indicating the relationship of classification as shown in FIG. 7A, FIG. 7B, FIG. 9A, and FIG. 9B, and the program contents on the Internet such as an electronic program guide and wikipedia are described.
  • a technique of extracting a keyword from text information and calculating using a word vector space model can be used.
  • the similarity between categories is calculated, and a change in the topic is detected using the similarity. Therefore, it becomes possible to detect the change of the topic in the dialogue log more accurately.
  • the instructions shown in the processing procedure shown in the above embodiment can be executed based on a program that is software.
  • a general-purpose computer system stores this program in advance and reads this program, so that it is possible to obtain the same effect as that of the dialog system of the above-described embodiment.
  • the instructions described in the above-described embodiments are, as programs that can be executed by a computer, magnetic disks (flexible disks, hard disks, etc.), optical disks (CD-ROM, CD-R, CD-RW, DVD-ROM, DVD). ⁇ R, DVD ⁇ RW, etc.), semiconductor memory, or a similar recording medium. As long as the recording medium is readable by the computer or the embedded system, the storage format may be any form.
  • the computer reads the program from the recording medium and causes the CPU to execute instructions described in the program based on the program, the same operation as the interactive system of the above-described embodiment can be realized.
  • the computer acquires or reads the program, it may be acquired or read through a network.
  • the OS operating system
  • database management software database management software
  • MW middleware
  • a part of each process for performing may be executed.
  • the recording medium in the present embodiment is not limited to a medium independent of a computer or an embedded system, but also includes a recording medium in which a program transmitted via a LAN or the Internet is downloaded and stored or temporarily stored.
  • the number of recording media is not limited to one, and when the processing in this embodiment is executed from a plurality of media, it is included in the recording medium in this embodiment, and the configuration of the media may be any configuration.
  • the computer or the embedded system in the present embodiment is for executing each process in the present embodiment based on a program stored in a recording medium.
  • the computer or the embedded system includes a single device such as a personal computer or a microcomputer.
  • the system may be any configuration such as a system connected to the network.
  • the computer in this embodiment is not limited to a personal computer, but includes an arithmetic processing device, a microcomputer, and the like included in an information processing device, and is a generic term for devices and devices that can realize the functions in this embodiment by a program. ing.

Abstract

 一実施形態に係る分類装置は、ユーザと対話システムとの対話に関する対話ログを記憶する対話ログ記憶部にアクセス可能であり、対象ログ抽出部及び分類関係生成部を備える。対象ログ抽出部は、前記対話ログ記憶部から、前記対話システムが前記ユーザの第1の発話に基づいて実行した第1の検索に使用された第1の分類を示す情報と、前記第1の検索が失敗したことを示す情報と、前記対話システムが前記第1の発話より後に生じた前記ユーザの第2の発話に基づいて実行した第2の検索の結果として取得されたデータを示す情報と、を含む1つの対話に関する対話ログのセットを抽出する。分類関係生成部は、前記第1の分類と前記データとを互いに関連付けた分類関係を生成する。

Description

分類装置、方法及びプログラム
 本発明の実施形態は、分類装置、方法及びプログラムに関する。
 ユーザの発話に応答して番組検索や音楽検索などの検索を行う自動対話システムが知られている。検索サービスにおいては、データの分類は一般にサービス提供側で行われる。このため、ユーザが指定した分類で検索を行う場合、ユーザが所望する検索結果が得られないことがあり、例えば、1件のデータもヒットしないことがある。検索サービスにおいては、ユーザ向けにデータの分類を自動的にカスタマイズできることが求められている。
特開平2-238567号
 本発明が解決しようとする課題は、データの分類を対話ログからカスタマイズすることができる分類装置、方法及びプログラムを提供することである。
 一実施形態に係る分類装置は、ユーザと対話システムとの対話に関する対話ログを記憶する対話ログ記憶部にアクセス可能であり、対象ログ抽出部及び分類関係生成部を備える。対象ログ抽出部は、前記対話ログ記憶部から、前記対話システムが前記ユーザの第1の発話に基づいて実行した第1の検索に使用された第1の分類を示す情報と、前記第1の検索が失敗したことを示す情報と、前記対話システムが前記第1の発話より後に生じた前記ユーザの第2の発話に基づいて実行した第2の検索の結果として取得されたデータを示す情報と、を含む1つの対話に関する対話ログのセットを抽出する。分類関係生成部は、前記第1の分類と前記データとを互いに関連付けた分類関係を生成する。
第1の実施形態に係る対話システムを示すブロック図。 対話の例を示す図。 図2に示される対話に基づいて生成される分類関係を示す図。 図2に示される対話に基づいて分類が行われた後における対話の例を示す図。 図1に示した対話ログ記憶部に格納されている対話ログの例を示す図。 図1に示した対象ログ抽出部のログ抽出処理の手順例を示すフローチャート。 図1に示した分類データ記憶部に格納されている分類データの例を示す図。 図2に示される対話に基づいて分類が行われた後における、図1に示した分類データ記憶部に格納されている分類データの例を示す図。 第3の実施形態に係る対話システムを示すブロック図。 図3に示した分類データ記憶部に格納されている共有分類データを示す図。 図3に示した分類データ記憶部に格納されている更新後の共有分類データを示す図。 第3の実施形態に係る対話システムを示すブロック図。
 以下、図面を参照しながら実施形態を説明する。以下の実施形態では、同様の構成要素に同様の参照符号を付して、重ねての説明を省略する。
 (第1の実施形態)
 図1は、第1の実施形態に係る対話システム100を概略的に示している。対話システム100は、図1に示されるように、音声認識部101、意図理解部102、辞書記憶部103、意図モデル記憶部104、対話制御部105、応答生成部106、対話ログ管理部107、対話ログ記憶部108、対象ログ抽出部109、分類関係生成部110、及び分類データ記憶部111を備える。対象ログ抽出部109及び分類関係生成部110を含む部分を分類装置と称する。
 本実施形態では、対話システム100は、インターネットなどのネットワークを介してクライアント(ユーザ装置)と通信することができるサーバに実装される。クライアントは、例えば、スマートフォンやテレビなどの端末装置である。また、本実施形態では、音声信号が対話システム100とクライアントとの間でやり取りされる。例えば、ユーザが発した音声(発話)は、クライアントに設けられたマイクロホンによって音声信号に変換され、対話システム100に送られる。なお、対話システム100の一部又は全部がクライアントに実装されてもよい。
 音声認識部101は、ユーザの発話に対して音声認識を行い、その発話に対応する自然言語テキスト(以下、単にテキストと記載する。)を生成する。
 意図理解部102は、辞書記憶部103に記憶されている辞書と意図モデル記憶部104に記憶されている意図モデルとを使用してテキストを分析することで発話の意図を理解する。例えば、意図理解部102は、辞書を参照してテキストに対して形態素解析及び意味クラス解析を行う。それにより、テキストは単語に分割され、単語それぞれに、単語の意味を表す意味クラスなどの情報が付与される。辞書には、単語が意味クラスなどの情報と関連付けて登録されている。続いて、意図理解部102は、単語及びその意味クラスなどの素性を用いて意図モデルを参照することにより発話の意図を理解する。意図モデルは、多数の発話サンプルから意味クラス及び単語などを素性とした学習により予め生成される。意図理解部102は、発話(テキスト)及び発話の意図を含む意図理解結果を出力する。意図理解の方法は、ここで説明した例に限定されない。
 対話制御部105は、意図理解結果に基づいてアクションを実行する。例えば、発話の意図が検索である場合、対話制御部105は、発話から特定される分類を用いてデータベースを検索し、検索結果をユーザに通知する。応答生成部106は、ユーザの発話に対する応答文を生成する。応答文は、音声合成技術によって音声信号に変換され、クライアントに送られる。
 対話ログ管理部107は、意図理解部102、対話制御部105、及び応答生成部106が実行した処理に関する情報を収集し、対話ログ記憶部108に格納する。対話ログ記憶部108は、ユーザと対話システム100との対話に関する対話ログを記憶する。
 対象ログ抽出部109は、対話ログ記憶部108から、1つの対話に関する対話ログのセットを抽出する。例えば、対話ログのセットは、ユーザの第1の発話と、第1の発話より後に生じたユーザの第2の発話と、対話システム100が第1の発話に基づいて実行した第1の検索に使用された第1の分類を示す情報と、第1の検索が失敗したことを示す情報と、対話システム100が第2の発話に基づいて実行した第2の検索に使用された第2の分類を示す情報と、第2の検索の結果として取得されたデータを示す情報と、を含む。
 分類関係生成部110は、対象ログ抽出部109によって抽出された対話ログのセットに基づいてデータの分類を行う。上記の例によれば、分類関係生成部110は、対話ログのセットに含まれる情報から、第1の検索に使用された第1の分類、第1の検索が失敗したこと、第2の検索に使用された第2の分類、及び第2の検索の結果として取得されたデータを特定する。そして、分類関係生成部110は、第1の分類とデータとを関連付けた分類関係と、第1の分類が第2の分類の下位分類であることを示す分類関係と、を生成し、分類データ記憶部111に格納する。分類関係を生成する処理は、任意のタイミングで実行されることができる。例えば、分類関係を生成する処理は、周期的に実行されてもよく、前回の処理後に一定数の対話ログが対話ログ記憶部108に追加されたときに実行されてもよい。
 上記の要素を備える対話システム100は、ユーザとの対話に関する対話ログに基づいてデータの分類を行う。それにより、ユーザ向けにデータの分類をカスタマイズすることができる。
 なお、ユーザの発話は、キーボードやタッチパネルを用いてテキストで入力され、対話システム100に送られもよい。この場合、音声認識部101を削除することができる。また、応答文は、音声合成を適用することなしにクライアントに送られ、ユーザに表示されてもよい。
 次に、対話システム100の動作について説明する。 
 図2は、ユーザと対話システム100との対話の例を示す。この例では、クライアントがテレビ装置であり、対話システム100は、データベースからユーザが所望する番組を取得し、取得した番組をテレビ装置に提供する。
 図2に示されるように、まず、ユーザが「ジャンルがサスペンスドラマである番組が見たい。」と発話する。対話システム100は、この発話を受けて「サスペンスドラマ」で検索を行う。検索の結果として番組が1件も見つからず、対話システム100は、応答文「見つかりませんでした。」を出力する。ユーザは、この応答文を受けて「えっ?ドラマだよ。」と発話する。対話システム100は、この発話から、ユーザが他の分類を指定したことと、訂正及び不満を述べたことを検出する。対話システム100は、「ドラマ」で検索を行う。検索の結果として20件の番組が見つかり、対話システム100は、応答文「ドラマで検索しました。20件見つかりました。」を出力するとともに、見つかった番組のリストを提示する。次に、ユーザは、リストを見て「AAAを再生して。」と発話する。ここで、AAAには具体的なテレビ番組名が入る。対話システム100は、この発話を受けて、応答文「AAAを再生します。」を出力し、AAAのデータをテレビ装置に提供する。
 意図理解部102は、ユーザの発話「ジャンルがサスペンスドラマである番組が見たい。」から、ユーザが「サスペンスドラマ」という分類を指定したことを検出する。さらに、意図理解部102は、ユーザの発話「えっ?ドラマだよ。」から、ユーザが前に述べた分類とは異なる「ドラマ」という分類を指定したことを検出する。分類「サスペンスドラマ」での検索に失敗したが、分類「ドラマ」での検索に成功したことから、分類「サスペンスドラマ」は分類「ドラマ」と近い関係にあると判断され、番組「AAA」が「サスペンスドラマ」と関連付けられる。
 また、最初の検索で1件もヒットせず再度検索を行う場合、ユーザは、一般に、最初の検索で指定した分類より上位の分類を指定する。そのため、「サスペンスドラマ」が「ドラマ」の下位分類であると判断される。「サスペンスドラマ」が「ドラマ」の下位分類であるとして、「サスペンスドラマ」と「ドラマ」が関連付けられる。
 図3は、図2に示される対話に基づいて生成される分類関係を示している。図3に示される例では、最初は、実線で示されるように、「国内ドラマ」が「ドラマ」の下位分類に属し、さらに、番組「AAA」が「ドラマ」及び「国内ドラマ」に関連付けられている。図2に示される対話に基づいて分類が行われた後には、破線で示されるように、番組「AAA」が「サスペンスドラマ」に関連付けられ、さらに、「サスペンスドラマ」が「ドラマ」の下位分類に分類される。
 図4は、図2に示される対話に基づいて分類が行われた後におけるユーザと対話システム100との対話の例を示す。図4に示されるように、まず、ユーザが「ジャンルがサスペンスドラマである番組が見たい。」と発話する。対話システム100は、この発話を受けて「サスペンスドラマ」で検索を行う。「AAA」が「サスペンスドラマ」に関連付けられているので、検索の結果「AAA」が見つかる。対話システム100は、応答文「サスペンスドラマで検索しました。1件見つかりました。」を出力する。ユーザは、この応答文を受けて「それ再生して」と発話する。対話システム100は、この発話を受けて、応答文「了解しました。AAAを再生します。」を出力し、「AAA」のデータをテレビ装置に提供する。
 このようにして、図2に示される対話に基づいて分類が行われた後では、「サスペンスドラマ」という分類で検索を行うと、番組「AAA」がヒットするようになる。ユーザと対話システム100との対話に関する対話ログに基づいてデータの分類を行うことにより、分類精度を向上することができる。
 図5は、対話ログ記憶部に記憶されている対話ログの例を示す。図5に示されるように、対話ログは、ID、Input、Output、意図、引数のフィールドに分けて記録されている。IDフィールドは、ログを一意に特定するための識別情報を格納する。Inputフィールドは、ユーザの発話、クライアント(本例ではテレビ)の状態、クライアントのアクション結果などの情報を格納する。Outputフィールドは、クライアントへのアクションコマンド、ユーザへのメッセージなどの情報を格納する。Inputフィールド及びOutputフィールドでは、情報は、JSON形式で構造化されている。なお、JSON形式は構造化の書式の一例であり、情報は他の書式で記述されてもよい。意図フィールドは、意図理解部102が出力する意図を格納する。引数フィールドは、意図理解部102が出力する意図に付随する引数を格納する。引数は、例えば、意味クラスとキーワードの組である。
 IDが1~5であるログは、図2に示される対話に対応するログであり、IDが6のログは、図2に示される対話の次に生じた対話に対応するログである。 
 Inputフィールドについて説明する。dialogue.textは、ユーザの発話を表す。ID=1では、ユーザの発話は、dialogue.textに記述された「ジャンルがサスペンスドラマである番組が見たい」である。dialogue.screenは、クライアントのスクリーンの状態を表す。ID=1では、dialogue.screenはOAであり、これは、クライアントが放送中の番組を表示していることを示す。ID=5では、dialogue.screenはresult.searchであり、これは、クライアントが検索結果を表示していることを示す。resultは、クライアントのアクション結果を表す。検索などのアクションの成功又は失敗又はエラーを示す状態はresult.statusに記述され、検索結果の件数はresult.args.hitに記述される。
 Inputフィールドについて説明する。commandは、システムがクライアントへ指示するアクションコマンドを表す。コマンドの種類はcommand.actionに記述され、コマンドの引数はcommand.args.genreに記述される。ID=1では、番組の検索を行うことを示すprogram.searchがcommand.actionに記述され、「サスペンスドラマ」がcommand.args.genreに記述されている。ttsはシステムからユーザへの応答文を示す。ID=2では、「見つかりませんでした」がtts.textに記述されている。
 説明を簡単にするために、対話ログには時刻及びユーザ情報のフィールドが含まれていない。対話ログは、時刻及びユーザIDなどを使用してユーザ毎に時系列にイベントが特定できるように、時刻及びユーザ情報のフィールドを含む。なお、対話システムが1人のユーザだけに使用される場合などでは、ユーザIDは不要である。
 図6は、対象ログ抽出部109のログ抽出処理の手順例を示している。図6のステップS601では、対象ログ抽出部109は、対話ログ記憶部108に格納されている対話ログから、アクション実行(検索)が失敗した箇所を示す情報を検出する。例えば、対象ログ抽出部109は、result.args.hit=0又はresult.status=okであるログを検出する。対象ログ抽出部109は、検出したログの直前のログのOutputフィールドから、検索結果の元となるアクションコマンド(検索式)を抽出し、アクションコマンドにgenreが用いられているかを確認する。genreが用いられている場合、対象ログ抽出部109は、そのログを対象ログの開始位置とする。図5の例では、ID=2のログが検出され、ID=1のOutputフィールドからアクションコマンドが抽出される。アクションコマンドにgenreが用いられているので、対象ログの開始位置がID=1に決定される。
 ステップS602では、対象ログ抽出部109は、アクション実行に失敗した後の対話ログから、アクション実行(検索)が成功した箇所を示す情報を検出する。例えば、対象ログ抽出部109は、result.args.hit>0かつresult.status=okであるログを検出する。図5の例では、ID=4のログが検出される。対象ログ抽出部109は、ID=4のアクション結果の元となったアクションコマンドをID=3のOutputフィールドから取得する。
 ステップS603では、対象ログ抽出部109は、意図フィールドにいいかえが格納されているログを検出する。図5の例では、ID=3のログが検出される。ID=3の発話は、ID=1の発話を言い換えたものであると判断される。
 ステップS604では、対象ログ抽出部109は、話題変化の検出を行う。例えば、対象ログ抽出部109は、ステップS602で検出されたアクション成功ログの直後のログ(ID=5)のdialog.screenがresult.searchであり且つcommand.actionがprogram.playであることから、ID=5のログがID=4のログと関連性があることを検出する。また、対象ログ抽出部109は、ID=5のcommand.args.keywordが「AAA」であり、ID3のアクション結果に「AAA」が含まれている場合に、ID=3の検索条件とID5のアクションに関連性があると見なす。ID=6のinput.screenがOAであり、command.args.keywordの「BBB」が分類ではなく、また、意図が「いいかえ」、「訂正」などでないことから、対象ログ抽出部109は、ここで話題が変化したことを検出する(ステップS605)。ここで、「BBB」には具体的なテレビ番組名が入る。対象ログ抽出部109は、対象ログをID=1からID=5までに絞り処理を終了する。 
 このようにして、対象ログ抽出部109は、データの分類をカスタマイズするために使用する対話ログのセットを抽出する。
 分類関係生成部110は、対象ログ抽出部109によって抽出された対話ログのセットから、分類関係を生成し、分類データ記憶部111に格納する。図7A及び図7Bは、分類データ記憶部111に格納されている分類の書式例を示す。relaion_idは、関係を特定するIDを示し、user_nameは、関係を作成したユーザを示す。図7A及び図7Bに示される例では、mainはシステムが予め作成したことを示し、hanakoは対話を行ったユーザ名である。Subjectは主語、predicateは述語、objectは対象であり、この3つの組により分類の関係性が表現される。
 分類関係生成部110は、対象ログ抽出部109が抽出したID=3のcommand.args.genreとID=5のcommand.args.keywordから「AAA」が「ドラマ」ジャンルの番組であること、並びに、ID=1のcommand.args.genreとID=3のcommand.args.genreが言い換え関係であることから、図7Bのrelation_id=3に示すように「サスペンスドラマ」は「ドラマ」の下位分類である関係を作成する。ここでは、ユーザは最も詳細な分類を指定して検索すると仮定し、最下層の分類関係が作成される。具体的には、分類関係生成部110は、「サスペンスドラマ」が「ドラマ」の下位階層に属する分類の下位分類であるみなす。例えば、分類関係生成部110は、図7Bのrelation_id=4に示すように、「サスペンスドラマ」が「国内ドラマ」の下位分類であるという分類関係を生成する。最後に、分類関係生成部110は、図7Bのrelation_id=5に示すように、「AAA」を最下層分類の「サスペンスドラマ」ジャンルの番組である分類関係を生成する。分類関係生成部110によって分類のカスタマイズがなされた後では、対話システム100は、ユーザの発話に基づいて検索を行う場合、そのユーザに関して作成された分類関係(分類データ)を参照する。なお、分類データは、クラウド上のサーバで一元管理してもよく、クライアント側で管理してもよい。
 以上のように、本実施形態では、対話ログ記憶部108から、対話システム100がユーザの第1の発話に基づいて実行した第1の検索に使用された第1の分類を示す情報と、第1の検索が失敗したことを示す情報と、対話システム100が第1の発話より後に生じたユーザの第2の発話に基づいて実行した第2の検索の結果として取得されたデータを示す情報と、を含む、1つの対話に関する対話ログのセットを抽出し、第1の分類とデータとを互いに関連付けた分類関係を生成する。それにより、ユーザ向けにデータの分類をカスタマイズすることができる。
 (第2の実施形態)
 図8は、第2の実施形態に係る対話システム800を概略的に示している。図8に示される対話システム800は、図1に示される対話システム100の構成に加えて、重要度計算部801及び分類関係更新部802を備える。本実施形態では、複数のユーザが対話システム800を利用し、分類データ記憶部111は、これらユーザの分類データに基づいて生成される共有分類データを管理する。
 重要度計算部801は、ユーザ数、分類関係利用頻度、及び検索結果利用頻度の少なくとも1つに基づいて、分類関係の重要度を計算する。ユーザ数は、計算対象の分類関係を有するユーザの数を示す。分類関係利用頻度は、全ユーザを対象にして計算対象の分類関係が検索に利用された頻度を示す。検索結果利用頻度は、全ユーザを対象として計算対象の分類関係を用いた検索の結果が利用された頻度を示す。例えば、クライアントがテレビ装置である例では、検索結果が利用された頻度は、検索により得られた番組が再生された回数に対応する。分類関係更新部802は、重要度が閾値以上である分類関係を共有分類データに反映させる。分類更新は、ユーザによる分類カスタマイズが発生したリアルタイムで行ってもよく、一定時間ごとに行ってもよい。
 図9Aは、ユーザ1、2、3それぞれについて分類のカスタマイズがなされた状態を概略的に示している。重要度計算部801は、例えば、次の式で分類関係の重要性を計算する。 
 重要度=ユーザ数+分類関係利用頻度+検索結果利用頻度
 図9Aに示される状態で分類関係の重要度を計算する。ここでは、説明を簡単にするために、分類関係利用頻度は全て1であり、検索結果利用頻度は全て1であるとする。
 番組I1が分類C2に所属する分類関係の重要度=3+1+1=5
 番組I1が分類C3に所属する分類関係の重要度=1+1+1=3
 番組I3が分類C4に所属する分類関係の重要度=1+1+1=3
 分類C4が分類C3の下位分類である分類関係の重要度=1+1+1=3
 分類関係更新部802は、閾値以上の重要度を持つ分類関係を用いて、共有分類データを更新する。例えば閾値を4とする。この場合、図9Bに示すように、番組I1が分類C2に所属する分類関係が共有分類データに追加される。なお、閾値は、対話システム100を用いるユーザの数又は検索回数の分布から動的に設定されてもよい。共有分類データは、全てのユーザに共有される。具体的には、共有分類データに追加された共有分類は、全てのユーザの分類データに含まれるようになる。また、例えば、新たなユーザが発生した場合、このユーザの初期の分類データを共有分類データと同じものとすることができる。
 以上のように、第2の実施形態は、分類関係の重要度を計算し、重要度の高い分類関係を用いて共有分類データを更新する。これにより、重要度の高い分類関係を全てのユーザで共有することができる。その結果、分類精度が向上する。
 (第3の実施形態)
 図10は、第3の実施形態に係る対話システム1000を概略的に示している。図10に示される対話システム1000は、図1に示される対話システム100の構成に加えて、類似度計算部1001を備える。類似度計算部1001は、対話ログに含まれる分類間の類似度を計算する。
 第1の実施形態では、話題変化は、クライアント状態、引数が分類でないこと、及び訂正がないことに基づいて判定される。ユーザが関連のない分類を言う可能性と、ユーザが関連のあるキーワードを言う可能性もある。そこで、類似度計算部1001は、分類間の類似度を計算し、対象ログ抽出部109は、類似度を用いて話題の変化を検出する。それにより、より正確に話題の変化を検出することが可能となる。具体的には、類似度計算部1001は、キーワードで検出された番組の中から再生或いは録画などの処理がなされた番組の分類と対話ログ中の話題として出現した分類の類似度を計算し、対象ログ抽出部109は、類似度が閾値より小さい場合に話題が変化したことを検出する。
 類似度計算の方法は、既存の方法を用いることができる。例えば、図7A、図7B、図9A、図9Bに示すような分類の関係を示すグラフのパスの近さを用いて計算する方法、電子番組表やwikipediaなどのインターネット上の番組内容を記述したテキスト情報からキーワードを抽出し、単語のベクトル空間モデルを用いて計算する手法を用いることができる。
 以上のように、第3の実施形態は、分類間の類似度を計算し、類似度を用いて話題の変化を検出する。それにより、対話ログ中での話題の変化をより正確に検出することが可能となる。
 また、上述の実施形態の中で示した処理手順に示された指示は、ソフトウェアであるプログラムに基づいて実行されることが可能である。汎用の計算機システムが、このプログラムを予め記憶しておき、このプログラムを読み込むことにより、上述した実施形態の対話システムによる効果と同様な効果を得ることも可能である。上述の実施形態で記述された指示は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD-ROM、CD-R、CD-RW、DVD-ROM、DVD±R、DVD±RWなど)、半導体メモリ、又はこれに類する記録媒体に記録される。コンピュータ又は組み込みシステムが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。コンピュータは、この記録媒体からプログラムを読み込み、このプログラムに基づいてプログラムに記述されている指示をCPUで実行させれば、上述した実施形態の対話システムと同様な動作を実現することができる。もちろん、コンピュータがプログラムを取得する場合又は読み込む場合はネットワークを通じて取得又は読み込んでもよい。 
 また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。 
 さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶又は一時記憶した記録媒体も含まれる。 
 また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
 なお、本実施形態におけるコンピュータ又は組み込みシステムは、記録媒体に記憶されたプログラムに基づき、本実施形態における各処理を実行するためのものであって、パソコン、マイコン等の1つからなる装置、複数の装置がネットワーク接続されたシステム等の何れの構成であってもよい。 
 また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (6)

  1.  ユーザと対話システムとの対話に関する対話ログを記憶する対話ログ記憶部にアクセス可能な分類装置であって、
     前記対話ログ記憶部から、前記対話システムが前記ユーザの第1の発話に基づいて実行した第1の検索に使用された第1の分類を示す情報と、前記第1の検索が失敗したことを示す情報と、前記対話システムが前記第1の発話より後に生じた前記ユーザの第2の発話に基づいて実行した第2の検索の結果として取得されたデータを示す情報と、を含む1つの対話に関する対話ログのセットを抽出する対象ログ抽出部と、
     前記第1の分類と前記データとを互いに関連付けた分類関係を生成する分類関係生成部と、
     を具備する分類装置。
  2.  前記対話ログのセットは、前記第2の検索に使用された第2の分類を示す情報をさらに含み、
     前記分類関係生成部は、前記第1の分類が前記第2の分類の下位分類であることを示す分類関係をさらに生成する、請求項1に記載の分類装置。
  3.  前記分類関係生成部によって生成された分類関係を含む分類データを複数のユーザ毎に格納し、さらに、前記複数のユーザに共有される共有分類データを格納する分類データ記憶部と、
     対象の分類関係を有するユーザの数、前記複数のユーザを対象にして前記対象の分類関係が検索に利用された頻度を示す分類関係利用頻度、及び前記複数のユーザを対象として前記対象の分類関係を用いた検索の結果が利用された頻度を示す検索結果利用頻度に基づいて、前記対象の分類関係の重要度を計算する重要度計算部と、
     前記重要度が閾値以上である場合、前記対象の分類関係を前記共有分類データに追加する更新部と、
     をさらに具備する請求項1に記載の分類装置。
  4.  前記対話ログに含まれる分類間の類似度を計算する類似度計算部をさらに具備し、
     前記対象ログ抽出部は、前記類似度に基づいて、話題の変化を検出する、請求項1に記載の分類装置。
  5.  ユーザと対話システムとの対話に関する対話ログから、前記対話システムが前記ユーザの第1の発話に基づいて実行した第1の検索に使用された第1の分類を示す情報と、前記第1の検索が失敗したことを示す情報と、前記対話システムが前記第1の発話より後に生じた前記ユーザの第2の発話に基づいて実行した第2の検索の結果として取得されたデータを示す情報と、を含む1つの対話に関する対話ログのセットを抽出することと、
     前記第1の分類と前記データとを互いに関連付けた第1の分類関係を生成することと、
     を具備する分類方法。
  6.  コンピュータを、
     ユーザと対話システムとの対話に関する対話ログから、前記対話システムが前記ユーザの第1の発話に基づいて実行した第1の検索に使用された第1の分類を示す情報と、前記第1の検索が失敗したことを示す情報と、前記対話システムが前記第1の発話より後に生じた前記ユーザの第2の発話に基づいて実行した第2の検索の結果として取得されたデータを示す情報と、を含む1つの対話に関する対話ログのセットを抽出する手段と、
     前記第1の分類と前記データとを互いに関連付けた第1の分類関係を生成する手段として機能させるための分類プログラム。
PCT/JP2015/058324 2015-03-19 2015-03-19 分類装置、方法及びプログラム WO2016147401A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017505993A JP6305629B2 (ja) 2015-03-19 2015-03-19 分類装置、方法及びプログラム
PCT/JP2015/058324 WO2016147401A1 (ja) 2015-03-19 2015-03-19 分類装置、方法及びプログラム
US15/433,149 US11163812B2 (en) 2015-03-19 2017-02-15 Classification apparatus and classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/058324 WO2016147401A1 (ja) 2015-03-19 2015-03-19 分類装置、方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/433,149 Continuation US11163812B2 (en) 2015-03-19 2017-02-15 Classification apparatus and classification method

Publications (1)

Publication Number Publication Date
WO2016147401A1 true WO2016147401A1 (ja) 2016-09-22

Family

ID=56918573

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/058324 WO2016147401A1 (ja) 2015-03-19 2015-03-19 分類装置、方法及びプログラム

Country Status (3)

Country Link
US (1) US11163812B2 (ja)
JP (1) JP6305629B2 (ja)
WO (1) WO2016147401A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061482A (ja) * 2017-09-26 2019-04-18 株式会社日立製作所 情報処理装置、対話処理方法及び対話システム
JP2019079438A (ja) * 2017-10-26 2019-05-23 富士通株式会社 回答出力プログラム、回答出力方法および情報処理装置
WO2019163247A1 (ja) * 2018-02-22 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
JP7480386B2 (ja) 2018-11-16 2024-05-09 ライブパーソン, インコーポレイテッド スクリプトに基づく自動ボット作成

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019107145A1 (ja) * 2017-11-28 2019-06-06 ソニー株式会社 情報処理装置、及び情報処理方法
CN112035613B (zh) * 2020-08-28 2023-09-12 光大科技有限公司 基于多轮对话的信息推送方法及装置、存储介质、电子装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334638A (ja) * 2003-05-09 2004-11-25 Nippon Telegr & Teleph Corp <Ntt> 追加検索語取得装置、追加検索語取得方法、これらの追加検索語取得装置または追加検索語取得方法を実現するプログラムおよびそのプログラムが記憶された記録媒体
JP2006107467A (ja) * 2004-09-30 2006-04-20 Microsoft Corp 複数の検索セッションを分析してその中の意図ベースのクラスタを識別する方法及び記録媒体
JP2006277676A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 情報検索装置、情報検索方法および情報検索プログラム
JP2011086032A (ja) * 2009-10-14 2011-04-28 Hitachi Solutions Ltd 変化話題抽出装置または変化話題抽出方法
JP2011215723A (ja) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd シソーラス構築システム、シソーラス構築方法およびシソーラス構築プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02238567A (ja) 1989-03-13 1990-09-20 Agency Of Ind Science & Technol データの自動分類支援装置
FR2799913B1 (fr) * 1999-10-14 2001-11-23 France Telecom Procede de mise en communication telephonique par commande vocale et serveur vocal correspondant
JP2001229200A (ja) 2000-02-17 2001-08-24 Hitachi Ltd データ検索結果の表示方式とその為のデータ登録方式
JP2002288201A (ja) 2001-03-23 2002-10-04 Fujitsu Ltd 質問応答処理方法,質問応答処理プログラム,質問応答処理プログラム記録媒体および質問応答処理装置
DE10209928A1 (de) * 2002-03-07 2003-09-18 Philips Intellectual Property Verfahren zum Betrieb eines Sprach-Dialogsystems
JP4888996B2 (ja) 2005-10-21 2012-02-29 株式会社ユニバーサルエンターテインメント 会話制御装置
JP2007220045A (ja) * 2006-02-20 2007-08-30 Toshiba Corp コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
JP5089955B2 (ja) 2006-10-06 2012-12-05 三菱電機株式会社 音声対話装置
TWI321313B (en) * 2007-03-03 2010-03-01 Ind Tech Res Inst Apparatus and method to reduce recognization errors through context relations among dialogue turns
JP5228529B2 (ja) * 2008-02-26 2013-07-03 富士通株式会社 データ検索プログラム、データ検索装置およびデータ検索方法
CN102289436B (zh) 2010-06-18 2013-12-25 阿里巴巴集团控股有限公司 确定搜索词权重值方法及装置、搜索结果生成方法及装置
JP5835197B2 (ja) * 2012-11-29 2015-12-24 トヨタ自動車株式会社 情報処理システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334638A (ja) * 2003-05-09 2004-11-25 Nippon Telegr & Teleph Corp <Ntt> 追加検索語取得装置、追加検索語取得方法、これらの追加検索語取得装置または追加検索語取得方法を実現するプログラムおよびそのプログラムが記憶された記録媒体
JP2006107467A (ja) * 2004-09-30 2006-04-20 Microsoft Corp 複数の検索セッションを分析してその中の意図ベースのクラスタを識別する方法及び記録媒体
JP2006277676A (ja) * 2005-03-30 2006-10-12 Toshiba Corp 情報検索装置、情報検索方法および情報検索プログラム
JP2011086032A (ja) * 2009-10-14 2011-04-28 Hitachi Solutions Ltd 変化話題抽出装置または変化話題抽出方法
JP2011215723A (ja) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd シソーラス構築システム、シソーラス構築方法およびシソーラス構築プログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019061482A (ja) * 2017-09-26 2019-04-18 株式会社日立製作所 情報処理装置、対話処理方法及び対話システム
JP2019079438A (ja) * 2017-10-26 2019-05-23 富士通株式会社 回答出力プログラム、回答出力方法および情報処理装置
JP7009912B2 (ja) 2017-10-26 2022-01-26 富士通株式会社 回答出力プログラム、回答出力方法および情報処理装置
WO2019163247A1 (ja) * 2018-02-22 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
JPWO2019163247A1 (ja) * 2018-02-22 2021-02-04 ソニー株式会社 情報処理装置、情報処理方法、および、プログラム
US11398221B2 (en) 2018-02-22 2022-07-26 Sony Corporation Information processing apparatus, information processing method, and program
JP7375741B2 (ja) 2018-02-22 2023-11-08 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
JP7480386B2 (ja) 2018-11-16 2024-05-09 ライブパーソン, インコーポレイテッド スクリプトに基づく自動ボット作成

Also Published As

Publication number Publication date
US20170161374A1 (en) 2017-06-08
US11163812B2 (en) 2021-11-02
JP6305629B2 (ja) 2018-04-04
JPWO2016147401A1 (ja) 2017-06-08

Similar Documents

Publication Publication Date Title
JP6305629B2 (ja) 分類装置、方法及びプログラム
US11853536B2 (en) Intelligent automated assistant in a media environment
EP3491533B1 (en) Providing command bundle suggestions for an automated assistant
US20140236570A1 (en) Exploiting the semantic web for unsupervised spoken language understanding
US20210034663A1 (en) Systems and methods for managing voice queries using pronunciation information
US10838954B1 (en) Identifying user content
US10255321B2 (en) Interactive system, server and control method thereof
KR20210060897A (ko) 음성 처리 방법 및 장치
US20230419963A1 (en) Selectively providing enhanced clarification prompts in automated assistant interactions
CN115148212A (zh) 一种语音交互方法、智能设备及系统
KR20060100646A (ko) 영상물의 특정 위치를 검색하는 방법 및 영상 검색 시스템
US11475080B2 (en) Natural language-based search and discovery of content service
US20220238108A1 (en) Information processing device, information processing method, and program
JP6115487B2 (ja) 情報収集方法、対話システム及び情報収集装置
US20220020369A1 (en) Information processing device, information processing system, and information processing method, and program
US11636363B2 (en) Cognitive computer diagnostics and problem resolution
JPWO2016151692A1 (ja) タグ付与支援装置、方法およびプログラム
US11935533B1 (en) Content-related actions based on context
US11922931B2 (en) Systems and methods for phonetic-based natural language understanding
US11955120B1 (en) Systems and methods for integrating voice controls into applications
JP6633708B2 (ja) タグ付与支援装置、方法およびプログラム
US20240134506A1 (en) Intelligent automated assistant in a media environment
US20220236945A1 (en) Information processing device, information processing method, and program
KR20230123409A (ko) 음성 인식을 통한 영상 검색 시스템 및 방법
Schmitt et al. Interaction Modeling and Platform Development

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15885497

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017505993

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15885497

Country of ref document: EP

Kind code of ref document: A1