JP6842095B2 - 対話方法、対話システム、対話装置、およびプログラム - Google Patents
対話方法、対話システム、対話装置、およびプログラム Download PDFInfo
- Publication number
- JP6842095B2 JP6842095B2 JP2019504381A JP2019504381A JP6842095B2 JP 6842095 B2 JP6842095 B2 JP 6842095B2 JP 2019504381 A JP2019504381 A JP 2019504381A JP 2019504381 A JP2019504381 A JP 2019504381A JP 6842095 B2 JP6842095 B2 JP 6842095B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- user
- topic
- guided
- personality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000004044 response Effects 0.000 claims description 16
- 230000001360 synchronised effect Effects 0.000 claims description 8
- 230000002452 interceptive effect Effects 0.000 claims 2
- 208000025967 Dissociative Identity disease Diseases 0.000 claims 1
- 230000009471 action Effects 0.000 description 77
- 235000012149 noodles Nutrition 0.000 description 40
- 239000003795 chemical substances by application Substances 0.000 description 37
- 230000006399 behavior Effects 0.000 description 24
- 238000012545 processing Methods 0.000 description 21
- 230000015572 biosynthetic process Effects 0.000 description 20
- 238000003786 synthesis reaction Methods 0.000 description 20
- 230000036541 health Effects 0.000 description 18
- 235000009419 Fagopyrum esculentum Nutrition 0.000 description 17
- 241000219051 Fagopyrum Species 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 240000008620 Fagopyrum esculentum Species 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 235000013305 food Nutrition 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 235000015429 Mirabilis expansa Nutrition 0.000 description 3
- 244000294411 Mirabilis expansa Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 235000013536 miso Nutrition 0.000 description 3
- OHVLMTFVQDZYHP-UHFFFAOYSA-N 1-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-2-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]ethanone Chemical compound N1N=NC=2CN(CCC=21)C(CN1CCN(CC1)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F)=O OHVLMTFVQDZYHP-UHFFFAOYSA-N 0.000 description 2
- HMUNWXXNJPVALC-UHFFFAOYSA-N 1-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]-2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethanone Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)C(CN1CC2=C(CC1)NN=N2)=O HMUNWXXNJPVALC-UHFFFAOYSA-N 0.000 description 2
- VZSRBBMJRBPUNF-UHFFFAOYSA-N 2-(2,3-dihydro-1H-inden-2-ylamino)-N-[3-oxo-3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)propyl]pyrimidine-5-carboxamide Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)C(=O)NCCC(N1CC2=C(CC1)NN=N2)=O VZSRBBMJRBPUNF-UHFFFAOYSA-N 0.000 description 2
- LDXJRKWFNNFDSA-UHFFFAOYSA-N 2-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-1-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]ethanone Chemical compound C1CN(CC2=NNN=C21)CC(=O)N3CCN(CC3)C4=CN=C(N=C4)NCC5=CC(=CC=C5)OC(F)(F)F LDXJRKWFNNFDSA-UHFFFAOYSA-N 0.000 description 2
- WZFUQSJFWNHZHM-UHFFFAOYSA-N 2-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]-1-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethanone Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)CC(=O)N1CC2=C(CC1)NN=N2 WZFUQSJFWNHZHM-UHFFFAOYSA-N 0.000 description 2
- JQMFQLVAJGZSQS-UHFFFAOYSA-N 2-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]-N-(2-oxo-3H-1,3-benzoxazol-6-yl)acetamide Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)CC(=O)NC1=CC2=C(NC(O2)=O)C=C1 JQMFQLVAJGZSQS-UHFFFAOYSA-N 0.000 description 2
- IHCCLXNEEPMSIO-UHFFFAOYSA-N 2-[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperidin-1-yl]-1-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)ethanone Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)C1CCN(CC1)CC(=O)N1CC2=C(CC1)NN=N2 IHCCLXNEEPMSIO-UHFFFAOYSA-N 0.000 description 2
- YLZOPXRUQYQQID-UHFFFAOYSA-N 3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)-1-[4-[2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidin-5-yl]piperazin-1-yl]propan-1-one Chemical compound N1N=NC=2CN(CCC=21)CCC(=O)N1CCN(CC1)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F YLZOPXRUQYQQID-UHFFFAOYSA-N 0.000 description 2
- CONKBQPVFMXDOV-QHCPKHFHSA-N 6-[(5S)-5-[[4-[2-(2,3-dihydro-1H-inden-2-ylamino)pyrimidin-5-yl]piperazin-1-yl]methyl]-2-oxo-1,3-oxazolidin-3-yl]-3H-1,3-benzoxazol-2-one Chemical compound C1C(CC2=CC=CC=C12)NC1=NC=C(C=N1)N1CCN(CC1)C[C@H]1CN(C(O1)=O)C1=CC2=C(NC(O2)=O)C=C1 CONKBQPVFMXDOV-QHCPKHFHSA-N 0.000 description 2
- AFCARXCZXQIEQB-UHFFFAOYSA-N N-[3-oxo-3-(2,4,6,7-tetrahydrotriazolo[4,5-c]pyridin-5-yl)propyl]-2-[[3-(trifluoromethoxy)phenyl]methylamino]pyrimidine-5-carboxamide Chemical compound O=C(CCNC(=O)C=1C=NC(=NC=1)NCC1=CC(=CC=C1)OC(F)(F)F)N1CC2=C(CC1)NN=N2 AFCARXCZXQIEQB-UHFFFAOYSA-N 0.000 description 2
- 206010037180 Psychiatric symptoms Diseases 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 206010040007 Sense of oppression Diseases 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
- Manipulator (AREA)
Description
第一実施形態の対話システムは、複数台の人型ロボットが協調してユーザとの対話を行うシステムである。すなわち、第一実施形態の対話システムは、エージェントが人型ロボットである場合の一例である。対話システム100は、図1に示すように、例えば、対話装置1と、少なくともマイクロホン11を備える入力部10と、少なくともスピーカ51を備える提示部50とを含む。入力部10は、マイクロホン11に加えて、カメラ12を備えていてもよい。対話装置1は、例えば、行動認識部20、発話決定部30、および音声合成部40を備える。行動認識部20は、少なくとも音声認識部21を備え、動作認識部22を備えていてもよい。この対話システム100が後述する各ステップの処理を行うことにより第一実施形態の対話方法が実現される。
入力部10は提示部50と一体もしくは部分的に一体として構成してもよい。図1の例では、入力部10の一部であるマイクロホン11−1、11−2が、提示部50である人型ロボット50−1、50−2の頭部(耳の位置)に搭載されている。また、図1の例では入力部10の一部であるカメラ12が独立して設置されているが、例えば、人型ロボット50−1、50−2の頭部(目の位置)に搭載されていてもよい。図1の例では、提示部50は二台の人型ロボット50−1、50−2から構成されているが、人型ロボットは複数台あればよく、三台以上の人型ロボットから構成されていてもよい。
行動認識部20は、マイクロホン11が収音したユーザの発話音声の音声信号を少なくとも入力として、音声認識部21を少なくとも用いて、音声認識部21が得た音声認識結果を少なくとも含むユーザの行動認識結果を得て、発話決定部30に対して出力する。なお、行動認識部20は、カメラ12が収録したユーザの身体動作の映像信号も入力として、動作認識部22も用いて、動作認識部22が得たユーザの発話の動作認識結果も含むユーザの行動認識結果を得て、発話決定部30に対して出力してもよい。
音声認識部21は、マイクロホン11から入力されたユーザの発話音声の音声信号を音声認識してユーザ発話の音声認識結果を得て出力する。音声認識部21が出力したユーザの発話の音声認識結果は行動認識部20がユーザの行動認識結果に含めて出力する。音声認識の方法や音声認識結果の詳細については後述する。
動作認識部22は、カメラ12から入力されたユーザの身体動作の映像信号から、ユーザの動作認識結果を得て出力する。動作認識部22が出力したユーザの発話の動作認識結果は行動認識部20がユーザの行動認識結果に含めて出力する。動作認識の方法や動作認識結果の詳細については後述する。
発話決定部30は、対話システム100からの発話内容を表すテキストを決定し、音声合成部40に対して出力する。行動認識部20からユーザの行動認識結果が入力された場合には、入力されたユーザの行動認識結果に含まれるユーザの発話の音声認識結果に少なくとも基づいて、対話システム100からの発話内容を表すテキストを決定し、音声合成部40に対して出力する。なお、対話システム100の提示部50が複数の人型ロボットで構成される場合には、発話決定部30は、当該発話をいずれの人型ロボットが提示するかを決定してもよい。この場合には、当該発話を提示する人型ロボットを表す情報も併せて音声合成部40へ出力する。また、この場合には、発話決定部30は、当該発話を提示する相手、すなわち、当該発話をユーザに対して提示するのか、何れかの人型ロボットに対して提示するのか、を決定してもよい。この場合には、当該発話を提示する相手を表す情報も併せて音声合成部40へ出力する。
音声合成部40は、発話決定部30から入力された発話内容を表すテキストを、発話内容を表す音声信号に変換し、提示部50に対して出力する。音声合成部40が行う音声合成の方法は、既存のいかなる音声合成技術であってもよく、利用環境等に合わせて最適なものを適宜選択すればよい。なお、発話決定部30から発話内容を表すテキストと共に当該発話を提示する人型ロボットを表す情報が入力された場合には、音声合成部40は、当該情報に対応する人型ロボットへ発話内容を表す音声信号を出力する。また、発話決定部30から発話内容を表すテキストと当該発話を提示する人型ロボットを表す情報に併せて発話を提示する相手を表す情報も入力された場合には、音声合成部40は、当該情報に対応する人型ロボットへ発話内容を表す音声信号と発話を提示する相手を表す情報を出力する。
提示部50は、発話決定部30が決定した発話内容をユーザへ提示するためのインターフェースである。例えば、提示部50は、人間の形を模して製作された人型ロボットである。この人型ロボットは、音声合成部40から入力された発話内容を表す音声信号に対応する音声を、例えば頭部に搭載したスピーカ51から発音する、すなわち、発話を提示する。スピーカ51は、音声合成部40から入力された発話内容を表す音声信号に対応する音声を発音可能とすればよい。つまり、図1は一例であって、スピーカ51−1,51−2の何れか一方を備えないでもよい。また、ユーザ101の近傍などの人型ロボット50−1,50−2とは異なる場所に1個以上のスピーカ、または、複数のスピーカを備えたスピーカアレイを設置し、スピーカ51−1,51−2の双方を備えない構成としてもよい。また、人型ロボットは、顔の表情や、身体の動作等の非言語的な行動により発話決定部30が決定した発話内容をユーザへ提示してもよい。例えば、直前の発話に対して同意する旨を提示する際には、首を縦に振り、同意しない旨を提示する際には、首を横に振るなどの非言語的な行動を提示することが挙げられる。また、人型ロボットは、発話を提示する際に、顔や体全体をユーザまたは他の人型ロボットの方へ向けることで、顔や身体を向いた方にいるユーザまたは他の人型ロボットに対して発話を提示していることを表現することができる。提示部50を人型ロボットとした場合には、対話に参加する人格(エージェント)ごとに一台の人型ロボットを用意する。以下では、二人の人格が対話に参加する例として、二台の人型ロボット50−1および50−2が存在するものとする。なお、発話決定部30が当該発話をいずれの人型ロボットから提示するかを決定していた場合には、音声合成部40が出力した発話内容を表す音声信号を受け取った人型ロボット50−1または50−2が当該発話を提示する。また、発話決定部30が決定した発話を提示する相手を表す情報が入力された場合には、人型ロボット50−1または50−2は、発話を提示する相手を表す情報に対応する人型ロボットまたはユーザの方向へ顔や視線を向けた状態で、発話を提示する。
このケースでは、行動認識部20ではx択認識とポジネガ認識と妥当性認識とが行われ、これらの認識の結果がユーザの行動認識結果として発話決定部30に入力される。
このケースでは、行動認識部20では妥当性認識が行われ、妥当性認識の結果がユーザの行動認識結果として発話決定部30に入力される。
このケースでは、行動認識部20ではポジネガ認識と妥当性認識とが行われ、これらの認識の結果がユーザの行動認識結果として発話決定部30に入力される。
このケースでは、行動認識部20ではx択認識と妥当性認識とが行われ、これらの認識の結果がユーザの行動認識結果として発話決定部30に入力される。
このケースでは、行動認識部20ではx択認識と妥当性認識とが行われ、これらの認識の結果がユーザの行動認識結果として発話決定部30に入力される。また、行動認識部20では、x択認識が行われる。
以下、第一実施形態による対話内容の具体例を示す。以降の具体例の記載では、Rはロボットを表し、Hはユーザを表す。Rの後の数字は人型ロボットの識別子である。t(i)(i=0, 1, 2, …)は対話中の発話または行動を表し、特に、t(1)は第一発話、t(2)は第一発話に対するユーザ発話、t(3)は話題誘導発話、t(4)は目的発話を表す。各発話または行動の記載順は、その発話または行動を提示または表出する順番を表す。各発話が複数の発話からなる場合、t(i-j)と表す。例えば、話題誘導発話が3つの発話を含む場合、話題誘導発話はt(3-1), t(3-2), t(3-3)で表す。
具体例1−1は、ユーザ発話の音声認識結果が第一発話の内容から想定される範囲内であったときに、連想による話題の誘導を行う例である。
t(2) H:いや、そばかな
t(3) R2:だよね。そばってヘルシーな感じ。
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例1−2は、ユーザ発話の音声認識結果が第一発話の内容から想定される範囲内であったときに、複数段階の連想による話題の誘導を行う例である。
t(2) H:うどんかな
t(3-1) R2:うどんと言えば香川だね
t(3-2) R1:うん、あ、でもこの間、和歌山で食べたうどんもおいしかったよ
t(3-3) R2:そうなの?和歌山はラーメンだけかと思ってた
t(3-4) R1:うどんも有名だよ。でも確かに和歌山はどっちかっていえばラーメンかなあ。
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例2−1は、ユーザ発話の行動認識に失敗したときに、他のロボットへ同じ内容の発話を提示して、他のロボットがこれに回答することで、自然な多数決による話題の誘導を行う例である。
t(2) H:*****(行動認識失敗)
t(3-1) R1:そっか、君は?
t(3-2) R2:ラーメン
t(3-3) R1:だよね
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例2−2は、ユーザ発話の行動認識に失敗したときに、一旦話題を脱線させてから元の話題に戻すことで、自然な多数決による話題の誘導を行う例である。
t(2) H:*****(行動認識失敗)
t(3-1) R2:何々派って、人間性でるよね
t(3-2) R1:そんなつもりじゃないよ
t(3-3) R2:僕はラーメン派だなぁ
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例2−3は、ユーザ発話の行動認識に失敗したとき、第一発話に関係する付加情報を含む発話を提示して、自然な多数決による話題の誘導を行う例である。
t(2) H:*****(行動認識失敗)
t(3-1) R2:僕はこの間、和歌山に行っておいしいのを食べてから、ラーメン派だよ
t(3-2) R1:お、和歌山
t(3-3) R2:うん、味噌ラーメン
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例3−1は、ユーザ発話のx択認識には失敗したが、ポジネガ認識や動作認識により肯定的な内容であることが判定できたときに、人型ロボット同士の対話を提示することで、自然な多数決による話題の誘導を行う例である。
t(2) H:**<肯定的>**(x択認識に失敗したが、肯定的であることは判定できた)
t(3-1) R2:だよねぇ
t(3-2) R1:僕はこの間、和歌山に行っておいしいのを食べてから、ラーメン派だよ
t(3-3) R2:お、和歌山
t(3-4) R1:うん、味噌ラーメン
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例3−2は、ユーザ発話のx択認識には失敗したが、ポジネガ認識や動作認識により否定的な内容であることが判定できたときに、人型ロボット同士の対話を提示することで、自然な多数決による話題の誘導を行う例である。
t(2) H:**<否定的>**(x択認識に失敗したが、否定的であることは判定できた)
t(3-1) R1:えー、そっか。君は?
t(3-2) R2:僕もラーメン派ではないかなぁ
t(3-3) R1:そっか。でも、誰が何と言おうと、僕はラーメン派。
t(3-4) R2:好きなんだね。人それぞれだからいいけど。
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例3−3は、ユーザ発話のx択認識には失敗したが、ポジネガ認識や動作認識により肯定的な内容であることが判定できたときに、人型ロボット同士の対話を提示することで、自然な多数決による話題の誘導を行う例である。
t(2) H:**<肯定的>**(x択認識に失敗したが、肯定的であることは判定できた)
t(3-1) R2:えー、そうなの?
t(3-2) R1:僕はこの間、和歌山に行っておいしいのを食べてから、ラーメン派だよ
t(3-3) R2:お、和歌山
t(3-4) R1:うん、味噌ラーメン
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例3−4は、ユーザ発話のx択認識には失敗したが、ポジネガ認識や動作認識により否定的な内容であることが判定できたときに、人型ロボット同士の対話を提示することで、自然な多数決による話題の誘導を行う例である。
t(2) H:**<否定的>**(x択認識に失敗したが、否定的であることは判定できた)
t(3-1) R1:えー、そっか。残念。
t(3-2) R2:ラーメンいいよねえ。
t(3-3) R1:だよね。僕は外で食べるときはラーメンが多いかなあ。
t(3-4) R2:まあ、食べすぎるとお腹回りに来るんだけど。
t(4) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
具体例4−1は、音声認識により得られたユーザ発話の内容が第一発話の内容から想定される範囲外であったときに、ユーザ発話に類似した発話を提示することで、話題の誘導を行う例である。
t(2) H:え?ロボットなのに温泉入れるの?
t(3-1) R2:きみは温泉は好き?
t(3-2) R1:うん、好きだよ
t(4) R1:湯布院は風情があっていいよね
具体例4−2は、音声認識により得られたユーザ発話の内容が第一発話の内容から想定される範囲外であったときに、ユーザ発話に関連する質問を提示することで、話題の誘導を行う例である。
t(2) H:湯布院いいよね!
t(3-1) R2:だよね!湯布院のどこが好きなの?
t(3-2) R1:風情があるところが好きだよ
t(4) R2:湯布院は風情があっていいよね
具体例4−3は、音声認識により得られたユーザ発話の内容が第一発話の内容から想定される範囲外であったときに、対話システムが提示したい発話文の一部を省略することで、話題の誘導を行う例である。
t(2) H:おそばかな
t(4-1) R2:だよね。そばってヘルシーな感じ。
t(4-2) R1:お酒の後のラーメンって健康的にはNGだけど、やばいよね
t(4-3) R2:健康に一番効いてくるのは、やっぱり普段の運動だよね。
t(2) H:あー、お腹空いたね
t(3) R2:最近、食べてばっかりで、健康診断やばいかも
t(4-3) R2:健康に一番効いてくるのは、やっぱり普段の運動だよね。
具体例4−4は、音声認識により得られたユーザ発話の内容が第一発話の内容から想定される範囲外であったときに、対話システムが提示したい目的発話の一部を省略し、複数の発話により話題の誘導を行う例である。
t(2) H:あー、お腹空いたね
t(3-1) R2:最近、食べてばっかりで、健康診断やばいかも
t(3-2) R1:ぼく、健康診断のときは、1か月前からジョギングするんだ
t(4-3) R2:健康に一番効いてくるのは、やっぱり普段の運動だよね。
具体例4−5は、音声認識により得られたユーザ発話の内容が第一発話の内容から想定される範囲外であったときに、対話システムが提示しようとしていた目的発話を再選択して、新しい目的発話へ話題の誘導を行う例である。
t(2) H:そういう心理テストみたいなの好きだね
t(3-1) R2:ぼく、人を分析するのは好きじゃないな
t(3-2) R1:どうして?
t(4') R2:疑って人を傷つけるよりは、信じて裏切られる方がいいじゃん
第一実施形態では、対話システムから提示した第一発話に対するユーザ発話の音声認識結果を少なくとも含むユーザの行動認識結果に基づいて、対話システムが提示したい目的発話の話題へ誘導する構成を説明した。しかしながら、ユーザが自発的に発話したユーザ発話に基づいて、対話システムが提示したい目的発話の話題へ誘導する構成としてもよい。第二実施形態は、ユーザ発話に基づいて対話システムが提示したい目的発話を決定したときに、ユーザ発話の話題と目的発話の話題とが遠い場合に、話題を誘導する発話をユーザ発話と目的発話の間に挿入する構成である。
以下、第二実施形態による対話内容の具体例を示す。以降の具体例の記載では、t(2)はユーザ発話、t(3)は話題誘導発話、t(4)は目的発話を表す。
具体例5−1は、ユーザ発話の内容に基づいて選択した目的発話の話題が、ユーザ発話の話題と離れており、そのまま続けて発話すると違和感を生じるおそれがあるときに、目的発話の話題を連想する発話を挿入することで、話題の誘導を行う例である。
t(4-1) R2:きみは泳げる?
t(4-2) R1:泳げるよ
t(3-1) R2:あ、泳ぐ・・
t(3-2) R1:ん?どうしたの?
t(3-3) R2:いや、プール行きたいなーって
t(4-1) R1:あ!そういえば箱根に温泉とプールが付いてる施設があるの知ってる?
t(4-2) R2:知ってる!○○○でしょ?
t(4-3) R1:そうそう、いいよね
具体例5−2は、ユーザ発話の内容に基づいて選択した目的発話の話題が、ユーザ発話の話題と離れており、そのまま続けて発話すると違和感を生じるおそれがあるときに、目的発話の話題を連想する発話を挿入することで、話題の誘導を行う例である。
t(3) R2:おっきいお風呂だと泳げていいよね
t(4-1) R1:お風呂はいつ入る?
t(4-2) R2:うーん、夕方かな。ごはん後が多いよ。
t(4-3) R1:その時間がいいね
上述した実施形態では、エージェントとして人型ロボットを用いて音声による対話を行う例を説明したが、上述した実施形態の提示部は身体等を有する人型ロボットであっても、身体等を有さないロボットであってもよい。また、この発明の対話技術はこれらに限定されず、人型ロボットのように身体等の実体がなく、発声機構を備えないエージェントを用いて対話を行う形態とすることも可能である。そのような形態としては、例えば、コンピュータの画面上に表示されたエージェントを用いて対話を行う形態が挙げられる。より具体的には、「LINE」(登録商標)や「2ちゃんねる」(登録商標)のような、複数アカウントがテキストメッセージにより対話を行うグループチャットにおいて、ユーザのアカウントと対話装置のアカウントとが対話を行う形態に適用することも可能である。この形態では、エージェントを表示する画面を有するコンピュータは人の近傍にある必要があるが、当該コンピュータと対話装置とはインターネットなどのネットワークを介して接続されていてもよい。つまり、本対話システムは、人とロボットなどの話者同士が実際に向かい合って話す対話だけではなく、話者同士がネットワークを介してコミュニケーションを行う会話にも適用可能である。
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (32)
- ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムが実行する対話方法であって、
提示部が、上記第一発話を提示する第一提示ステップと、
入力部が、上記第一発話後に上記ユーザのユーザ発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話を上記ユーザ発話後に提示する第二提示ステップと、
上記提示部が、上記目的発話を上記話題誘導発話後に提示する第三提示ステップと、
を含み、
上記ユーザ発話の認識に失敗した場合には、
上記第二提示ステップは、
上記ユーザ発話後に、上記第一発話を提示した人格である第一人格によって、上記第一人格以外の人格である第二人格に対して、上記第一発話と同じ意味の発話である第一話題誘導発話を提示し、
上記第一話題誘導発話後に、上記第二人格によって、上記第一話題誘導発話と上記目的発話の発話文とに基づく発話である第二話題誘導発話を提示する
ことを含む
対話方法。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムが実行する対話方法であって、
提示部が、上記第一発話を提示する第一提示ステップと、
入力部が、上記第一発話後に上記ユーザのユーザ発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話を上記ユーザ発話後に提示する第二提示ステップと、
上記提示部が、上記目的発話を上記話題誘導発話後に提示する第三提示ステップと、
を含み、
上記ユーザ発話の認識に失敗した場合には、
上記第二提示ステップは、
上記ユーザ発話後に、上記第一発話を提示した人格以外の人格である第二人格によって、上記第一発話と関連するが上記第一発話とは異なる内容の発話である第一話題誘導発話を提示し、
上記第一話題誘導発話後に、複数の人格による複数の話題誘導発話を提示する
ことを含む
対話方法。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムが実行する対話方法であって、
提示部が、上記第一発話を提示する第一提示ステップと、
入力部が、上記第一発話後に上記ユーザのユーザ発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話を上記ユーザ発話後に提示する第二提示ステップと、
上記提示部が、上記目的発話を上記話題誘導発話後に提示する第三提示ステップと、
を含み、
上記ユーザ発話の認識に失敗した場合には、
上記第二提示ステップは、
上記ユーザ発話後に、上記第一発話を提示した人格以外の人格である第二人格によって、上記第一発話に応答する発話である話題誘導発話を提示する
ことを含む
対話方法。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムが実行する対話方法であって、
提示部が、上記第一発話を提示する第一提示ステップと、
入力部が、上記第一発話後に上記ユーザのユーザ発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話を上記ユーザ発話後に提示する第二提示ステップと、
上記提示部が、上記目的発話を上記話題誘導発話後に提示する第三提示ステップと、
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、
上記話題誘導発話は、
ある人格である人格Aによる上記ユーザ発話に同調する発話と、
上記人格A以外の人格である人格Bによる上記ユーザ発話に同調しない発話と、
を含むものである、
対話方法。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムが実行する対話方法であって、
提示部が、上記第一発話を提示する第一提示ステップと、
入力部が、上記第一発話後に上記ユーザのユーザ発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話を上記ユーザ発話後に提示する第二提示ステップと、
上記提示部が、上記目的発話を上記話題誘導発話後に提示する第三提示ステップと、
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、
上記話題誘導発話は、
ある人格である人格Aによる上記ユーザ発話に同調しない発話と、
上記人格A以外の人格である人格Bによる上記ユーザ発話に同調しない発話と、
を含むものである、
対話方法。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムが実行する対話方法であって、
提示部が、上記第一発話を提示する第一提示ステップと、
入力部が、上記第一発話後に上記ユーザのユーザ発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話を上記ユーザ発話後に提示する第二提示ステップと、
上記提示部が、上記目的発話を上記話題誘導発話後に提示する第三提示ステップと、
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、
上記話題誘導発話は、
上記第一発話を提示した人格である第一人格による上記ユーザ発話に同調しない発話と、上記第一人格以外の人格である第二人格による上記ユーザ発話に同調する発話と、
を含むものである、
対話方法。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムが実行する対話方法であって、
提示部が、上記第一発話を提示する第一提示ステップと、
入力部が、上記第一発話後に上記ユーザのユーザ発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話を上記ユーザ発話後に提示する第二提示ステップと、
上記提示部が、上記目的発話を上記話題誘導発話後に提示する第三提示ステップと、
を含み、
上記目的発話は、上記第一発話に関連する複数の発話を含み、
上記話題誘導発話は、上記目的発話のn(≧2)番目の発話に含まれる焦点語のいずれかを連想させる単語を含む少なくとも一つの発話を含み、
上記第三提示ステップは、1番目からn-1番目までの発話を削除した上記目的発話を提示する、
対話方法。 - 予め用意された発話文である第一発話と、上記第一発話に関連する発話文として予め用意された発話文である目的発話とをユーザへ提示する対話システムが実行する対話方法であって、
提示部が、上記第一発話を提示する第一提示ステップと、
入力部が、上記第一発話後に上記ユーザのユーザ発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザ発話の発話文に含まれる単語と、上記目的発話の単語または上記目的発話の話題に誘導するための話題の単語と、を含む発話を上記ユーザ発話の直後に提示することを含んで、少なくとも一つの話題誘導発話を上記ユーザ発話後に提示する第二提示ステップと、
上記提示部が、上記目的発話を上記話題誘導発話後に提示する第三提示ステップと、
を含む対話方法。 - 請求項8に記載の対話方法であって、
上記ユーザ発話の認識結果が上記第一発話に関連しない内容である場合、
上記第二提示ステップでは、
上記提示部が、
上記ユーザ発話の直後に、上記第一発話を提示した第一人格以外の人格である第二人格によって、上記ユーザ発話に関連する質問をする第一の話題誘導発話を提示し、
上記第一の話題誘導発話の直後に、上記第一人格によって、上記第一の話題誘導発話に応答する第二の話題誘導発話を提示し、
上記第三提示ステップでは、
上記提示部が、
上記第二の話題誘導発話の直後に、上記第一発話とは異なる話題の発話を提示する、
対話方法。 - 請求項8に記載の対話方法であって、
上記話題誘導発話は、上記ユーザ発話の発話文に含まれる単語のいずれかから連想される単語と上記目的発話の発話文に含まれる焦点語のいずれかを連想させる単語とを含むものである、
対話方法。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムであって、
上記第一発話後に上記ユーザのユーザ発話を受け付ける入力部と、
上記第一発話と、上記目的発話と、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話と、を決定する発話決定部と、
上記第一発話を提示し、上記ユーザ発話を受け付けた後に上記話題誘導発話を提示し、上記話題誘導発話を提示した後に上記目的発話を提示する提示部と、
を含み、
上記ユーザ発話の認識に失敗した場合には、
上記提示部は、
上記ユーザ発話後に、上記第一発話を提示した人格である第一人格によって、上記第一人格以外の人格である第二人格に対して、上記第一発話と同じ意味の発話である第一話題誘導発話を提示し、
上記第一話題誘導発話後に、上記第二人格によって、上記第一話題誘導発話と上記目的発話の発話文とに基づく発話である第二話題誘導発話を提示する
ことを含む対話システム。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムであって、
上記第一発話後に上記ユーザのユーザ発話を受け付ける入力部と、
上記第一発話と、上記目的発話と、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話と、を決定する発話決定部と、
上記第一発話を提示し、上記ユーザ発話を受け付けた後に上記話題誘導発話を提示し、上記話題誘導発話を提示した後に上記目的発話を提示する提示部と、
を含み、
上記ユーザ発話の認識に失敗した場合には、
上記提示部は、
上記ユーザ発話後に、上記第一発話を提示した人格以外の人格である第二人格によって、上記第一発話と関連するが上記第一発話とは異なる内容の発話である第一話題誘導発話を提示し、
上記第一話題誘導発話後に、複数の人格による複数の話題誘導発話を提示する
ことを含む対話システム。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムであって、
上記第一発話後に上記ユーザのユーザ発話を受け付ける入力部と、
上記第一発話と、上記目的発話と、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話と、を決定する発話決定部と、
上記第一発話を提示し、上記ユーザ発話を受け付けた後に上記話題誘導発話を提示し、上記話題誘導発話を提示した後に上記目的発話を提示する提示部と、
を含み、
上記ユーザ発話の認識に失敗した場合には、
上記提示部は、
上記ユーザ発話後に、上記第一発話を提示した人格以外の人格である第二人格によって、上記第一発話に応答する発話である話題誘導発話を提示する
ことを含む対話システム。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムであって、
上記第一発話後に上記ユーザのユーザ発話を受け付ける入力部と、
上記第一発話と、上記目的発話と、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話と、を決定する発話決定部と、
上記第一発話を提示し、上記ユーザ発話を受け付けた後に上記話題誘導発話を提示し、上記話題誘導発話を提示した後に上記目的発話を提示する提示部と、
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、
上記話題誘導発話は、
ある人格である人格Aによる上記ユーザ発話に同調する発話と、
上記人格A以外の人格である人格Bによる上記ユーザ発話に同調しない発話と、
を含むものである、
対話システム。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムであって、
上記第一発話後に上記ユーザのユーザ発話を受け付ける入力部と、
上記第一発話と、上記目的発話と、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話と、を決定する発話決定部と、
上記第一発話を提示し、上記ユーザ発話を受け付けた後に上記話題誘導発話を提示し、上記話題誘導発話を提示した後に上記目的発話を提示する提示部と、
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、
上記話題誘導発話は、
ある人格である人格Aによる上記ユーザ発話に同調しない発話と、
上記人格A以外の人格である人格Bによる上記ユーザ発話に同調しない発話と、
を含むものである、
対話システム。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムであって、
上記第一発話後に上記ユーザのユーザ発話を受け付ける入力部と、
上記第一発話と、上記目的発話と、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話と、を決定する発話決定部と、
上記第一発話を提示し、上記ユーザ発話を受け付けた後に上記話題誘導発話を提示し、上記話題誘導発話を提示した後に上記目的発話を提示する提示部と、
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、
上記話題誘導発話は、
上記第一発話を提示した人格である第一人格による上記ユーザ発話に同調しない発話と、上記第一人格以外の人格である第二人格による上記ユーザ発話に同調する発話と、
を含むものである、
対話システム。 - ある発話である第一発話と上記第一発話に関連する目的発話とをユーザへ提示する対話システムであって、
上記第一発話後に上記ユーザのユーザ発話を受け付ける入力部と、
上記第一発話と、上記目的発話と、上記ユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの話題誘導発話と、を決定する発話決定部と、
上記第一発話を提示し、上記ユーザ発話を受け付けた後に上記話題誘導発話を提示し、上記話題誘導発話を提示した後に上記目的発話を提示する提示部と、
を含み、
上記発話決定部が決定する上記目的発話は、上記第一発話に関連する複数の発話を含み、
上記発話決定部が決定する上記話題誘導発話は、上記発話決定部が決定した上記目的発話のn(≧2)番目の発話に含まれる焦点語のいずれかを連想させる単語を含む少なくとも一つの発話を含み、
上記提示部は、上記発話決定部が決定した上記目的発話から1番目からn-1番目までの発話を削除した発話を上記目的発話として提示する、
対話システム。 - 予め用意された発話文である第一発話と、上記第一発話に関連する発話文として予め用意された発話文である目的発話とをユーザへ提示する対話システムであって、
上記第一発話後に上記ユーザのユーザ発話を受け付ける入力部と、
上記ユーザ発話の直後に提示される、上記ユーザ発話の発話文に含まれる単語と、上記目的発話の単語または上記目的発話の話題に誘導するための話題の単語と、を含む発話を含む、少なくとも一つの話題誘導発話を決定する発話決定部と、
上記第一発話を提示し、上記ユーザ発話を受け付けた後に上記話題誘導発話を提示し、上記話題誘導発話を提示した後に上記目的発話を提示する提示部と、
を含む対話システム。 - 請求項18に記載の対話システムであって、
上記ユーザ発話の認識結果が上記第一発話に関連しない内容である場合、
上記提示部は、
上記ユーザ発話の直後に、上記第一発話を提示した第一人格以外の人格である第二人格によって、上記ユーザ発話に関連する質問をする第一の話題誘導発話を提示し、
上記第一の話題誘導発話の直後に、上記第一人格によって、上記第一の話題誘導発話に応答する第二の話題誘導発話を提示し、
上記第二の話題誘導発話の直後に、上記第一発話とは異なる話題の発話を提示する、
対話システム。 - 請求項18に記載の対話システムであって、
上記話題誘導発話は、上記ユーザ発話の発話文に含まれる単語のいずれかから連想される単語と上記目的発話の発話文に含まれる焦点語のいずれかを連想させる単語とを含むものである、
対話システム。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
ある発話である第一発話と、
話題誘導発話後に上記提示部が提示する、上記第一発話に関連する目的発話と、
上記提示部による第一発話の提示後に上記入力部が受け付けたユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの上記話題誘導発話と、を決定する発話決定部
を含み、
上記ユーザ発話の認識に失敗した場合に上記発話決定部が決定する上記話題誘導発話は、
上記ユーザ発話後に、上記第一発話を提示した人格である第一人格によって、上記第一人格以外の人格である第二人格に対して上記提示部が提示する、上記第一発話と同じ意味の発話である第一話題誘導発話と、上記第一話題誘導発話後に、上記第二人格によって上記提示部が提示する、上記第一話題誘導発話と上記目的発話の発話文とに基づく発話である第二話題誘導発話と、
を含む
対話装置。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
ある発話である第一発話と、
話題誘導発話後に上記提示部が提示する、上記第一発話に関連する目的発話と、
上記提示部による第一発話の提示後に上記入力部が受け付けたユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの上記話題誘導発話と、を決定する発話決定部
を含み、
上記ユーザ発話の認識に失敗した場合に上記発話決定部が決定する上記話題誘導発話は、上記ユーザ発話後に、上記第一発話を提示した人格以外の人格である第二人格によって上記提示部が提示する、上記第一発話と関連するが上記第一発話とは異なる内容の発話である第一話題誘導発話と、
上記第一話題誘導発話後に、複数の人格により上記提示部が提示する、複数の話題誘導発話と
を含む
対話装置。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
ある発話である第一発話と、
話題誘導発話後に上記提示部が提示する、上記第一発話に関連する目的発話と、
上記提示部による第一発話の提示後に上記入力部が受け付けたユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの上記話題誘導発話と、を決定する発話決定部
を含み、
上記ユーザ発話の認識に失敗した場合に上記発話決定部が決定する上記話題誘導発話は、
上記ユーザ発話後に、上記第一発話を提示した人格以外の人格である第二人格によって上記提示部が提示する、上記第一発話に応答する発話である話題誘導発話
を含む
対話装置。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
ある発話である第一発話と、
話題誘導発話後に上記提示部が提示する、上記第一発話に関連する目的発話と、
上記提示部による第一発話の提示後に上記入力部が受け付けたユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの上記話題誘導発話と、を決定する発話決定部
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、
に上記発話決定部が決定する上記話題誘導発話は、
ある人格である人格Aにより上記提示部が提示する上記ユーザ発話に同調する発話と、
上記人格A以外の人格である人格Bにより上記提示部が提示する上記ユーザ発話に同調しない発話と、
を含む、
対話装置。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
ある発話である第一発話と、
話題誘導発話後に上記提示部が提示する、上記第一発話に関連する目的発話と、
上記提示部による第一発話の提示後に上記入力部が受け付けたユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの上記話題誘導発話と、を決定する発話決定部
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、
に上記発話決定部が決定する上記話題誘導発話は、
ある人格である人格Aにより上記提示部が提示する上記ユーザ発話に同調しない発話と、
上記人格A以外の人格である人格Bにより上記提示部が提示する上記ユーザ発話に同調しない発話と、
を含む、
対話装置。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
ある発話である第一発話と、
話題誘導発話後に上記提示部が提示する、上記第一発話に関連する目的発話と、
上記提示部による第一発話の提示後に上記入力部が受け付けたユーザ発話の認識結果と上記第一発話に関連する目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの上記話題誘導発話と、を決定する発話決定部
を含み、
上記目的発話が、上記第一発話に対する肯定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から否定的な意図を検知した場合、または、
上記目的発話が、上記第一発話に対する否定的な発話を受けた発話として違和感がないもの、である場合であって、上記ユーザ発話の認識結果から肯定的な意図を検知した場合、
に上記発話決定部が決定する上記話題誘導発話は、
上記第一発話を提示した人格である第一人格により上記提示部が提示する上記ユーザ発話に同調しない発話と、上記第一人格以外の人格である第二人格により上記提示部が提示する上記ユーザ発話に同調する発話と、
を含む、
対話装置。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
ある発話である第一発話と、
話題誘導発話後に上記提示部が提示する、上記第一発話に関連する目的発話と、
上記提示部による第一発話の提示後に上記入力部が受け付けたユーザ発話の認識結果と上記目的発話の発話文とに基づいて上記目的発話へ話題を誘導するための少なくとも一つの上記話題誘導発話と、を決定する発話決定部
を含み、
上記発話決定部が決定する上記目的発話は、上記第一発話に関連する複数の発話を含み、
上記発話決定部が決定する上記話題誘導発話は、上記発話決定部が決定した上記目的発話のn(≧2)番目の発話に含まれる焦点語のいずれかを連想させる単語を含む少なくとも一つの発話を含み、
上記発話決定部は、上記発話決定部が決定した上記目的発話から1番目からn-1番目までの発話を削除した発話を、上記提示部が提示する上記目的発話として決定する、
対話装置。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
ある発話文である第一発話と、
話題誘導発話後に上記提示部が提示する、上記第一発話に関連する発話文である目的発話と、
が予め用意されており
上記提示部による第一発話の提示後に上記入力部が受け付けたユーザ発話の直後に上記提示部が提示する、上記ユーザ発話の発話文に含まれる単語と、上記目的発話の単語または上記目的発話の話題に誘導するための話題の単語と、を含む発話を含み、上記ユーザ発話を受け付けた後に上記提示部が提示する、少なくとも一つの上記話題誘導発話を決定する発話決定部
を含む対話装置。 - 請求項28に記載の対話装置であって、
上記ユーザ発話の認識結果が上記第一発話に関連しない内容である場合に上記発話決定部が決定する上記話題誘導発話は、
上記ユーザ発話の直後に、上記第一発話を提示した第一人格以外の人格である第二人格によって上記提示部が提示する、上記ユーザ発話に関連する質問をする第一の話題誘導発話と、
上記第一の話題誘導発話の直後に、上記第一人格によって上記提示部が提示する、上記第一の話題誘導発話に応答する第二の話題誘導発話と、
を含み、
上記発話決定部は、
上記第二の話題誘導発話の直後に上記提示部が提示する、上記第一発話とは異なる話題の発話を、さらに決定する、
対話装置。 - 請求項28に記載の対話装置であって、
上記話題誘導発話は、上記ユーザ発話の発話文に含まれる単語のいずれかから連想される単語と上記目的発話の発話文に含まれる焦点語のいずれかを連想させる単語とを含む、
対話装置。 - 請求項1から10のいずれかに記載の対話方法の各ステップをコンピュータに実行させるためのプログラム。
- 請求項21から30のいずれかに記載の対話装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017046366 | 2017-03-10 | ||
JP2017046366 | 2017-03-10 | ||
PCT/JP2018/002509 WO2018163647A1 (ja) | 2017-03-10 | 2018-01-26 | 対話方法、対話システム、対話装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018163647A1 JPWO2018163647A1 (ja) | 2020-01-09 |
JP6842095B2 true JP6842095B2 (ja) | 2021-03-17 |
Family
ID=63448591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019504381A Active JP6842095B2 (ja) | 2017-03-10 | 2018-01-26 | 対話方法、対話システム、対話装置、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11222634B2 (ja) |
JP (1) | JP6842095B2 (ja) |
WO (1) | WO2018163647A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11232789B2 (en) * | 2016-05-20 | 2022-01-25 | Nippon Telegraph And Telephone Corporation | Dialogue establishing utterances without content words |
JP6842095B2 (ja) * | 2017-03-10 | 2021-03-17 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、およびプログラム |
WO2019087546A1 (ja) * | 2017-10-30 | 2019-05-09 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US10621983B2 (en) * | 2018-04-20 | 2020-04-14 | Spotify Ab | Systems and methods for enhancing responsiveness to utterances having detectable emotion |
US12118991B2 (en) * | 2018-07-20 | 2024-10-15 | Sony Corporation | Information processing device, information processing system, and information processing method |
WO2020070923A1 (ja) * | 2018-10-05 | 2020-04-09 | 日本電信電話株式会社 | 対話装置、その方法、およびプログラム |
JP7310907B2 (ja) * | 2019-10-03 | 2023-07-19 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、およびプログラム |
US20220351727A1 (en) * | 2019-10-03 | 2022-11-03 | Nippon Telegraph And Telephone Corporation | Conversaton method, conversation system, conversation apparatus, and program |
JP2021131472A (ja) * | 2020-02-20 | 2021-09-09 | ソニーグループ株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
CN111368046B (zh) * | 2020-02-24 | 2021-07-16 | 北京百度网讯科技有限公司 | 人机对话方法、装置、电子设备及存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6434527B1 (en) * | 1999-05-17 | 2002-08-13 | Microsoft Corporation | Signalling and controlling the status of an automatic speech recognition system for use in handsfree conversational dialogue |
JP2002032370A (ja) * | 2000-07-18 | 2002-01-31 | Fujitsu Ltd | 情報処理装置 |
US6922670B2 (en) * | 2000-10-24 | 2005-07-26 | Sanyo Electric Co., Ltd. | User support apparatus and system using agents |
JP4353212B2 (ja) * | 2006-07-20 | 2009-10-28 | 株式会社デンソー | 単語列認識装置 |
US9634855B2 (en) * | 2010-05-13 | 2017-04-25 | Alexander Poltorak | Electronic personal interactive device that determines topics of interest using a conversational agent |
FR2989209B1 (fr) * | 2012-04-04 | 2015-01-23 | Aldebaran Robotics | Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot |
US9298811B2 (en) * | 2013-07-15 | 2016-03-29 | International Business Machines Corporation | Automated confirmation and disambiguation modules in voice applications |
JP6225012B2 (ja) * | 2013-07-31 | 2017-11-01 | 日本電信電話株式会社 | 発話文生成装置とその方法とプログラム |
US10726831B2 (en) * | 2014-05-20 | 2020-07-28 | Amazon Technologies, Inc. | Context interpretation in natural language processing using previous dialog acts |
US9375845B1 (en) * | 2014-09-30 | 2016-06-28 | Sprint Communications Company, L.P. | Synchronizing robot motion with social interaction |
JP6583765B2 (ja) * | 2015-01-16 | 2019-10-02 | 国立大学法人大阪大学 | エージェント対話システムおよびプログラム |
JP2017049471A (ja) * | 2015-09-03 | 2017-03-09 | カシオ計算機株式会社 | 対話制御装置、対話制御方法及びプログラム |
US11232789B2 (en) * | 2016-05-20 | 2022-01-25 | Nippon Telegraph And Telephone Corporation | Dialogue establishing utterances without content words |
JP6842095B2 (ja) * | 2017-03-10 | 2021-03-17 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、およびプログラム |
-
2018
- 2018-01-26 JP JP2019504381A patent/JP6842095B2/ja active Active
- 2018-01-26 WO PCT/JP2018/002509 patent/WO2018163647A1/ja active Application Filing
- 2018-01-26 US US16/491,442 patent/US11222634B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2018163647A1 (ja) | 2020-01-09 |
US11222634B2 (en) | 2022-01-11 |
US20200013404A1 (en) | 2020-01-09 |
WO2018163647A1 (ja) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6842095B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
US11151997B2 (en) | Dialog system, dialog method, dialog apparatus and program | |
JP6719739B2 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
US11222633B2 (en) | Dialogue method, dialogue system, dialogue apparatus and program | |
JP6719741B2 (ja) | 対話方法、対話装置、及びプログラム | |
JP6970413B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6719740B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6699010B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
US11354517B2 (en) | Dialogue method, dialogue system, dialogue apparatus and program | |
JP6682104B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6551793B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6601625B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6647636B2 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
JP6610965B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
Siebenaler | Voice Recognition Technology: Adaptive Studies for Success |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190904 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6842095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |