JP6719739B2 - 対話方法、対話システム、対話装置、及びプログラム - Google Patents
対話方法、対話システム、対話装置、及びプログラム Download PDFInfo
- Publication number
- JP6719739B2 JP6719739B2 JP2018518373A JP2018518373A JP6719739B2 JP 6719739 B2 JP6719739 B2 JP 6719739B2 JP 2018518373 A JP2018518373 A JP 2018518373A JP 2018518373 A JP2018518373 A JP 2018518373A JP 6719739 B2 JP6719739 B2 JP 6719739B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- dialogue
- person
- robot
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 32
- 230000009471 action Effects 0.000 claims description 72
- 238000006243 chemical reaction Methods 0.000 claims description 54
- 230000003993 interaction Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 8
- 230000000694 effects Effects 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 21
- 230000015572 biosynthetic process Effects 0.000 description 20
- 238000003786 synthesis reaction Methods 0.000 description 20
- 239000003795 chemical substances by application Substances 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 230000001755 vocal effect Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 7
- 241000282320 Panthera leo Species 0.000 description 6
- 230000006399 behavior Effects 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 230000015556 catabolic process Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 206010037180 Psychiatric symptoms Diseases 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9038—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Description
(参考文献1):東中 竜一郎、船越 孝太郎、荒木 雅弘、塚原 裕史、小林 優佳、水上 雅博、「Project Next NLP 対話タスク:雑談対話データの収集と対話破綻アノテーションおよびその類型化」、言語処理学会年次大会、2015
(参考文献2):杉山 弘晃、「異なる特性を持つデータの組み合わせによる雑談対話の破綻検出」、第75回 人工知能学会 言語・音声理解と対話処理研究会(SIG-SLUD)第6回対話システムシンポジウム、2015
本実施形態では、破綻の検出に、システム発話の内容のみではなく、システム発話を聞いたユーザの表情などの変化を利用する。システム発話の内容のみからその発話前に破綻を検出するには複雑な意味構造を理解する必要があるが、ユーザの反応を破綻の検出に組み込むことで破綻をより確実に検出できる。
t(1): ユーザ→R1,R2:「最近ライオンキング(登録商標)見に行ったら、子役の子たちがすごかったです」
t(2): R1→ユーザ:「メスが狩りをするらしいですね」(「ライオン」に反応した破綻発話)
ロボットR1の発話t(2)に対するユーザの反応の認識結果が「ロボットR1の発話t(2)がユーザの発話t(1)に対応するものではない(ロボットR1が破綻させた)」というものであった場合に、ロボットR2が「ロボットR1の発話がユーザの発話に対応するものではない」旨を表出する行動を行う。
t(3): R2→R1:「何言ってるの??」
t(4): R1→ユーザ:「ライオンの話じゃないの?」
Case2:
t(3): R2→ユーザ:「何言ってんだろうねー」
Case3:
t(3): R2:ためいき
Case1では、ロボットR2が、ロボットR1に対する発話として、ロボットR1が破綻させたこと、または、ロボットR1が破綻させた可能性を、発話t(3)で明言する。
t(1): ユーザ→R1,R2:「最近ライオンキング見に行ったら、子役の子たちがすごかったです」
t(2): R1→ユーザ:「メスが狩りをするらしいですね」(「ライオン」に反応した破綻発話)
ロボットR1の発話t(2)に対するユーザの反応の認識結果が「ロボットR1の発話t(2)がユーザの発話t(1)に対応するものではない(ロボットR1が破綻させた)」というものであった場合に、ロボットR1が「ロボットR1の発話がユーザの発話に対応するものではない」旨を表出する行動を行う。
t(3): R1→R2「あれ?何か変なこと言った??」
t(4): R2→ユーザ「その話じゃないよねえ。子役の話だよね」
Case5:
t(3): R1→ユーザ「あれ?違いました?」
Case6:
t(3): R1:首を横に振る仕草
Case4では、ロボットR1が、ロボットR2に対する発話として、ロボットR1が破綻させたこと、または、ロボットR1が破綻させた可能性を、発話t(3)で明言する。Case4では、さらに、ロボットR2が、ユーザに対する発話として、発話t(2)とは異なる発話t(4)を行うことで、ユーザ発話に対する対話を継続する。
t(1): ユーザ→R1,R2:「最近ライオンキング見に行ったら、子役の子たちがすごかったです」
t(2): R1→ユーザ:「メスが狩りをするらしいですね」(「ライオン」に反応した破綻発話)
ロボットR1の発話t(2)に対するユーザの反応の認識結果が「ロボットR1の発話t(2)がユーザの発話t(1)に対応するものではない(ロボットR1が破綻させた)」というものであった場合に、ロボットR1、ロボットR2はともに破綻を明言せずに対話を継続する。
t(3): R2→R1「あ、そういえばこないだサファリパークに行ったら、ライオンが眠ってたよ」
t(3): R2→ユーザ「子役はかわいいですよね」
Case7では、ロボットR2が、話題転換語を伴って、ロボットR1の破綻発話t(2)ではなくユーザの発話t(1)に関する発話t(3)を行う。「そういえば」などの話題転換語を伴うことで、ユーザの話題からずれていることを表出しつつ、話題を遷移させて対話を継続することができ、ロボットR2が対話の内容を理解して対話している印象をユーザに与えることができる。
<第一実施形態>
図2は第一実施形態に係る対話システム100の機能ブロック図を、図3は第一実施形態に係る対話システム100の処理フローを示す。
ロボットR1とR2は、ユーザと対話するためのものであり、ユーザの近くに配置され、対話装置190が生成した発話を行う。
入力部102−1、102−2は、ユーザが発話した発話音声を収音して、収音された音声データを音声認識部140に出力する。入力部はユーザが発話した発話音声を収音可能とすればよいので、入力部102−1、102−2の何れか一方を備えないでもよい。また、ユーザの近傍などのロボットR1,R2とは異なる場所に設置されたマイクロホンを入力部とし、入力部102−1、102−2の双方を備えない構成としてもよい。
音声認識部140は、入力部102−1、102−2が得た音声データ(ユーザの発話t(1)、すなわち、人の発話t(1))の入力を受け付け(S1)、この音声データに対して音声認識を行い(S2)、認識結果のテキストを発話決定部120に出力する。
発話決定部120は、音声認識部140からユーザの発話t(1)に対する音声認識結果のテキストが入力されると、当該ユーザの発話t(1)、すなわち、人の発話t(1)に対する音声認識結果のテキストに少なくとも基づき、当該ユーザの発話t(1)の次に対話システム100が提示する発話t(2)のテキストを決定し(S3)、音声合成部110に出力する。なお、当該発話を行うロボットも決定してもよく、この場合には、発話するロボットを表す情報も音声合成部110に出力する。
(参考文献3)杉山弘晃,目黒豊美,東中竜一郎,南泰浩,“任意の話題を持つユーザ発話に対する係り受けと用例を利用した応答文の生成”,人工知能学会論文誌,vol. 30(1),pp. 183-194,2015年
(参考文献4)有本庸浩,吉川雄一郎,石黒浩,“複数体のロボットによる音声認識なし対話の印象評価”,日本ロボット学会学術講演会,2016年
音声合成部110は、発話決定部120から入力されたテキスト(発話t(2)のテキスト)に対する音声合成を行って(S4)合成音声データを得て、得られた合成音声データをロボットR1の提示部101−1またはロボットR2の提示部101−2に出力する。テキストと共に発話決定部120からテキストと当該テキストを発話するロボットを表す情報が入力された場合には、音声合成部110は当該情報に対応するロボットの提示部に対して合成音声データを出力する。
提示部101−1、101−2は、音声合成部110から入力された合成音声データ(発話t(2)の合成音声データ)に対応する音声を再生する(S5)。これにより、ユーザはロボットR1またはR2の発話を受聴することになり、ユーザと対話システム100との対話が実現される。
反応取得部160は、2番目の発話t(2)に対する人の反応を取得し(S6)、行動生成部170に出力する。
(参考文献5)水上雅博, et al. "快適度推定に基づく用例ベース対話システム", 人工知能学会論文誌, Vol. 31, No. 1, 2016.
以下、具体例に沿って、処理内容を説明する。
行動生成部170は、人の反応が、発話t(2)がユーザの発話t(1)、すなわち、人の発話t(1)に対応するものではないことを示す反応である場合に、発話t(2)がユーザの発話t(1)、すなわち、人の発話t(1)に対応するものではない旨を表出する行動の内容である行動内容を生成し、すなわち、決定し(S8)、行動部180に出力する。
行動生成部170は、人の反応が、発話t(2)がユーザの発話t(1)、すなわち、人の発話t(1)に対応するものではないことを示す反応である場合に、発話t(2)とは異なる発話t(3)を生成し、すなわち、決定し(S8)、行動部180に出力する。
このような構成により、ユーザにシステムが対話の内容を理解して対話している印象を与えることができる。
第一実施形態では2台のロボットを含む対話システムについて説明した。しかし、上述したように発話決定部120が発話するロボットを決定しない形態などもある。そのため、対話システム100に必ずしも2台のロボットを必要としない形態がある。この形態とする場合には、対話システム100に含むロボットを1台としてもよい。また、上述したように発話決定部120が2台のロボットを発話するロボットとして決定する形態がある。この形態を対話システム100に3台以上のロボットを含む構成で動作させてもよい。
対話システム100が複数台のロボットを含む構成において、どのロボットが発話しているのかをユーザが判別可能とされていれば、提示部の個数はロボットの個数と同一でなくてもよい。また、提示部はロボットに設置されていなくてもよい。どのロボットが発話しているのかをユーザが判別可能とする方法としては、合成する音声の声質をロボットごとに異ならせる、複数のスピーカを用いてロボットごとに定位を異ならせる、などの周知の技術を用いればよい。
上述した実施形態では、エージェントとしてロボットを用いて音声による対話を行う例を説明したが、上述した実施形態のロボットは身体等を有する人型ロボットであっても、身体等を有さないロボットであってもよい。また、この発明の対話技術はこれらに限定されず、人型ロボットのように身体等の実体がなく、発声機構を備えないエージェントを用いて対話を行う形態とすることも可能である。そのような形態としては、例えば、コンピュータの画面上に表示されたエージェントを用いて対話を行う形態が挙げられる。より具体的には、「LINE」や「2ちゃんねる(登録商標)」のような、複数アカウントがテキストメッセージにより対話を行うグループチャットにおいて、ユーザのアカウントと対話装置のアカウントとが対話を行う形態に本対話システムを適用することも可能である。この形態では、エージェントを表示する画面を有するコンピュータは人の近傍にある必要があるが、当該コンピュータと対話装置とはインターネットなどのネットワークを介して接続されていてもよい。つまり、本対話システムは、人とロボットなどの話者同士が実際に向かい合って話す対話だけではなく、話者同士がネットワークを介してコミュニケーションを行う会話にも適用可能である。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、提示部が提示する発話順以外の上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例1、2で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。また、上記変形例3で説明した対話システムにおける各種の処理機能をコンピュータによって実現してもよい。その場合、対話システムが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (11)
- 対話システムが行う対話方法であって、
前記対話システムは、第1エージェントと第2エージェントとを含み、
前記対話システムが、人の発話の入力を受け付ける発話受付ステップと、
前記対話システムが、前記人の発話に対する発話である第1発話を決定する第1発話決定ステップと、
前記第1発話を前記第1エージェントが提示する第1発話提示ステップと、
前記対話システムが、前記第1発話に対する前記人の反応を取得する反応取得ステップと、
前記対話システムが、前記人の反応が、前記第1発話が前記人の発話に対応するものではないことを示す反応である場合に、前記第1発話とは異なる発話である第2発話を決定する第2発話決定ステップと、
前記第2発話を前記第2エージェントが提示する第2発話提示ステップと、を含み、
前記第2発話は、(A)前記第1発話が、対話を破綻させたこと、又は、破綻させた可能性を明言するもの、または、(B)話題転換語を伴うものであり、前記第1発話ではない、前記人の発話に関するものである、
対話方法。 - 請求項1の対話方法であって、
前記第2発話決定ステップでは、話題転換語を前置した、前記第1発話とは異なる発話を、第2発話として決定する、
対話方法。 - 請求項1の対話方法であって、
前記第1発話決定ステップでは、前記人の発話に対する発話の候補である候補発話を複数個生成し、前記複数個の候補発話のうちの1つの候補発話を前記第1発話として得、
前記第2発話決定ステップでは、前記第2発話として、前記第1発話決定ステップで生成した複数個の候補発話のうちの、前記第1発話とは異なる1つの候補発話を前記第2発話として得る、
対話方法。 - 請求項3の対話方法であって、
前記第1発話決定ステップでは、候補発話を3個以上生成し、
前記第2発話決定ステップでは、前記第1発話決定ステップで生成した候補発話のうちの、前記第1発話とは異なる複数個の候補発話のうちの、前記第1発話との類似度が最も高い候補発話以外の候補発話を前記第2発話として得る、
対話方法。 - 請求項3の対話方法であって、
前記第1発話決定ステップでは、前記各候補発話が前記人の発話に対応するものであり、かつ、前記候補発話間の類似度が低くなるように、前記複数個の候補発話を生成する、
対話方法。 - 請求項1または2の対話方法であって、
前記第2発話決定ステップでは、前記第1発話とは異なる話題の発話を第2発話として決定する
対話方法。 - 請求項1から6の何れかの対話方法であって、
前記対話システムが、前記人の反応が、前記第1発話が前記人の発話に対応するものではないことを示す反応である場合に、前記第1発話が前記人の発話に対応するものではない旨を表出する行動の内容である行動内容を決定する行動決定ステップと、
前記対話システムが、前記第2発話提示ステップより先に前記行動内容の行動を行う行動ステップと、を更に含む、
対話方法。 - 人の発話の入力を受け付ける発話受付部と、
前記人の発話に対する発話である第1発話を決定する第1発話決定部と、
前記第1発話を提示する第1エージェントと、
前記第1発話に対する前記人の反応を取得する反応取得部と、
前記人の反応が、前記第1発話が前記人の発話に対応するものではないことを示す反応である場合に、前記第1発話とは異なる発話である第2発話を決定する第2発話決定部と、
前記第2発話を提示する第2エージェントと、を含み、
前記第2発話は、(A)前記第1発話が、対話を破綻させたこと、又は、破綻させた可能性を明言するもの、または、(B)話題転換語を伴うものであり、前記第1発話ではない、前記人の発話に関するものである、
対話システム。 - 入力された人の発話に対する発話であり、第1エージェントが提示する発話である、第1発話を決定する第1発話決定部と、
前記第1発話に対する前記人の反応が、前記第1発話が前記人の発話に対応するものではないことを示す反応である場合に、前記第1発話とは異なる発話であり、第2エージェントが提示する発話である、第2発話を決定する第2発話決定部と、を含み、
前記第2発話は、(A)前記第1発話が、対話を破綻させたこと、又は、破綻させた可能性を明言するもの、または、(B)話題転換語を伴うものであり、前記第1発話ではない、前記人の発話に関するものである、
対話装置。 - 請求項8の対話システムとしてコンピュータを機能させるためのプログラム。
- 請求項9の対話装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016101219 | 2016-05-20 | ||
JP2016101219 | 2016-05-20 | ||
PCT/JP2017/018789 WO2017200074A1 (ja) | 2016-05-20 | 2017-05-19 | 対話方法、対話システム、対話装置、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017200074A1 JPWO2017200074A1 (ja) | 2019-03-07 |
JP6719739B2 true JP6719739B2 (ja) | 2020-07-08 |
Family
ID=60325925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018518373A Active JP6719739B2 (ja) | 2016-05-20 | 2017-05-19 | 対話方法、対話システム、対話装置、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11183187B2 (ja) |
JP (1) | JP6719739B2 (ja) |
WO (1) | WO2017200074A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11232789B2 (en) * | 2016-05-20 | 2022-01-25 | Nippon Telegraph And Telephone Corporation | Dialogue establishing utterances without content words |
US10872609B2 (en) * | 2016-05-20 | 2020-12-22 | Nippon Telegraph And Telephone Corporation | Method, apparatus, and program of dialog presentation steps for agents |
WO2018003196A1 (ja) * | 2016-06-27 | 2018-01-04 | ソニー株式会社 | 情報処理システム、記憶媒体、および情報処理方法 |
JP6729424B2 (ja) * | 2017-01-30 | 2020-07-22 | 富士通株式会社 | 機器、出力装置、出力方法および出力プログラム |
CN108388926B (zh) * | 2018-03-15 | 2019-07-30 | 百度在线网络技术(北京)有限公司 | 语音交互满意度的确定方法及设备 |
JP7142315B2 (ja) * | 2018-09-27 | 2022-09-27 | パナソニックIpマネジメント株式会社 | 説明支援装置および説明支援方法 |
US11580970B2 (en) * | 2019-04-05 | 2023-02-14 | Samsung Electronics Co., Ltd. | System and method for context-enriched attentive memory network with global and local encoding for dialogue breakdown detection |
US11573995B2 (en) * | 2019-09-10 | 2023-02-07 | International Business Machines Corporation | Analyzing the tone of textual data |
US11928611B2 (en) | 2019-11-18 | 2024-03-12 | International Business Machines Corporation | Conversational interchange optimization |
CN111224863B (zh) * | 2019-12-10 | 2021-06-22 | 平安国际智慧城市科技股份有限公司 | 会话任务生成方法、装置、计算机设备和存储介质 |
US11783824B1 (en) * | 2021-01-18 | 2023-10-10 | Amazon Technologies, Inc. | Cross-assistant command processing |
CN112906381B (zh) * | 2021-02-02 | 2024-05-28 | 北京有竹居网络技术有限公司 | 对话归属的识别方法、装置、可读介质和电子设备 |
WO2024127956A1 (ja) * | 2022-12-12 | 2024-06-20 | 国立大学法人大阪大学 | 対話システム、制御プログラムおよび制御方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0543329B1 (en) * | 1991-11-18 | 2002-02-06 | Kabushiki Kaisha Toshiba | Speech dialogue system for facilitating human-computer interaction |
US6556970B1 (en) * | 1999-01-28 | 2003-04-29 | Denso Corporation | Apparatus for determining appropriate series of words carrying information to be recognized |
US7162422B1 (en) * | 2000-09-29 | 2007-01-09 | Intel Corporation | Apparatus and method for using user context information to improve N-best processing in the presence of speech recognition uncertainty |
US6922670B2 (en) * | 2000-10-24 | 2005-07-26 | Sanyo Electric Co., Ltd. | User support apparatus and system using agents |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
JP2009037050A (ja) * | 2007-08-02 | 2009-02-19 | Toyota Motor Corp | 対話装置と対話用プログラム |
JP2009131928A (ja) * | 2007-11-30 | 2009-06-18 | Olympus Corp | ロボット制御システム、ロボット、プログラム及び情報記憶媒体 |
WO2013155619A1 (en) * | 2012-04-20 | 2013-10-24 | Sam Pasupalak | Conversational agent |
US9904360B2 (en) * | 2013-11-15 | 2018-02-27 | Kopin Corporation | Head tracking based gesture control techniques for head mounted displays |
-
2017
- 2017-05-19 JP JP2018518373A patent/JP6719739B2/ja active Active
- 2017-05-19 US US16/301,496 patent/US11183187B2/en active Active
- 2017-05-19 WO PCT/JP2017/018789 patent/WO2017200074A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20190294638A1 (en) | 2019-09-26 |
US11183187B2 (en) | 2021-11-23 |
JPWO2017200074A1 (ja) | 2019-03-07 |
WO2017200074A1 (ja) | 2017-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6719739B2 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
JP6818280B2 (ja) | 対話システム、対話方法、対話装置、およびプログラム | |
US20200279553A1 (en) | Linguistic style matching agent | |
JP6719741B2 (ja) | 対話方法、対話装置、及びプログラム | |
JP6970413B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6842095B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
US11354517B2 (en) | Dialogue method, dialogue system, dialogue apparatus and program | |
Aneja et al. | Understanding conversational and expressive style in a multimodal embodied conversational agent | |
JP6682104B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JPWO2017200078A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
Mubin et al. | You just do not understand me! Speech Recognition in Human Robot Interaction | |
JP6551793B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6647636B2 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
JP6601625B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6755509B2 (ja) | 対話方法、対話システム、対話シナリオ生成方法、対話シナリオ生成装置、及びプログラム | |
JP6610965B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
KR20230075593A (ko) | 가상현실 및 음성인식 기반의 실감 어학학습 콘텐츠 제공 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181109 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20181109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6719739 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |