JP2020067877A - 対話装置および対話装置の制御プログラム - Google Patents

対話装置および対話装置の制御プログラム Download PDF

Info

Publication number
JP2020067877A
JP2020067877A JP2018200831A JP2018200831A JP2020067877A JP 2020067877 A JP2020067877 A JP 2020067877A JP 2018200831 A JP2018200831 A JP 2018200831A JP 2018200831 A JP2018200831 A JP 2018200831A JP 2020067877 A JP2020067877 A JP 2020067877A
Authority
JP
Japan
Prior art keywords
dialogue
user
character
robot
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018200831A
Other languages
English (en)
Other versions
JP7010193B2 (ja
Inventor
美奈 舩造
Mina Funatsukuri
美奈 舩造
智哉 高谷
Tomoya Takatani
智哉 高谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018200831A priority Critical patent/JP7010193B2/ja
Priority to CN201911011990.8A priority patent/CN111104494A/zh
Priority to US16/661,481 priority patent/US11485022B2/en
Publication of JP2020067877A publication Critical patent/JP2020067877A/ja
Application granted granted Critical
Publication of JP7010193B2 publication Critical patent/JP7010193B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】対話可能な外部のコミュニケーションロボットに対して愛着を持てるように、ユーザが、当該コミュニケーションロボットを再現したキャラクタと、ストレスなく円滑に対話ができる対話装置等を提供する。【解決手段】対話装置は、表示部と、表示部に第1キャラクタを表示させ、対話可能な外部コミュニケーションロボットの発話機能をシミュレートしてユーザとの対話を実行する第1対話制御部と、表示部に第2キャラクタを表示させ、ユーザと第1対話制御部の対話に介入する対話を実行する第2対話制御部と、第1対話制御部および第2対話制御部が実行した対話の対話情報を外部コミュニケーションロボットへ送信する送信部とを備える。【選択図】図2

Description

本発明は、対話装置および対話装置の制御プログラムに関する。
自律移動が可能なサービス提供型のロボットが実用化されつつある。このようなサービスロボットの中には、音声認識機能や発話機能を備え、対話を通じてユーザとコミュニケーションを取るものもある(例えば、特許文献1参照)。
自律移動するようなコミュニケーションロボットは、ユーザが利用できる場所や時間が限られていることも多く、ユーザがコミュニケーションロボットに対して愛着を感じたり、コミュニケーションロボットがユーザの気質を把握したりすることが難しい場合もある。そこで、コミュニケーションロボットを利用できない状況において、ユーザがスマートフォンなどの携帯端末で擬似的にコミュニケーションロボットを再現したキャラクタとコミュニケーションを取れるようにしたアプリが知られるようになってきた。ユーザが携帯端末でキャラクタとコミュニケーションを重ねた結果を、コミュニケーションロボットが携帯端末から当該コミュニケーションの履歴情報として受け取ると、コミュニケーションロボットは、ユーザとの間で相応のコミュニケーションが取れるようになる。ユーザは、このようなコミュニケーションを通じて、コミュニケーションロボットに対して愛着を感じるに至る。
特開2012−86348号公報
コミュニケーションロボットが利用に供される環境は、ユーザが携帯端末を利用する環境に比べて、コミュニケーションにとっては不利な場合が多い。例えば、一般の公共空間であれば雑音が多く、音声識別精度が低下する。また、コミュニケーションロボットの種類によっては、高性能な対話システムを搭載することが難しい場合もある。このような場合には、コミュニケーションロボットに対するコミュニケーションと、携帯端末で再現されたキャラクタに対するコミュニケーションとの間に、円滑さや奥深さの点において隔たりが生じてしまう。すると、ユーザは、それぞれのコミュニケーションが別物であると感じ、コミュニケーションロボットに対する愛着の醸成に対して好ましくない影響を与えてしまう。
本発明は、このような問題を解決するためになされたものであり、ユーザが、対話可能な外部のコミュニケーションロボットに対して愛着を持てるように、当該コミュニケーションロボットを再現したキャラクタとストレスなく円滑に対話を楽しむことができる対話装置等を提供するものである。
本発明の第1の態様における対話装置は、表示部と、表示部に第1キャラクタを表示させ、対話可能な外部コミュニケーションロボットの発話機能をシミュレートしてユーザとの対話を実行する第1対話制御部と、表示部に第2キャラクタを表示させ、ユーザと第1対話制御部の対話に介入する対話を実行する第2対話制御部と、第1対話制御部および第2対話制御部が実行した対話の対話情報を外部コミュニケーションロボットへ送信する送信部とを備える。
このような第1対話制御部を備えることにより、ユーザは、外部コミュニケーションロボットに対するコミュニケーションと同様のコミュニケーションを第1キャラクタに対して取ることができる。また、第2対話制御部を備えることにより、第1対話制御部とのコミュニケーションで生じ得るぎこちなさやストレスを緩和することができる。また、送信部によって対話情報が外部コミュニケーションロボットに送信されることにより、ユーザは、外部コミュニケーションロボットに対して連続性のあるコミュニケーションを取ることができ、ひいては愛着を増すことができる。
上記の対話装置は、外部コミュニケーションロボットが実行した対話の対話情報を受信する受信部を備え、第1対話制御部は、受信部が受信した対話情報に基づいて対話を実行するように構成しても良い。このように構成することにより、ユーザは、外部コミュニケーションロボットに対して行ったコミュニケーションの続きを対話装置で行うことができる。すなわち、対話装置の第1キャラクタと外部コミュニケーションロボットに、より一体性を持たせることができる。
また、上記の対話装置において、第1対話制御部は、ユーザが外部コミュニケーションロボットと対話を行うことができる環境においては、対話を実行しないようにしても良い。このような環境で第1キャラクタを表出させないことにより、切替え感を演出することができ、対話装置の第1キャラクタと外部コミュニケーションロボットに、より一体性を持たせることができる。この場合、第2対話制御部は、ユーザと外部コミュニケーションロボットの対話に介入する対話を実行しても良い。第2対話制御部が対話に介入して補助することにより、ユーザは、外部コミュニケーションロボットと円滑に対話を楽しむことができる。
また、上記の対話装置において、第2対話制御部は、外部コミュニケーションロボットの発話機能によって制限された発話を補うように対話を実行しても良い。対話装置に搭載された対話システムが高性能である場合には、第2対話制御部を介してその性能を発揮することができるので、より円滑なコミュニケーションを実現することができる。
また、上記の対話装置において、第1対話制御部および第2対話制御部による発話は、スピーカから発せられる音声および表示部に表示される文字の少なくともいずれかを介して実行される。発話を音声で行うか文字で行うかをユーザが選べれば、様々な環境において対話を行うことができる。
本発明の第2の態様における対話装置の制御プログラムは、表示部に第1キャラクタを表示させ、対話可能な外部コミュニケーションロボットの発話機能をシミュレートしてユーザとの対話を実行する第1対話制御ステップと、表示部に第2キャラクタを表示させ、ユーザと第1対話制御ステップの対話に介入する対話を実行する第2対話制御ステップと、第1対話制御ステップで実行した対話および第2対話制御ステップで実行した対話の対話情報を外部コミュニケーションロボットへ送信する送信ステップとをコンピュータに実行させる。このようなプログラムがコンピュータによって実行される対話装置よれば、第1の態様と同様に、外部コミュニケーションロボットを再現した第1キャラクタとユーザがコミュニケーションを取れると共に、第2キャラクタの仲介によりユーザにとってストレスのない円滑な対話を実現することができる。
本発明に係る対話装置等によれば、ユーザが、外部のコミュニケーションロボットを再現したキャラクタと、ストレスなく円滑に対話を楽しむことができ、ひいては当該コミュニケーションロボットに対して愛着を持てるようになる。
本実施形態に係るコミュニケーションの様子を示す図である。 コミュニケーション端末で実行される対話の様子を示す図である。 コミュニケーション端末のシステム構成図である。 キャラクタの動作基準を記述したルックアップテーブルの一例である。 第1環境における対話で実行する処理のフロー図である。 第2環境で実行される対話の様子を示す図である。 第2環境における対話で実行する処理のフロー図である。
以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲に係る発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。
図1は、本実施形態に係るコミュニケーションの様子を示す図である。対話装置としてのコミュニケーション端末300は、例えばタブレット端末やスマートフォンであり、コンピュータがプログラムを実行することにより、ユーザと人工対話を行うことができる。第1環境は、コミュニケーション端末300が利用される環境であり、例えばユーザの自宅である。第1環境には、ロボット100は存在しない。
対話可能な外部コミュニケーションロボットとしてのロボット100は、例えば自律移動可能なサービスロボットであり、コンピュータがプログラムを実行することにより、ユーザと人工対話を行うことができる。第2環境は、ロボット100が利用される環境であり、例えばスポーツスタジアムである。後述するように、ユーザは、第2環境においても、コミュニケーション端末300を利用する場合がある。
ロボット100とコミュニケーション端末300は、インターネット600に接続されたシステムサーバ500を介して、互いに情報の授受を行うことができる。コミュニケーション端末300は、例えば無線LANにより、第1環境内に設置された無線ルータ700を介して、システムサーバ500と接続される。同様に、ロボット100は、例えば無線LANにより、第2環境内に設置された無線ルータ700を介して、システムサーバ500と接続される。システムサーバ500は、互いに関連付けられたロボット100とコミュニケーション端末300の間で、対話情報等の授受を仲介する。
ユーザが、第1環境で、コミュニケーション端末300を相手に、例えば「ぼくは、ホットコーヒーが好きなんだよ。」などと話し掛けると、その内容が対話情報としてロボット100へ送られる。ロボット100は、第2環境でユーザから例えば「ロボタ君、コーヒー買ってきて。」と依頼されると、受信した対話情報を踏まえて、「ホットコーヒーでいいかな?」などと応答発話する。すなわち、ユーザがコミュニケーション端末300を相手に話した内容は対話情報としてロボット100へ送信され、ロボット100は、当該対話情報を参照して、ユーザからの話し掛けに相応しい応答文を生成して発話する。
コミュニケーション端末300は、ユーザの対話相手として表示する2つのキャラクタを用意している。1つは、ロボット100の発話機能をシミュレートしてユーザとの対話を実行する擬似キャラクタ901であり、1つは、ユーザと擬似キャラクタ901の対話に介入する対話を実行する仲介キャラクタ902である。ロボット100の発話機能をシミュレートする擬似キャラクタ901が、ユーザの発話に対して適切に応答できない場合に、仲介キャラクタ902が、例えば「『良く聞こえなかったからもう一回言って』だって。」のように発話する。すなわち、仲介キャラクタ902は、ユーザと擬似キャラクタ901の間で実行される対話が円滑に進むように、補助的な発話を行う。
このような対話の進行について更に説明する。図2は、コミュニケーション端末300で実行される対話の様子を示す図であり、図2(a)は、主に擬似キャラクタ901が、コミュニケーション端末300の表示パネル303に表示されている様子を示す。コミュニケーション端末300は、マイク301とスピーカ302を備える。コミュニケーション端末300は、ユーザが発した音声をマイク301から取り込み、生成した応答発話文を音声としてスピーカ302から発する。
表示パネル303は、例えば有機ELディスプレイである。表示パネル303に表示される擬似キャラクタ901は、例えばロボット100を模したイラストである。擬似キャラクタ901は、アニメーションとして動作を伴っても良く、ユーザ発話や応答発話に応じて顔部の表情を変化するように構成しても良い。また、擬似キャラクタ901は、ロボット100をデフォルメしたイラストでも良く、実機であるロボット100を撮影した画像を用いても良い。なお、複数種類の外部コミュニケーションロボットが存在する場合には、ユーザは、使用に先立ち、コミュニケーションを取る予定の外部コミュニケーションロボットに対応する擬似キャラクタを選択する。外部コミュニケーションロボット側で既にユーザ登録がなされている場合には、システムサーバ500を介して、対応する擬似キャラクタが自動的に選択されても良い。
擬似キャラクタ901は、上述のように、ロボット100の発話機能をシミュレートしてユーザとの対話を実行する。例えば、ユーザが「今日は暑いね」などと話し掛けると、コミュニケーション端末300は、このユーザ発話に相応しい、例えば「太郎くんはどんな飲み物が好き?」といった応答発話文を生成する。生成された応答発話文は、音声信号に変換されてスピーカ302から発せられる。また、表示パネル303に表示された擬似キャラクタ901が話しているかのように、吹き出し形式のテキストボックス911に文字として表示される。このように、ユーザと擬似キャラクタ901の対話が円滑に行われているときには、仲介キャラクタ902は、例えば表示画面の隅に揺らめきながら小さく表示されている。ユーザは、仲介キャラクタ902が表示されていることにより、対話を円滑に進める補助機能が働いていると認識できる。
図2(b)は、主に仲介キャラクタ902が、コミュニケーション端末300の表示パネル303に表示されている様子を示す。上述のように、擬似キャラクタ901による発話は、ロボット100の発話機能をシミュレートして実行される。すなわち、擬似キャラクタ901の発話機能は、ロボット100が搭載している対話システムの発話性能やロボット100が利用に供される環境などを調整要因として、コミュニケーション端末300が本来備える発話機能に対して敢えて劣るように調整されている。
コミュニケーション端末300を通じて行う対話が、実機であるロボット100との対話と同様に行える点において、ユーザは、コミュニケーション端末300に表示された擬似キャラクタ901があたかもロボット100の分身であるかのように感じられる。すなわち、擬似キャラクタ901に対してコミュニケーションを重ねることによっても、ロボット100に対するユーザの愛着が育まれることが期待できる。
しかし、発話機能が制限された擬似キャラクタ901との対話は、円滑に進まない場合もあり、ユーザにストレスを生じさせる場合もある。そこで、ユーザと擬似キャラクタ901の対話が円滑に進まない場合には、表示パネル303に仲介キャラクタ902を表示させ、ユーザと擬似キャラクタ901の対話に介入する対話を実行させる。仲介キャラクタ902の発話機能は、コミュニケーション端末300が本来備える発話機能を存分に発揮する。
例えば、擬似キャラクタ901による発話機能ではユーザ発話を理解できない場合に、コミュニケーション端末300は、仲介キャラクタ902の発話機能を用いて、例えば「『よく聞こえなかったからもう一回言って』だって。」といった仲介を内容とする応答発話文を生成する。生成された応答発話文は、音声信号に変換されてスピーカ302から発せられる。また、表示パネル303に表示された仲介キャラクタ902が話しているかのように、吹き出し形式のテキストボックス912に文字として表示される。このように、仲介キャラクタ902が対話に介入するときには、擬似キャラクタ901は、例えば表示画面の隅に小さく、理解できない旨を示すテキストボックス911と共に表示される。このように、仲介キャラクタ902がユーザと擬似キャラクタ901の対話に仲介して補助することにより、対話を円滑に進め、ユーザのストレスを緩和することができる。
次に、コミュニケーション端末300のシステム構成について説明する。図3は、コミュニケーション端末300のシステム構成図である。ここでは、ユーザとのコミュニケーションに関係する主な要素について説明するが、コミュニケーション端末300の構成としては他の要素も備え、またコミュニケーションに寄与する他の要素が加えられることもあり得る。
制御部310は、例えばCPUであり、コミュニケーション端末300の全体を制御すると共に、様々な演算を実行する。マイク301は、主な機能として、ユーザの発話音声を集音する。マイク301は、集音したユーザの発話音声を音声信号に変換し、ユーザからの入力発話として制御部310へ引き渡す。スピーカ302は、制御部310で変換された音声信号を受け取って、出力発話を音声として出力する。
表示パネル303は、制御部310が生成する映像信号に従って、擬似キャラクタ901、仲介キャラクタ902、テキストボックス911、912等を表示する。表示パネル303は、文字に変換されたユーザ発話を、例えばチャット形式を採用して、テキストボックスで表示しても良い。通信ユニット320は、例えば無線LANユニットであり、無線ルータ700との間で無線通信を行う。通信ユニット320は、例えばロボット100が近傍に存在する場合に対話情報を直接送受信できるように、近接通信用の無線ユニットを備えていても良い。
メモリ330は、不揮発性の記憶媒体であり、例えばソリッドステートドライブが用いられる。メモリ330は、コミュニケーション端末300を制御するための制御プログラムの他にも、制御や演算に用いられる様々なパラメータ値、関数、ルックアップテーブル等を記憶している。特に、第1テーブル331、第2テーブル332、履歴データ333を記憶している。
第1テーブル331は、擬似キャラクタ901を特徴付ける動作基準を記述したルックアップテーブルである。第2テーブル332は、仲介キャラクタ902を特徴付ける動作基準を記述したルックアップテーブルである。第1テーブル331および第2テーブル332は、後に詳述する。履歴データ333は、ユーザと擬似キャラクタ901の間でこれまでに実行した対話情報、ユーザと仲介キャラクタ902の間でこれまでに実行した対話情報を含む参照データである。また、ユーザがロボット100と実行した対話情報を通信ユニット320を介して取得した場合にも、履歴データ333として管理される。
発話データベース340は、例えばハードディスクドライブの記録媒体によって構成されており、コーパスとして体系化された個々の用語は、再生可能な発話データを伴って格納されている。発話データベース340は、コミュニケーション端末300が内蔵していなくても良く、例えばインターネット600に接続されていても良い。
キャラクタデータベース350は、例えばハードディスクドライブの記録媒体によって構成されており、擬似キャラクタ901および仲介キャラクタ902の映像データが格納されている。擬似キャラクタ901については、複数種類の外部コミュニケーションロボットが存在する場合には、それぞれに対応する映像データが格納されている。仲介キャラクタ902については、ユーザが好みに応じて選択できるように構成されている場合には、複数の仲介キャラクタに対応する映像データが格納されている。
制御部310は、制御や処理に関わる様々な演算を実行する機能演算部としての役割も担う。発話解析部311、第1対話部313、第2対話部314および調停部315は、機能演算部の例である。
発話解析部311は、マイク301から受け取った入力発話を解析してテキスト化し、ユーザの発話内容を認識する。発話解析部311は、具体的には、一般的な音声認識技術を用いてユーザの発話内容を認識する。例えば、テキスト化された入力発話に単語分析等を施して、DNNモデルやロジスティック回帰モデルを用いて発話内容を認識する。
第1対話部313は、擬似キャラクタ901による発話機能を担う。すなわち、第1対話部313は、第1テーブル331を参照し、表示パネル303に擬似キャラクタ901を表示させ、ロボット100の発話機能をシミュレートしてユーザとの対話を実行する対話制御部である。具体的には、第1対話部313は、発話データベース340を参照してユーザ発話に相応しい応答発話文を生成し、当該応答発話文を音声としてスピーカ302から発すると共に、文字として表示パネル303へ表示する。
第2対話部314は、仲介キャラクタ902の発話機能を担う。すなわち、第2対話部314は、第2テーブル332を参照し、表示パネル303に仲介キャラクタ902を表示させ、ユーザと擬似キャラクタ901の対話に介入する対話を実行する対話制御部である。具体的には、第2対話部314は、発話データベース340を参照して対話を補助する応答発話文を生成し、当該応答発話文を音声としてスピーカ302から発すると共に、文字として表示パネル303へ表示する。
調停部315は、ユーザと擬似キャラクタ901の対話が円滑に進んでいるかを発話ごとに監視し、仲介キャラクタ902の介入が必要か否かを判断する。その判断結果に応じて、次の発話権限を第1対話部313か第2対話部314のいずれかへ引き渡す。
次に、第1テーブル331と第2テーブル332について説明する。図4は、キャラクタを特徴付ける動作基準を記述したルックアップテーブルである第1テーブル331と第2テーブル332の一例である。
第1対話部313は、擬似キャラクタ901がロボット100の分身であると感じられるように、第1テーブル331に記述された動作基準を参照してロボット100をシミュレートする。第1テーブル331は、ロボット100に設定された特徴に対応するように、予め設定されている。あるいは、ロボット100から、インターネット600を介してロボット100の設定を取り込むようにしても良い。
本実施形態においては、動作基準の項目として、「表示キャラクタ」、「声音」、「会話速度」、「選択用語レベル」、「気性変化頻度」、「会話中ジェスチャ」、「音声識別レベル」、「発話モジュールレベル」を定めている。「表示キャラクタ」は、ロボット100に対応するキャラクタ番号を示す。第1対話部313は、「表示キャラクタ」の欄を参照して、キャラクタデータベース350から取得するキャラクタ映像を決定する。「声音」は、ロボット100が発する声音に対応する番号が記されている。第1対話部313は、「声音」の欄を参照して、発話データベース340から取得する音声データを決定する。
「会話速度」は、ロボット100で実行される会話速度に対応する番号が記されている。第1対話部313は、「会話速度」の欄を参照して、スピーカ302から発する音声の速さを調整する。「選択用語レベル」は、ロボット100が生成する応答発話文の丁寧さのレベルに対応する番号が記されている。例えば、丁寧な言い回しが「A」であり、形式張らない言い回しが「C」である。第1対話部313は、「選択用語レベル」の欄を参照して、応答発話文の丁寧さを調整する。
「気性変化頻度」は、ロボット100に設定された気性の変化度合に対応する番号が記されている。例えば、ユーザが少しからかうような言葉を発したときに、すぐに怒った発話をするのであれば「高」であり、冷静を保つのであれば「低」である。第1対話部313は、「気性変化頻度」の欄を参照して、応答発話文の内容を調整する。「対話ジェスチャ」は、ロボット100が対話中に実行するジェスチャの大きさの度合いに対応する番号が記されている。例えば、対話中に首をよく振ったり、アームを上げ下げしたりするのであれば「多」である。第1対話部313は、「対話ジェスチャ」の欄を参照して、表示パネル303に表示する擬似キャラクタ901のアニメーションを調整する。
「音声識別レベル」は、ロボット100が利用に供される環境、ロボット100のマイク性能、ロボット100の発話解析能力に応じて設定されるユーザ発話の識別レベルに対応する番号が記されている。例えば、ロボット100が利用に供される環境が一般の公共空間であれば、雑音が多く音声識別精度が低下するので、「音声識別レベル」は、その程度に応じて設定される。第1対話部313は、「音声識別レベル」の欄を参照して、発話解析部311を制限的に機能させる。あるいは、発話解析部311が出力したテキストを修正する。例えば、テキストの一部をランダムに欠落させる。
「発話モジュールレベル」は、ロボット100に搭載された応答生成モジュールの性能に対応する番号が記されている。第1対話部313は、「発話モジュールレベル」の欄を参照して、生成された複数の応答発話文の候補の中から、相応しい応答発話文を選択して出力する。
第1テーブル331のうち、「音声識別レベル」と「発話モジュールレベル」は、ロボット100の発話性能をシミュレートするために必要な項目である。本実施形態においては、ロボット100が利用に供される環境など外的要因も考慮したが、ロボット100が性質の異なる環境を行き来するような場合には、外的要因の考慮を省いても良い。
第2対話部314は、仲介キャラクタ902が擬似キャラクタ901とは異なるキャラクタであると感じられるように、第2テーブル332に記述された動作基準を参照して対話を実行する。第2テーブル332は、仲介キャラクタ902に対して設定された特徴付けに合わせて予め設定されている。
第2テーブル332は、動作基準の項目として、第1テーブル331と同様に、「表示キャラクタ」、「声音」、「会話速度」、「選択用語レベル」、「気性変化頻度」、「会話中ジェスチャ」を定めている。一方で、ロボット100の発話性能をシミュレートするための項目である「音声識別レベル」および「発話モジュールレベル」を含まない。
第2テーブル332は、仲介キャラクタ902による発話を実行する場合に、「表示キャラクタ」の欄を参照して、キャラクタデータベース350から取得するキャラクタ映像を決定する。また、「声音」の欄を参照して発話データベース340から取得する音声データを決定し、「会話速度」の欄を参照してスピーカ302から発する音声の速さを調整する。また、「選択用語レベル」の欄を参照して応答発話文の丁寧さを調整し、「気性変化頻度」の欄を参照して応答発話文の内容を調整し、「対話ジェスチャ」の欄を参照して、表示パネル303に表示する擬似キャラクタ901のアニメーションを調整する。
なお、キャラクタを特徴付ける動作基準は、図4に示した基準に限らない。他の基準が追加されても良いし、特定の基準が省かれていても良い。また、シミュレートする特定のロボットに対して特別な基準が用意されていても良い。
次に、第1環境における対話において制御部310が実行する処理の流れについて説明する。図5は、第1環境における対話で制御部310が実行する処理のフロー図である。フロー図は、ユーザが1フレーズを発話してから、コミュニケーション端末300が1フレーズを返すまでの処理を表わしている。フローは、周囲にロボット100が存在しないことが確認された時点から開始される。
制御部310は、ステップS101で、マイク301を介してユーザ発話を取得すると、発話解析部311が、ステップS102で、当該ユーザ発話を入力発話として解析し認識する。発話解析部311は、解析結果を第1対話部313へ引き渡す。
第1対話部313は、ステップS103で、第1テーブル331を参照して入力発話に対する応答発話文を生成する。ステップS104へ進み、調停部315は、ステップS103で生成された応答発話文を解析する。そして、調停部315は、ステップS103で生成された応答発話文が入力発話に対して相応しいものであるか否かを判断する。相応しいものであると判断した場合には、次の発話権限を第1対話部313へ引き渡して、ステップS105へ進む。一方、ステップS103で生成された応答発話文が入力発話に対して意味を成さなかったり、そもそも応答発話文が生成されていなかったりする場合には、仲介キャラクタ902の介入が必要と判断し、次の発話権限を第2対話部314へ引き渡し、ステップS107へ進む。
ステップS105へ進んだ場合には、第1対話部313は、キャラクタデータベース350から擬似キャラクタ901の映像データを取得して、表示パネル303に表示する。また、ステップS103で生成した応答発話文に対応する文字を表示する。ステップS106へ進み、発話データベース340から音声データを取得して調整し、ステップS103で生成した応答発話文に対応する音声をスピーカ302から発する。ステップS105とステップS106は、互いにリンクするように、並列的に処理すると良い。ステップS106の処理を終えたら、ステップS110へ進む。
ステップS107へ進んだ場合には、第2対話部314が、ステップS102で演算された解析結果を引き受け、更にステップS103で生成された応答発話文と第2テーブル332を参照して、入力発話に対する応答発話文を生成する。第2対話部314は、ステップS103で生成された応答発話文を参照することにより、その内容に応じた応答発話文を生成し得る。例えば、ステップS103で応答発話文を生成できなかった場合には、「『良く聞こえなかったからもう一回言って』だって。」との応答発話文を生成する。話題がずれてしまっているような場合には、「太郎くんは、○○を知らないみたいだよ。」との応答発話文を生成する。
ステップS107で応答発話文を生成したら、ステップS108へ進み、第2対話部314は、キャラクタデータベース350から仲介キャラクタ902の映像データを取得して、表示パネル303に表示する。また、ステップS107で生成した応答発話文に対応する文字を表示する。ステップS109へ進み、発話データベース340から音声データを取得して調整し、ステップS107で生成した応答発話文に対応する音声をスピーカ302から発する。ステップS108とステップS109は、互いにリンクするように、並列的に処理すると良い。ステップS109の処理を終えたら、ステップS110へ進む。
ステップS110に進むと、制御部310は、ステップS102で解析されたユーザ発話文と、ユーザに提示された応答発話文とを予め定められたデータ形式に調整し、通信ユニット320からロボット100へ送信する。制御部310は、ステップS111へ進み、ユーザとの対話が継続されているか、終了したかを判断する。例えば、一定時間の間にユーザが発話しなければ、対話は終了したと判断する。対話が終了していないと判断したらステップS101へ戻り、一連の処理を繰り返す。対話が終了したと判断したら、表示パネル303の表示を停止して、一連の処理を終了する。
図1の第2環境では、ユーザが、コミュニケーション端末300を所持することなく、ロボット100と対話する様子を説明した。しかし、上述のように、ユーザとロボット100の二者間の対話は、円滑に進められない場合も多い。そこで、第2環境においてもコミュニケーション端末300を利用してロボット100との対話を円滑に進める利用形態について説明する。図6は、第2環境で実行される対話の様子を示す図である。
図6(a)は、ロボット100との対話に障害が発生している様子を示す。具体的には、ユーザが、「ロボタ君、コーヒー買ってきて。」とロボット100に話し掛けても、ロボット100が意味不明な応答発話を発した様子を示している。このとき、ユーザがコミュニケーション端末300を所持していれば、コミュニケーション端末300は、通信を介してロボット100が生成した応答発話文を取得することができる。コミュニケーション端末300は、取得した応答発話文が対話として意味を成さないことを判断する。
図6(b)は、コミュニケーション端末300の表示パネル303に仲介キャラクタ902が表示され、ユーザとロボット100の対話を仲介キャラクタ902が補助している様子を示す。コミュニケーション端末300は、ユーザがロボット100へ話し掛けたユーザ発話を取得しており、ロボット100から取得したロボット100の応答発話が意味を成さない場合に、コミュニケーション端末300がユーザへの応答発話文を生成して出力する。具体的には、図示するように、ユーザの「ロボタ君、コーヒー買ってきて。」に対して、「『ホットコーヒーでいいかな?』と言っているよ。」などと音声を発し、文字を表示する。このとき、コミュニケーション端末300は、出力した応答発話文についての対話情報をロボット100へ送信する。ロボット100は、受信した対話情報を参照することにより、矛盾なくその後の対話を続けることができる。
図7は、図6を用いて説明した第2環境における対話で制御部310が実行する処理のフロー図である。フロー図は、ユーザが1フレーズを発話してから、ロボット100が適切な1フレーズを返すか、コミュニケーション端末300が補助する1フレーズを返すまでの処理を表わしている。フローは、周囲にロボット100が存在することが確認された時点から開始される。なお、制御部310は、周囲にロボット100が存在するか否かを、例えば、通信ユニット320を介して取得するロボット100の位置情報と、コミュニケーション端末300の位置情報を比較して判断する。近接通信用の無線ユニットを備えている場合には、近接通信が確立できるか否かにより判断しても良い。
制御部310は、ステップS201で、マイク301を介してユーザ発話を取得すると、発話解析部311が、ステップS202で、当該ユーザ発話を入力発話として解析し認識する。発話解析部311は、解析結果を調停部315へ引き渡す。
制御部310は、ステップS203で、マイク301を介してロボット100が発するロボット発話を取得すると、発話解析部311が、ステップS204で、当該ロボット発話を応答発話として解析し認識する。発話解析部311は、解析結果を調停部315へ引き渡す。
ステップS104へ進むと、調停部315は、ステップS202で解析されたユーザ発話に対してステップS204で解析されたロボット発話が、対話を成立させるものであるか否かを判断する。成立させていると判断した場合にはステップS210へ進む。成立させていないと判断したら、ステップS206へ進む。
ステップS206へ進んだ場合には、第2対話部314が、ステップS202で演算された解析結果を引き受け、更にステップS204で演算された解析結果と第2テーブル332を参照して、ユーザ発話に対する応答発話文を生成する。
ステップS206で応答発話文を生成したら、ステップS207へ進み、第2対話部314は、キャラクタデータベース350から仲介キャラクタ902の映像データを取得して、表示パネル303に表示する。また、ステップS206で生成した応答発話文に対応する文字を表示する。ステップS208へ進み、発話データベース340から音声データを取得して調整し、ステップS206で生成した応答発話文に対応する音声をスピーカ302から発する。ステップS207とステップS208は、互いにリンクするように、並列的に処理すると良い。制御部310は、ステップS209へ進み、ステップS206で生成された応答発話文を予め定められたデータ形式に調整し、通信ユニット320からロボット100へ送信する。
ステップS210へ進むと、制御部310は、ユーザとロボット100の対話が継続されているか、終了したかを判断する。対話が終了していないと判断したらステップS201へ戻り、一連の処理を繰り返す。対話が終了したと判断したら、表示パネル303の表示を停止して、一連の処理を終了する。
このように、ユーザがロボット100と対話を行うことができる第2環境にいては、第1対話部313による対話を実行しない。すなわち、擬似キャラクタ901を表出させない。このように制御することにより、ロボット100と擬似キャラクタ901の切替え感を演出することができる。換言すると、コミュニケーション端末300の擬似キャラクタ901と対話可能な外部コミュニケーションロボットとしてのロボット100に、より一体性を持たせることができる。また、このように、ユーザとロボット100が対話を行う環境において、両者の対話に第2対話部314が介入して補助することにより、ユーザは、ロボット100と円滑に対話を楽しむことができる。
以上説明した本実施形態においては、コミュニケーション端末300は生成した応答発話文を文字と音声で出力したが、何れかであっても構わない。ユーザが応答発話文をどのように出力させるかを、利用環境等に応じて選択できるように構成しても良い。
また、第1環境で実行される図5を用いて説明した処理フローは、履歴データ333を参照することなく応答発話文を生成するものであったが、もちろん履歴データ333を参照して応答発話文を生成しても良い。この場合、第1対話部313および第2対話部314が過去に生成した応答発話文を対話情報として参照するだけでなく、ロボット100が過去に発話した応答発話文も対話情報として参照しても良い。このように過去の応答発話文を参照することにより、対話をバリエーションに富む奥深いものにすることができる。
以上説明した本実施形態においては、図2を用いて説明したように、表示パネル303には、疑似キャラクタ901と仲介キャラクタ902のうち発話主体となる一方が大きく表示される表示態様を説明したが、表示態様は、これに限らない。表示画面を分割して一方を疑似キャラクタ901の表示領域とし、他方を仲介キャラクタ902の表示領域としても良い。
また、説明した本実施形態においては、ロボット100を自律移動可能なサービスロボットとして説明したが、実環境下でユーザがコミュニケーションを取ることのできるロボットは、このような類に限らない。例えば遊園地等で固定的に設置されているコミュニケーションロボットであっても良い。また、特定の場所においてのみコミュニケーションが取れるロボットという観点においては、当該ロボットが必ずしも何らかの視認可能な外形を備えていなくても良い。
また、説明した本実施形態においては、仲介キャラクタ902は、ユーザと疑似キャラクタ901の対話、またはユーザとロボット100の対話を仲介する対話を実行する場合を説明したが、仲介のための発話以外の発話も行わせても良い。すなわち、ユーザと仲介キャラクタ902が、ロボット100との対話とは切り離された独自内容の対話を行えるようにしても構わない。この場合に、疑似キャラクタ901は、ユーザと仲介キャラクタ902が行った対話の内容を反映した発話を行えるようにしても良い。また、疑似キャラクタ901と仲介キャラクタ902が相互に対話するように構成しても構わない。このように構成すると、疑似キャラクタ901と仲介キャラクタ902が、より独立したキャラクタであることが認識されやすい。また、発話内容も厚みが増し、より豊かなコミュニケーションを実現することができる。
100 ロボット、300 コミュニケーション端末、301 マイク、302 スピーカ、303 表示パネル、310 制御部、311 発話解析部、313 第1対話部、314 第2対話部、315 調停部、320 通信ユニット、330 メモリ、331 第1テーブル、332 第2テーブル、333 履歴データ、340 発話データベース、350 キャラクタデータベース、500 システムサーバ、600 インターネット、700 無線ルータ、901 擬似キャラクタ、902 仲介キャラクタ、911、912 テキストボックス

Claims (7)

  1. 表示部と、
    前記表示部に第1キャラクタを表示させ、対話可能な外部コミュニケーションロボットの発話機能をシミュレートしてユーザとの対話を実行する第1対話制御部と、
    前記表示部に第2キャラクタを表示させ、前記ユーザと前記第1対話制御部の対話に介入する対話を実行する第2対話制御部と、
    前記第1対話制御部および前記第2対話制御部が実行した対話の対話情報を前記外部コミュニケーションロボットへ送信する送信部と
    を備える対話装置。
  2. 前記外部コミュニケーションロボットが実行した対話の対話情報を受信する受信部を備え、
    前記第1対話制御部は、前記受信部が受信した前記対話情報に基づいて対話を実行する請求項1に記載の対話装置。
  3. 前記第1対話制御部は、前記ユーザが前記外部コミュニケーションロボットと対話を行うことができる環境においては、対話を実行しない請求項2に記載の対話装置。
  4. 前記第2対話制御部は、前記ユーザが前記外部コミュニケーションロボットと対話を行うことができる環境においては、前記ユーザと前記外部コミュニケーションロボットの対話に介入する対話を実行する請求項3に記載の対話装置。
  5. 前記第2対話制御部は、前記外部コミュニケーションロボットの前記発話機能によって制限された発話を補うように対話を実行する請求項1から4のいずれか1項に記載の対話装置。
  6. 前記第1対話制御部および前記第2対話制御部による発話は、スピーカから発せられる音声および前記表示部に表示される文字の少なくともいずれかを介して実行される請求項1から5のいずれか1項に記載の対話装置。
  7. 表示部に第1キャラクタを表示させ、対話可能な外部コミュニケーションロボットの発話機能をシミュレートしてユーザとの対話を実行する第1対話制御ステップと、
    前記表示部に第2キャラクタを表示させ、前記ユーザと前記第1対話制御ステップの対話に介入する対話を実行する第2対話制御ステップと、
    前記第1対話制御ステップで実行した対話および前記第2対話制御ステップで実行した対話の対話情報を前記外部コミュニケーションロボットへ送信する送信ステップと
    をコンピュータに実行させる対話装置の制御プログラム。
JP2018200831A 2018-10-25 2018-10-25 対話装置および対話装置の制御プログラム Active JP7010193B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018200831A JP7010193B2 (ja) 2018-10-25 2018-10-25 対話装置および対話装置の制御プログラム
CN201911011990.8A CN111104494A (zh) 2018-10-25 2019-10-23 对话装置及对话装置的控制程序
US16/661,481 US11485022B2 (en) 2018-10-25 2019-10-23 Dialogue apparatus and control program for dialogue apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018200831A JP7010193B2 (ja) 2018-10-25 2018-10-25 対話装置および対話装置の制御プログラム

Publications (2)

Publication Number Publication Date
JP2020067877A true JP2020067877A (ja) 2020-04-30
JP7010193B2 JP7010193B2 (ja) 2022-01-26

Family

ID=70327672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018200831A Active JP7010193B2 (ja) 2018-10-25 2018-10-25 対話装置および対話装置の制御プログラム

Country Status (3)

Country Link
US (1) US11485022B2 (ja)
JP (1) JP7010193B2 (ja)
CN (1) CN111104494A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410649B2 (en) * 2019-10-31 2022-08-09 International Business Machines Corporation Voice commands to facilitate in-game communication

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163171A (ja) * 2000-11-28 2002-06-07 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2012086348A (ja) * 2010-10-22 2012-05-10 Nippon Signal Co Ltd:The 自律移動サービス提供システム
JP2017010179A (ja) * 2015-06-19 2017-01-12 Re&Do株式会社 サービス提供システム
JP2019128654A (ja) * 2018-01-22 2019-08-01 ヤフー株式会社 情報処理システム、情報処理方法、およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101577118B (zh) * 2009-06-12 2011-05-04 北京大学 面向智能服务机器人的语音交互系统的实现方法
JP6594646B2 (ja) * 2015-04-10 2019-10-23 ヴイストン株式会社 ロボット及びロボット制御方法並びにロボットシステム
CN105126349B (zh) * 2015-08-26 2018-05-15 江苏木盟智能科技有限公司 智能互动人偶和系统
JP6601625B2 (ja) 2016-05-20 2019-11-06 日本電信電話株式会社 対話方法、対話システム、対話装置、およびプログラム
CN106328132A (zh) * 2016-08-15 2017-01-11 歌尔股份有限公司 一种智能设备的语音交互控制方法和装置
JP7045020B2 (ja) * 2017-02-28 2022-03-31 国立大学法人東北大学 対話支援装置及び対話装置
JP2018161704A (ja) * 2017-03-24 2018-10-18 株式会社 ゼンショーホールディングス 対話制御システム、及び、ロボット制御システム
JP2018161713A (ja) * 2017-03-24 2018-10-18 株式会社 ゼンショーホールディングス 対話制御装置およびロボット制御システム
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
US10239202B1 (en) * 2017-09-14 2019-03-26 Play-i, Inc. Robot interaction system and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002163171A (ja) * 2000-11-28 2002-06-07 Sanyo Electric Co Ltd ユーザ支援装置およびシステム
JP2012086348A (ja) * 2010-10-22 2012-05-10 Nippon Signal Co Ltd:The 自律移動サービス提供システム
JP2017010179A (ja) * 2015-06-19 2017-01-12 Re&Do株式会社 サービス提供システム
JP2019128654A (ja) * 2018-01-22 2019-08-01 ヤフー株式会社 情報処理システム、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小川 浩平: ""エージェントの身体的特徴が人と人工物の対話に及ぼす影響の評価"", [ONLINE], JPN6021049847, March 2010 (2010-03-01), pages 50 - 60, ISSN: 0004661561 *

Also Published As

Publication number Publication date
JP7010193B2 (ja) 2022-01-26
US11485022B2 (en) 2022-11-01
CN111104494A (zh) 2020-05-05
US20200130195A1 (en) 2020-04-30

Similar Documents

Publication Publication Date Title
JP6818280B2 (ja) 対話システム、対話方法、対話装置、およびプログラム
WO2020176179A1 (en) Linguistic style matching agent
US11455986B2 (en) System and method for conversational agent via adaptive caching of dialogue tree
WO2017200074A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
CN111542814A (zh) 改变应答以提供表现丰富的自然语言对话的方法、计算机装置及计算机可读存储介质
WO2017200078A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
WO2018163646A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP6682104B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
WO2019161226A1 (en) System and method for prediction based preemptive generation of dialogue content
CN111556999B (zh) 通过即时提供实质性回答以提供自然语言对话的方法、计算机装置及计算机可读存储介质
CN111192577B (zh) 交流装置及交流装置的控制程序
CN111557001B (zh) 提供自然语言对话的方法、计算机装置及计算机可读存储介质
JP2020067877A (ja) 対話装置および対話装置の制御プログラム
JP6647636B2 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP6601625B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
CN114424148B (zh) 电子设备及其用于提供手册的方法
JP6610965B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
WO2021064947A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
EP3833459A1 (en) Systems and devices for controlling network applications
JP2020067584A (ja) コミュニケーション装置およびコミュニケーション装置の制御プログラム
US12039973B1 (en) Language model orchestration
US20240221736A1 (en) Language model orchestration
Kawahara Spoken Dialogue Processing for Multimodal Human‐Robot Interaction
WO2024145675A1 (en) Language model orchestration

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227