JP7045020B2 - 対話支援装置及び対話装置 - Google Patents

対話支援装置及び対話装置 Download PDF

Info

Publication number
JP7045020B2
JP7045020B2 JP2017037648A JP2017037648A JP7045020B2 JP 7045020 B2 JP7045020 B2 JP 7045020B2 JP 2017037648 A JP2017037648 A JP 2017037648A JP 2017037648 A JP2017037648 A JP 2017037648A JP 7045020 B2 JP7045020 B2 JP 7045020B2
Authority
JP
Japan
Prior art keywords
dialogue
feature amount
voice
user
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017037648A
Other languages
English (en)
Other versions
JP2018142280A (ja
Inventor
彰則 伊藤
富 廣井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Josho Gakuen Educational Foundation
Original Assignee
Tohoku University NUC
Josho Gakuen Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Josho Gakuen Educational Foundation filed Critical Tohoku University NUC
Priority to JP2017037648A priority Critical patent/JP7045020B2/ja
Publication of JP2018142280A publication Critical patent/JP2018142280A/ja
Application granted granted Critical
Publication of JP7045020B2 publication Critical patent/JP7045020B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、対話支援装置及び対話装置に関する。
近年、利用者の発話に応じた音声を出力可能な対話装置を利用して、利用者に様々なサービスを提供する試みがなされている。しかしながら、対話装置のみによる人との音声対話には限界があり、対話装置が完全に自立して利用者と対話することは難しい。そこで、利用者と対話装置との間の対話に生じている問題を検出し、対話装置と利用者との間にオペレータを介在させる技術が提案されている(例えば特許文献1参照)。
特開2007-190641号公報
しかしながら、従来技術は、対話装置と利用者との対話にオペレータを介入させるか否かを、対話システムによって対話が成立していない(対話不成立)と判断された場合に介入させるものである。オペレータは通常、複数の業務や複数台の対話装置等を担当し、また、対話システムの使用状況とは無関係の業務をしていることも多い。利用者と対話装置との対話が成立していないという問題が生じた場合、介入指示がオペレータに通知される。しかし、介入指示が通知された場合であっても、実際の対話状況は、介入が必須である場合もあれば、介入することが望ましいが必ずしも介入が必須ではない場合もある。そのため、オペレータの介入頻度は、対話システムの用途、日時等における繁閑や業務時間におけるオペレータの他業務とのバランス等を考慮して適切に調整されることが望ましい。
しかし従来技術では対話ロボットの実使用場面における用途やオペレータの要員計画等、システム運営者側の諸事情を考慮して判断するものではなく、そのため、対話装置と利用者との対話にオペレータを、オペレータ等の事情を考慮して状況に応じて適宜介入させることができないという問題があった。また、従来は、オペレータを介入させるか否かの判定を利用者の音声や画像等の特徴ごとに介入判定を行っていたことから、対話不成立を判定する精度も悪く、発話前の状態で対話が困難である場合の判定も難しく、介入頻度を適切に変更し、適切にオペレータを介入させることが困難であった。
上記事情に鑑み、本発明は、対話ロボットと利用者との対話にオペレータを状況に応じて適宜介入させることができる技術を提供することを目的としている。
本発明の一態様は、利用者と対話装置が対話し、利用者の音声と画像を用いて対話の成立又は不成立を判断し、対話不成立の場合には通信回線を介してオペレータが介入する対話装置に用いられる対話支援装置であって、対話装置と対話する利用者の音声データを取得する音声データ取得部と、前記利用者が撮像された画像データを取得する画像データ取得部と、前記音声データが示す音声の特徴量である音声特徴量を取得する音声特徴量取得部と、前記画像データが示す画像の特徴量である画像特徴量を取得する画像特徴量取得部と、前記対話装置と前記利用者との対話にオペレータを介入させる必要があるか否かを判定するための判定基準値を自装置に設定する判定基準値設定部と、前記画像特徴量及び前記音声特徴量に基づいて前記利用者と前記対話装置との対話の不成立の程度を示す指標値を算出し、算出した前記指標値が前記判定基準値を超えた場合、前記対話への介入が必要であることをオペレータに通知する介入用通知判定部と、を備え、前記判定基準値設定部は、前記判定基準値をより高い値又はより低い値に変更することで、オペレータの介入頻度をより低い頻度又はより高い頻度に調整する、対話支援装置である。
本発明の一態様は上記の対話支援装置であって、前記判定基準値設定部は、オペレータの要員計画に基づいて前記判定基準値を変更する。
本発明の一態様は上記の対話支援装置であって、前記介入用通知判定部は、オペレータの介入が必要であると判定した場合、前記オペレータの音声を前記対話装置に出力させる対話制御部をさらに備える。
本発明の一態様は上記の対話支援装置であって、前記介入用通知判定部は、前記画像特徴量及び前記音声特徴量の各入力に対して前記利用者が前記対話装置と円滑に対話できているか否かを示す第1の指標値を取得し、前記各入力に対して取得した第1の指標値に基づいて前記対話装置と前記利用者との対話にオペレータを介入させるか否かを判定するための第2の指標値を取得し、取得した前記第2の指標値と前記判定基準値との大小関係に基づいて、前記対話にオペレータを介入させるか否かを判定する。
本発明の一態様は、利用者と対話し、利用者の音声と画像を用いて対話の成立又は不成立を判断し、対話不成立の場合には通信回線を介してオペレータが介入する対話装置であって、自装置と対話する利用者の音声データを取得する音声データ取得部と、前記利用者が撮像された画像データを取得する画像データ取得部と、取得された前記音声データ及び前記画像データを認識し、前記利用者の発話の内容又は動作に応じた音声を出力する応答部と、前記音声データが示す音声の特徴量である音声特徴量を取得する音声特徴量取得部と、前記画像データが示す画像の特徴量である画像特徴量を取得する画像特徴量取得部と、前記対話装置と前記利用者との対話にオペレータを介入させる必要があるか否かを判定するための判定基準値を自装置に設定する判定基準値設定部と、前記画像特徴量及び前記音声特徴量に基づいて前記利用者と自装置との対話の不成立の程度を示す指標値を算出し、算出した前記指標値が前記判定基準値を超えた場合、前記対話への介入が必要であることをオペレータに通知する介入用通知判定部と、を備え、前記判定基準値設定部は、前記判定基準値をより高い値又はより低い値に変更することで、オペレータの介入頻度をより低い頻度又はより高い頻度に調整する、対話装置である。
本発明により、対話ロボットと利用者との対話にオペレータを状況に応じて適宜介入させることが可能となる。
第1実施形態の対話システム100の構成の概略を示す図である。 対話システム100の構成の他の具体例を示す概略図である。 第1実施形態の対話支援装置1の機能構成の具体例を示すブロック図である。 第1実施形態の対話支援装置1による介入判定処理の流れを示すフローチャートである。 第1実施形態の対話システムにおける判定基準値と呼び出し回数比との関係の具体例を示す図である。 第2実施形態の対話支援装置1aの機能構成の具体例を示すブロック図である。 第2実施形態における制約情報及び条件情報の具体例を示す図である。 対話支援装置1と一体に構成された対話ロボット2aの機能構成の具体例を示す図である。
<第1実施形態>
図1は、第1実施形態の対話システム100の構成の概略を示す図である。対話システム100は、対話支援装置1、対話ロボット2及びオペレータ端末3を備える。対話支援装置1は、対話ロボット2と利用者との対話が円滑に進むように、現在の対話の状況を認識し、必要な支援を行う装置である。対話の状況の認識には、対話ロボット2の持つ内部状態、利用者の発する音声、利用者の画像およびその他のセンサーデータを利用する。対話支援装置が行う支援としては、現在の対話状況を対話ロボット2に送信して対話の流れを制御することや、対話が破綻したときに外部のオペレータに連絡をして利用者への対応を要請することなどが挙げられる。
対話ロボット2は本発明における対話装置の一例である。対話装置とは、利用者と音声を主とした対話を行うことによって、利用者からの情報収集および利用者への情報提供を行う装置である。音声だけでなく画像やその他のセンサ情報を利用する装置であっても良い。対話ロボット2は、利用者と対話できるロボットであって、利用者の発話音声と画像を入力認識し応答するものをいう。対話ロボット2の形態は人型ロボットの形状に限られず情報端末の形態であってもよい。対話ロボット2は、利用者と音声を主とした対話を行うことによって、利用者からの情報収集及び利用者への情報提供を行う装置であれば他のどのような情報を用いるものであってもよい。例えば、音声だけでは対話の成立、不成立を精度良く判定することができない場合、音声データに加えて対話中の利用者の画像データを用いるものであってもよい。この場合、画像データは対話ロボット2に備わったカメラ等の撮像手段によって取得されてもよいし、別途設けられた撮像手段によって取得されてもよい。一般には、対話ロボット2等の対話装置が撮像手段を備えていることが望ましい。
対話支援装置1、対話ロボット2及びオペレータ端末3は、通信回線4を介して互いに通信可能である。対話支援装置1は、対話ロボット2と利用者との対話が円滑に進むように、現在の対話の状況を認識し、必要な支援を行う装置である。対話の状況の認識には、対話ロボット2の持つ内部状態、利用者の発する音声、利用者の画像およびその他のセンサーデータを利用する。対話支援装置2が行う支援としては、現在の対話状況を対話ロボット2に送信して対話の流れを制御することや、対話が破綻したときに外部のオペレータに連絡をして利用者への対応を要請することなどが挙げられる。
対話支援装置1は、利用者とロボットとの対話を監視し、必要に応じて利用者の対話ロボット2との対話を、オペレータとの対話に切り替える。対話ロボット2は、入力された音声が示す内容に応じた音声を出力する対話装置である。対話ロボット2は、利用者との対話を行うほか、自装置に対して発せられた利用者の音声を、通信回線4を介して対話支援装置1に送信する。オペレータ端末3は、対話支援装置1の制御に基づき対話ロボット2に接続され、オペレータの音声を対話ロボット2から出力させる機能を有する。オペレータ端末3は、対話が不成立でオペレータの介入が必要と判定される場合にオペレータに通知し、オペレータは必要に応じて対話ロボットを介して状況を入手し介入すべきと判断すれば対話ロボットに代わり利用者と対話する。
図2は、対話システム100の構成の他の具体例を示す概略図である。対話ロボット2は、対話支援装置を含んでも、含まなくともよいが、対話支援装置1の機能を含んでいると通信回線の通信量を軽減することができ、好ましい。図1が、対話ロボット2、対話支援装置1が各々通信回線を介して接続された一例を示したのに対して、図2(A)は対話支援装置1を介して対話ロボット2と通信回線が接続された一例を示す。また、図2(B)は、対話支援装置1が対話ロボット2に含まれる一例を示す。
図3は、第1実施形態の対話支援装置1の機能構成の具体例を示すブロック図である。対話支援装置1は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、プログラムを実行する。対話支援装置1は、プログラムの実行によって通信部101、画像データ取得部102、音声データ取得部103、画像特徴量取得部104、発話区間識別部105、音声特徴量取得部106、介入用通知判定部109及び対話制御部110を備える装置として機能する。なお、対話支援装置1の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。プログラムは、電気通信回線を介して送信されてもよい。
通信部101は、自装置を通信回線4に接続する通信インタフェースを備えて構成される。通信部101は、通信回線4を介して対話ロボット2及びオペレータ端末3と通信する。
画像データ取得部102は、対話ロボット2と対話中の利用者が撮像された画像データを取得する(図4のステップS101に対応)。例えば、利用者を撮像する撮像部(図示せず)は対話ロボット2に備えられる。この場合、画像データ取得部102は、対話ロボット2との通信により画像データを取得する。また、撮像部は、対話中の利用者を撮像可能な位置に設置された撮像装置であってもよい。この場合、撮像装置は通信回線4に接続され、画像データ取得部102は、撮像装置との通信により画像データを取得してもよい。
音声データ取得部103は、対話ロボット2に対して発せられた利用者の音声データを取得する(図4のステップS104に対応)。例えば、利用者の音声を入力する音声入力部(図示せず)は対話ロボット2に備えられる。この場合、音声データ取得部103は、対話ロボット2との通信により音声データを取得する。また、音声入力部は、対話中の利用者の音声を取得可能な位置に設置された音声入力装置であってもよい。この場合、音声入力装置は通信回線4に接続され、音声データ取得部103は、音声入力装置との通信により画像データを取得してもよい。
画像特徴量取得部104は、画像データ取得部102によって取得された画像データが示す画像の特徴量(以下「画像特徴量」という。)を取得する(図4のステップS102に対応)。第1実施形態における画像特徴量は、利用者の挙動に関する特徴量である。具体的には、画像特徴量は、利用者の体全体が単位時間当たりに移動した量や、利用者の顔及び視線の向き、及びそれらの時間変化に関する特徴量を含む。画像特徴量取得部104は、取得した画像特徴量を示す情報を介入用通知判定部109に出力する。
発話区間識別部105は、音声データの周波数解析等により、音声データの示す音声区間から利用者の発話が含まれる区間(以下「発話区間」という。)を識別する(図4のステップS105に対応)。発話区間識別部105は、利用者の発話区間を示す情報を音声特徴量取得部106に出力する。
音声特徴量取得部106は、音声データ取得部103によって取得された音声データが示す音声の特徴量(以下「音声特徴量」という。)を取得する(図4のステップS107に対応)。第1実施形態における音声特徴量は、利用者の発話タイミングに関する特徴量及び音声の周波数に関する特徴量である。具体的には、音声特徴量は、対話ロボット2が利用者に対して発話を促してから、実際に利用者の発話が開始されるまでに要した時間や有声休止(「あー」「えーと」など、同じ母音が引き延ばされることを特徴とする無意味発話)等に関する特徴量を含む。音声特徴量取得部106は、発話区間識別部105によって識別された発話区間の情報に基づいて利用者の発話タイミングに関する音声特徴量を取得する。また、音声特徴量取得部106は、音声データに基づいて周波数解析を行うことにより音声の周波数に関する特徴量を取得する。音声特徴量取得部106は、利用者の発話タイミングに関する特徴量及び音声の周波数に関する特徴量を音声特徴量として介入用通知判定部109に出力する。
記憶部107は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。記憶部107は判定基準値情報を記憶する。判定基準値情報は、対話ロボット2と利用者との対話にオペレータを介入させるか否かの判定するための判定基準値を示す情報である。判定基準値情報は、判定基準値設定部108によって記憶部107に記憶される。
判定基準値設定部108は、対話ロボット2と利用者との対話にオペレータを介入させるか否かを判定するために必要となる判定基準値を自装置に設定する機能を有する。具体的には、判定基準値の設定とは、判定基準値情報を記憶部107に記憶させることを意味する。記憶部107に記憶させる判定基準値情報はどのような方法で取得されてもよい。判定基準値及びその適用範囲等の判定基準情報の入力者としては、例えば、システム運用者又はオペレータ、あるいはAI(Artificial Intelligence:人工知能)等が挙げられる。例えば、判定基準値設定部108は、マウスやキーボード等の入力装置を介して判定基準値情報を取得してもよいし、通信部101を介した通信によって他の装置から判定基準値情報を取得してもよい。また、例えば、判定基準値設定部108は、種々の情報を用いて判定基準値情報を生成してもよいし、判定基準値となりうる複数の判定基準値情報の中から用いられるべき判定基準値情報を選択してもよい。
また、対話ロボット2が複数存在する場合、判定基準値設定部108は、複数の対話ロボット2ごとの判定基準値を設定してもよいし、複数の対話ロボット2を分類するグループごとに判定基準値を設定してもよい。
介入用通知判定部109は、対話ロボット2と利用者との対話にオペレータを介入させるか否かを判定する(図4のステップS103、S106、S108~S112に対応)。以下、この判定を介入判定という。具体的には、介入用通知判定部109は、画像特徴量取得部104によって取得された画像特徴量と、音声特徴量取得部106によって取得された音声特徴量と、判定基準値設定部108によって設定された判定基準値と、に基づいて介入判定を行う。介入用通知判定部109は、介入判定の判定結果を対話制御部110に出力する。
対話制御部110は、介入用通知判定部109によって行われた介入判定の判定結果に基づいて対話ロボット2の音声出力機能を制御する。
図4は、第1実施形態の対話支援装置1による介入判定処理の流れを示すフローチャートである。まず、画像データ取得部102が、対話ロボット2と対話中の利用者が撮像された画像データを取得する(ステップS101)。画像データ取得部102は、取得した画像データを画像特徴量取得部104に出力する。画像特徴量取得部104は、画像データ取得部102から画像データを取得する。画像特徴量取得部104は、取得した画像データの画像特徴量を取得する(ステップS102)。画像特徴量取得部104は、取得した画像特徴量を、利用者が対話ロボット2と円滑に対話できているか否かを識別する第1の識別器(以下「第1識別器」という。)に入力する。これにより、画像特徴量取得部104は、第1識別器の出力として、例えば、利用者が対話ロボット2と円滑に対話できていない、すなわち対話が成立していない対話不成立の確率p1を取得する(ステップS103)。
一方、画像データの取得と並行して、音声データ取得部103が、対話ロボット2と対話中の利用者の音声データを取得する(ステップS104)。音声データ取得部103は、取得した音声データを発話区間識別部105及び音声特徴量取得部106に出力する。発話区間識別部105は、音声データ取得部103から音声データを取得する。発話区間識別部105は、取得した音声データに基づいて利用者の発話区間を識別する(ステップS105)。発話区間識別部105は、識別した発話区間を示す情報を音声特徴量取得部106に出力する。
音声特徴量取得部106は、発話区間識別部105から、利用者の発話区間を示す情報を取得する。音声特徴量取得部106は、利用者の発話区間に関する特徴量を、利用者が対話ロボット2と円滑に対話できているか否かを識別する第2の識別器(以下「第2識別器」という。)に入力する。これにより、音声特徴量取得部106は、第2識別器の出力として、例えば、利用者が対話ロボット2と円滑に対話できていない、すなわち対話が成立していない対話不成立の確率p2を取得する(ステップS106)。ここでいう発話区間に関する特徴量は、例えば利用者のフィラー音声又は言い淀みに関する特徴量である。
一方、音声特徴量取得部106は、音声データ取得部103から音声データを取得する。音声特徴量取得部106は、取得した音声データの音声特徴量を取得する(ステップS107)。例えば、音声特徴量は、音声波形の解析によって取得可能な音声の特徴量(声の大きさや高さ、速さ等)である。その意味では、上記の発話区間に関する特徴量も音声特徴量の一つに含まれても良い。音声特徴量取得部106は、取得した音声特徴量を、利用者が対話ロボット2と円滑に対話できているか否かを識別する第3の識別器(以下「第3識別器」という。)に入力する。これにより、音声特徴量取得部106は、第3識別器の出力として、例えば、利用者が対話ロボット2と円滑に対話できていない、すなわち対話が成立していない対話不成立の確率p3を取得する(ステップS108)。
なお、上述した各識別器は、サンプルデータの特徴量を機械学習することによって生成される。各識別器は、サポートベクターマシンやニューラルネットワークなどの機械学習手法を用いて生成することができる。画像特徴量取得部104及び音声特徴量取得部106は、予め生成された識別器を有してもよいし、サンプルデータの特徴量を機械学習することにより各識別器を生成する機能を有しても良い。また、画像特徴量取得部104及び音声特徴量取得部106は、生成された各識別器を、新たに得られたサンプルデータの特徴量に基づいて更新する機能を有しても良い。
続いて、介入用通知判定部109が、確率p1、p2及びp3に基づいて、利用者が対話ロボット2と円滑に対話できているか否かを最終的に判定する。具体的には、介入用通知判定部109は、機械学習に基づく確率統合の手法(例えば以下の参考文献1を参照。)を用いて確率p1、p2及びp3を統合し、利用者が対話ロボット2と円滑に対話できていない確率pを算出する(ステップS109)。
参考文献1:千葉他「対話中のユーザ状態逐次推定のための多段階識別手法に関する検討」、情報処理学会研究報告 Vol.2013 No.21 1-6
介入用通知判定部109は、算出した確率p(利用者が対話ロボット2と円滑に対話できていない確率)を判定基準値(閾値θ)と比較する(ステップS110)。pがθ以上である場合(ステップS110-YES)、介入用通知判定部109は、利用者と対話ロボット2との対話にオペレータの介入用通知が必要と判定する(ステップS111)。一方、pがθ未満である場合(ステップS110-NO)、介入用通知判定部109は、オペレータへの介入用通知は不要と判定する(ステップS112)。通知されたオペレータは通常ただちに介入するが、状況により判断することも可能である。
このような介入判定処理によれば、対話ロボット2の問いかけから利用者の発話が発生するまでの時間、利用者による発話の休止、利用者の顔の向きや視線の方向、顔の動き等の単位時間あたりの量の観測することにより、利用者が対話ロボット2と円滑に対話できているか否かを判定することができる。例えば、対話が困難である場合、発話までの時間が長くなる(概ね5秒以上)傾向がある。また、この場合、発話の休止頻度が高い、視線が中心を外れる、首を傾げる動作が見られるなどの傾向がある。これらの特徴はそれぞれが独立して観測されるものではなく、互いに何らかの相関を有すると考えられる。そのため、利用者と対話ロボット2とが円滑に対話できているか否かを、これらの各特徴のそれぞれに判定基準値を設けて判定することは必ずしも適切でない。
例えば、これらの特徴ごとに独立して介入判定を行った場合、必要以上に頻繁にオペレータが呼び出されたり、呼び出すべきタイミングが適切でなかったりといった問題が生じる可能性がある。実施形態の対話支援装置1は、音声特徴量と画像特徴量と発話区間(間合い)のそれぞれに基づいて対話に問題が生じている確率を算出し、これらの特徴ごとに算出された確率を、更に機械学習に基づく手法で統合する構成を備えることにより、問題が生じている確率をより精度よく算出することが可能となる。音声、画像等の個別要素のみで対話不成立を判定する方法に比べて、個別要素を統合して対話不成立の確率を算出するため、判定精度が向上し、オペレータの呼び出しの要否がより精度良く判定されることにつながる。
このように構成された第1実施形態の対話支援装置1は、対話ロボットと利用者との対話にオペレータを効率良く介入させることが可能となる。具体的には、対話支援装置1は、判定基準値情報を取得又は生成して自装置に設定する判定基準値設定部108を備える。この判定基準値設定部108を備えることにより、対話支援装置1は、システム運営者側の諸事情を考慮した上で、対話ロボットと利用者との対話にオペレータを介入させるか否かを判定することができる。オペレータの介入が必要と判断した場合、対話制御部110オペレータの音声を対話装置2に出力させる。
図5は、第1実施形態の対話システムにおける判定基準値と呼び出し回数比との関係の具体例を示す図である。図5の横軸θは判定基準値としての閾値を表し、縦軸は呼び出し回数比を表す。呼び出し回数比は、オペレータの呼び出し回数の基準値に対する比を表す。ここでは、θが0.6のときの呼び出し回数比を基準(1.0)としている。下記の式(3)において、適合率Pが0.6のとき再現率Rも約0.6となるため、ここではP=0.6を基準とした。
図5に示すグラフは次のようにして求められた。まず、対話システムを利用して実際に対話を行った際に、オペレータの介入を必要とするかどうかについて、さまざまな判断基準値で判定を行った。この時に、実際に介入が必要であった回数をN、対話システムが、介入が必要と判定した回数のうち実際に介入が必要だった回数をNtp、対話システムが、介入が必要と判定した回数のうち実際は介入が不要であった回数をNfpとすると、この対話システムの適合率P(対話システムによる介入判定の的中率)は以下の式(1)で求められる。また、再現率(実際に介入が必要な状況を検出した確率)は、以下の式(2)で求められる。
P=Ntp/(Ntp+Nfp) 式(1)
R=Ntp/N 式(2)
実際の検出結果を分析した結果、PとRとの間には相関があり、その相関は大凡次の式(3)のように表すことができる。
R(P)=min(1.0,1.1-0.9P) 式(3)
そのため、Nをある値(例えば100回)としたときに、対話システムを使って実際に検出される回数は次の式(4)のように表すことができる。
tp+Nfp=N×R/P 式(4)
ここで、Pを介入判定の指標値として利用すれば、介入が必要な状況100回当たりの呼び出し回数比は次の式(5)で求めることができる。閾値θは、判定基準値である。
100×min(1/θ,1.1/θ-0.9) 式(5)
例えば、第1実施形態の対話システムがイベント会場の案内に用いられる場合を想定する。この場合、利用者が対話システムを利用するために提供される対話ロボット等の利用者端末は、イベント会場のエントランス等の場所に設置されることが多い。このような場所に十分なスペースが確保されていない場合、時間帯によっては対話ロボット周辺に多くの人が滞留してしまい、会場全体の混雑を招く可能性がある。このような状況が想定される用途に対して、従来技術では、オペレータを介入させるか否かの判定基準値を柔軟に変更することができないため、オペレータに対して現場の混雑の状況に応じた効率の良い介入を行わせることができず、対話システム自身が会場の人の流れを阻害する要因となってしまう可能性があった。これに対して、第1実施形態の対話システムによれば、例えば、イベント運営者は、会場の混雑状況に応じて判定基準値を柔軟に変更することができる。これにより、混雑時にはオペレータの介入頻度を向上させ、対話ロボットが利用者と円滑に対話することができなくなる状況が発生することを未然に防止し、会場が混雑することを抑制することが可能になる。
例えば図5の例の場合、通常時の判定基準値(閾値θ)を0.6(最大値1.0)に設定して運用しているところ、当該時間帯のみ、システム運用者又はオペレータが対話不成立の確率に対する閾値を0.4に引き下げることで、オペレータの呼び出し頻度を容易に約2倍に上げることができる。この場合、対話不成立が生じていないときであってもオペレータが呼び出される確率が高くはなるが、オペレータの対応頻度を多くすることによって、積極的に案内することで対話不成立を未然に防ぎ、被案内人が対話トラブルにより対話システム前に長く居続けないようにすることで混雑を防ぐことができる。
また、イベント会場のオペレータは、開催されるイベントによっては会場内の安全チェック等の別業務を兼任する場合もある。このような場合において、従来技術では、オペレータを介入させるか否かの判定基準値を柔軟に変更することができないため、オペレータの介入頻度が高い状況では、オペレータが安全チェック等の別業務を十分に行うことができない可能性があった。これに対して、第1実施形態の対話システムによれば、例えば、イベント運営者は、オペレータに課されるその日の業務内容に応じて、オペレータの介入頻度を下げるような判定基準値を設定することができる。これにより、オペレータは、安全チェック等の別業務の遂行に注力することが可能になる。
例えば図5の例の場合、通常時の判定基準値(閾値θ)を0.6(最大値1.0)に設定して運用しているところ、当該イベント当日のみ、システム運用者又はオペレータが対話不成立の確率に対する閾値を0.8に引き上げることで、オペレータの呼び出し頻度を約2分の1に容易に下げることができる。この場合、対話不成立が生じてもオペレータが呼び出されなくなる確率が高くはなるが、オペレータがより重要な安全チェック等の業務に注力できるようにすることができる。
また、例えば、一人のオペレータが、複数のイベント会場の利用者の応対を行わなければならない場合も想定される。この場合、利用者と対話ロボットとの対話の円滑性がイベント会場ごとに異なる場合もある。例えば、一部のイベントが高齢者向けのイベントである場合には、他のイベントよりもオペレータの介入頻度が高まることが想定される。また、高齢の利用者に対する応対は、若年の利用者に対する応対よりも時間がかかることも想定される。このような場合、従来技術では、オペレータを介入させるか否かの判定基準値を柔軟に変更することができないため、複数のイベント会場においてオペレータ介入の必要性が同じ頻度で発生することになる。その結果、オペレータが、高齢の利用者に対する応対の負荷によって、若年の利用者に対する応対を十分に行えなくなる状況が発生しうる。さらに、高齢の利用者に対する応対と、若年の利用者に対する応対とが同時に発生した場合、両者に対する応対が不十分なものになってしまう可能性がある。これに対して、第1実施形態の対話システムによれば、例えば、イベント運営者は、複数のイベント会場の対話ロボットに対して、イベントや利用者の傾向等に応じた判定基準値を設定することができる。これにより、オペレータは、高齢の利用者に対する応対することが可能になる。
例えば図5の例の場合、2つの対話ロボットA及びBについて、通常時の判定基準値(閾値θ)を0.6(最大値1.0)に設定して運用しているところ、当該イベント当日のみ、システム運用者又はオペレータが対話ロボットA及びBの対話不成立の確率に対する閾値を0.8に引き上げることで、対話ロボットA及びBによるオペレータの呼び出し頻度を約2分の1に容易に下げることができる。この場合、対話不成立が生じてもオペレータが呼び出されなくなる確率が高くはなるが、高齢者以外は通常、対話トラブルに陥っていても比較的自己対処能力が高いので、オペレータが他の対話ロボットCを通じた高齢者のガイドにより注力できるようにすることができる。
<第2実施形態>
図6は、第2実施形態の対話支援装置1aの機能構成の具体例を示すブロック図である。対話支援装置1aは、記憶部107に代えて記憶部107aを備える点、判定基準値設定部108に代えて判定基準値設定部108aを備える点で、第1実施形態の対話支援装置1aと異なる。対話支援装置1aのその他の機能部は、第1実施形態の対話支援装置1と同様であるため、図3と同じ符号を付すことによって図6での説明を省略する。
記憶部107aは、判定基準値情報に加えて、制約情報及び条件情報をさらに記憶する。制約情報は、対話システムに関する運用上の制約を示す情報である。条件情報は、対話支援装置1aが介入判定における判定基準値を設定する際の条件を示す情報である。
判定基準値設定部108aは、制約情報及び条件情報に基づいて介入判定の判定基準値を決定する。判定基準値設定部108aは、決定した判定基準値を示す情報を判定基準値情報として記憶部107aに記憶させることで、自装置に介入判定の判定基準値を設定する。なお、判定基準設定部108aは、介入用通知判定部109が介入判定を行う都度、判定基準値を決定してもよいし、判定基準値の決定を所定期間ごとに行っても良い。例えば1日に1度閾値を見直すような場合、判定基準設定部108aは一旦決定した判定基準値を、その日に参照される判定基準値として記憶部107aに記憶させてもよい。
図7は、第2実施形態における制約情報及び条件情報の具体例を示す図である。図7(A)に示す制約情報テーブルT1は、制約情報の一例として、オペレータの要員計画情報を保持する。オペレータの要員計画情報は、システム運営者がオペレータとして確保する要員の計画を示す情報である。この場合、例えば制約情報テーブルT1は、日付及び要員の組み合わせごとに制約情報レコードを有する。制約情報レコードは、日付、要員及び勤務予定の各値を有し、“日付”の値が示す日における各“要員”の“勤務予定”を表す。例えば、制約情報テーブルT1は、“2017年3月10日”において要員A及びBがオペレータとして勤務し(値“○”)、要員Cはオペレータとして勤務しない(値“×”)ことを表す。
また、図7(B)に示す条件情報テーブルT2は、条件情報の一例として、オペレータの数及び負荷と判定基準値とが対応づけられた情報を保持する。この場合、例えば条件情報テーブルT2は、要員総数と回線利用率との組み合わせごとに条件情報レコードを有する。条件情報レコードは、要員総数、回線利用率及び判定基準値の各値を有する。“要員総数”の値は、オペレータとして確保される要員の総数を表す。“回線利用率”の値は、オペレータと対話ロボット2との間の通話回線の利用率を表す。すなわち、回線利用率は、一定時間当たりに占める通話時間(通話状態にある時間)の比率である。この場合、通話時間には、音声は途切れていても利用者が注意を傾けている時間等も含まれる。回線利用率が高い状況は、オペレータの介入が頻繁に発生している状況であり、オペレータの負荷が高い状況であると考えられる。そのため、ここでは、オペレータの負荷を表す指標値として回線利用率を用いる。“判定基準値”の値は、要員総数及び回線利用率によって表される状況において、オペレータの介入が適切な頻度で行われるように調整された判定基準値の閾値を表す。例えば、条件情報テーブルT2は、オペレータの総数が“2”人であり、回線利用率が“10~50”%の範囲内である場合に設定されるべき判定基準値の閾値が0.6であることを表している。なお、図7(B)の条件情報テーブルT2における判定基準値は、対話ロボット2と利用者との対話が円滑に行われていない確率を表している。
このように構成された第2実施形態の対話支援装置1aでは、判定基準値設定部108aが、制約情報及び条件情報に基づいて判定基準値を設定する。このような判定基準値の設定を行うことにより、対話支援装置1aは、システム運用上の制約の範囲内で、より効率良くオペレータを介入させることが可能になる。特にオペレータの要因計画に基づいて判定基準値を変更することで、オペレータの介入をより適切に行わせることが可能になる。
<変形例>
以下、上記実施形態の対話支援装置1及び1aに共通の変形例について説明する。以下では、簡単のため対話支援装置1についての変形例として記載するが、以下に記載する変形例は対話支援装置1aにも適用可能である。
対話支援装置1は、音声のみを切り替えるだけでなく、利用者と対話中のオペレータの映像を対話ロボット2の表示部に表示させるように構成されてもよい。
対話支援装置1は、対話ロボット2と一体に構成されてもよいし、別体として構成されてもよい。図8は、対話支援装置1と一体に構成された対話ロボット2aの機能構成の具体例を示す図である。図8に示す各機能部のうち、対話支援装置1と同様の機能部には図3と同じ符号を付すことにより、対話支援装置1と同様の機能部についての説明を省略する。この場合、対話ロボット2aは、対話支援装置1が備える各機能部に加え、音声入力部201、撮像部202、音声対話データベース203、音声制御部204及び音声出力部205を備える。音声入力部201は、自装置に利用者の音声を入力するとともに、入力された音声を音声データ取得部103に出力する。撮像部202は、利用者の画像を撮像するとともに、撮像した画像を画像データ取得部102に出力する。音声対話データベース203は、入力された利用者の音声や画像を認識し、利用者の発話の内容又は動作に応じて応答すべき内容を決定するために必要な情報を記憶するデータベースである。音声制御部204は、取得された利用者の音声及び画像と、音声対話データベース203に記憶された情報とに基づいて、利用者に対して応答すべき内容を決定する。音声出力部205は、音声制御部204によって決定された内容を音声として出力する。
従来は、オペレータを介入させるか否かの判定を利用者の音声や画像等の特徴ごとに介入判定を行っていたことから、介入頻度を適切に変更することが困難であった。これに対して、上述した実施形態の対話支援装置によれば、複数の指標値をまとめた一つの指標値を調整すればよいことから、介入判定の閾値を適切かつ容易に変更することができる。
上述した実施形態における対話支援装置又は対話ロボット(対話装置の一例)をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
本発明は、入力された音声が示す内容に応じた音声を出力する対話装置を有するシステムに適用可能である。
100…対話システム、 1,1a…対話支援装置、 101…通信部、 102…画像データ取得部、 103…音声データ取得部、 104…画像特徴量取得部、 105…発話区間識別部、 106…音声特徴量取得部、 107…記憶部、 判定基準値設定部108、 109…介入用通知判定部、 110…対話制御部、 2,2a…対話ロボット、 201…音声入力部、 202…音声対話データベース、 203…音声制御部、 204…音声出力部、 3…オペレータ端末、4…通信回線

Claims (6)

  1. 利用者と対話装置が対話し、利用者の音声と画像を用いて対話の成立又は不成立を判断し、対話不成立の場合には通信回線を介してオペレータが介入する対話装置に用いられる対話支援装置であって、
    対話装置と対話する利用者の音声データを取得する音声データ取得部と、
    前記利用者が撮像された画像データを取得する画像データ取得部と、
    前記音声データが示す音声の特徴量である音声特徴量を取得する音声特徴量取得部と、
    前記画像データが示す画像の特徴量である画像特徴量を取得する画像特徴量取得部と、
    前記利用者と前記対話装置との対話が成立していない可能性を示す複数の確率値を前記音声特徴量および前記画像特徴量に基づいて取得するとともに、取得した前記複数の確率値を、前記利用者と前記対話装置との対話が成立していない可能性を示す一の確率値に統合し、統合した前記一の確率値が所定の閾値を超えた場合、前記対話への介入が必要であることをオペレータに通知する介入用通知判定部と、
    前記介入用通知判定部が、前記対話装置と前記利用者との対話にオペレータを介入させる必要があるか否かを判定するために前記一の確率値と比較する前記閾値を自装置に設定する判定基準値設定部と、
    を備え、
    前記判定基準値設定部は、前記閾値をより高い値に設定することでオペレータの介入頻度をより低くし、前記閾値をより低い値に設定することでオペレータの介入頻度をより高くする、
    対話支援装置。
  2. 前記閾値は、オペレータの呼び出し回数の基準値に対する実際の呼び出し回数の比に対応づけられた値である、
    請求項1に記載の対話支援装置。
  3. 利用者と対話装置が対話し、利用者の音声と画像を用いて対話の成立又は不成立を判断し、対話不成立の場合には通信回線を介してオペレータが介入する対話装置に用いられる対話支援装置であって、
    対話装置と対話する利用者の音声データを取得する音声データ取得部と、
    前記利用者が撮像された画像データを取得する画像データ取得部と、
    前記音声データが示す音声の特徴量である音声特徴量を取得する音声特徴量取得部と、
    前記画像データが示す画像の特徴量である画像特徴量を取得する画像特徴量取得部と、
    前記対話装置と前記利用者との対話にオペレータを介入させる必要があるか否かを判定するための判定基準値を自装置に設定する判定基準値設定部と、
    前記画像特徴量及び前記音声特徴量に基づいて前記利用者と前記対話装置との対話の不成立の程度を示す指標値を算出し、算出した前記指標値が前記判定基準値を超えた場合、前記対話への介入が必要であることをオペレータに通知する介入用通知判定部と、
    を備え、
    前記判定基準値設定部は、オペレータの要員計画に基づいて前記判定基準値を変更し、
    前記判定基準値設定部は、前記判定基準値をより高い値又はより低い値に変更することで、オペレータの介入頻度をより低い頻度又はより高い頻度に調整する、
    対話支援装置。
  4. 前記介入用通知判定部は、オペレータの介入が必要であると判定した場合、前記オペレータの音声を前記対話装置に出力させる対話制御部をさらに備える、
    請求項1から3のいずれか一項に記載の対話支援装置。
  5. 利用者と対話し、利用者の音声と画像を用いて対話の成立又は不成立を判断し、対話不成立の場合には通信回線を介してオペレータが介入する対話装置であって、
    自装置と対話する利用者の音声データを取得する音声データ取得部と、
    前記利用者が撮像された画像データを取得する画像データ取得部と、
    取得された前記音声データ及び前記画像データを認識し、前記利用者の発話の内容又は動作に応じた内容の音声を出力する応答部と、
    前記音声データが示す音声の特徴量である音声特徴量を取得する音声特徴量取得部と、
    前記画像データが示す画像の特徴量である画像特徴量を取得する画像特徴量取得部と、
    前記利用者と前記対話装置との対話が成立していない可能性を示す複数の確率値を前記音声特徴量および前記画像特徴量に基づいて取得するとともに、取得した前記複数の確率値を、前記利用者と前記対話装置との対話が成立していない可能性を示す一の確率値に統合し、統合した前記一の確率値が所定の閾値を超えた場合、前記対話への介入が必要であることをオペレータに通知する介入用通知判定部と、
    前記介入用通知判定部が、前記対話装置と前記利用者との対話にオペレータを介入させる必要があるか否かを判定するために前記の確率値と比較する前記閾値を自装置に設定する判定基準値設定部と、
    を備え、
    前記判定基準値設定部は、前記閾値をより高い値に設定することでオペレータの介入頻度をより低くし、前記閾値をより低い値に設定することでオペレータの介入頻度をより高くする、
    対話装置。
  6. 利用者と対話し、利用者の音声と画像を用いて対話の成立又は不成立を判断し、対話不成立の場合には通信回線を介してオペレータが介入する対話装置であって、
    自装置と対話する利用者の音声データを取得する音声データ取得部と、
    前記利用者が撮像された画像データを取得する画像データ取得部と、
    取得された前記音声データ及び前記画像データを認識し、前記利用者の発話の内容又は動作に応じた内容の音声を出力する応答部と、
    前記音声データが示す音声の特徴量である音声特徴量を取得する音声特徴量取得部と、
    前記画像データが示す画像の特徴量である画像特徴量を取得する画像特徴量取得部と、
    前記対話装置と前記利用者との対話にオペレータを介入させる必要があるか否かを判定するための判定基準値を自装置に設定する判定基準値設定部と、
    前記画像特徴量及び前記音声特徴量に基づいて前記利用者と自装置との対話の不成立の程度を示す指標値を算出し、算出した前記指標値が前記判定基準値を超えた場合、前記対話への介入が必要であることをオペレータに通知する介入用通知判定部と、
    を備え、
    前記判定基準値設定部は、オペレータの要員計画に基づいて前記判定基準値を変更し、
    前記判定基準値設定部は、前記判定基準値をより高い値又はより低い値に変更することで、オペレータの介入頻度をより低い頻度又はより高い頻度に調整する、
    対話装置。
JP2017037648A 2017-02-28 2017-02-28 対話支援装置及び対話装置 Active JP7045020B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017037648A JP7045020B2 (ja) 2017-02-28 2017-02-28 対話支援装置及び対話装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037648A JP7045020B2 (ja) 2017-02-28 2017-02-28 対話支援装置及び対話装置

Publications (2)

Publication Number Publication Date
JP2018142280A JP2018142280A (ja) 2018-09-13
JP7045020B2 true JP7045020B2 (ja) 2022-03-31

Family

ID=63528148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037648A Active JP7045020B2 (ja) 2017-02-28 2017-02-28 対話支援装置及び対話装置

Country Status (1)

Country Link
JP (1) JP7045020B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7067414B2 (ja) * 2018-10-24 2022-05-16 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
JP7010193B2 (ja) * 2018-10-25 2022-01-26 トヨタ自動車株式会社 対話装置および対話装置の制御プログラム
JP2020082246A (ja) * 2018-11-20 2020-06-04 大日本印刷株式会社 姿勢データ生成装置、学習器、コンピュータプログラム、学習データ、姿勢データ生成方法及び学習モデルの生成方法
JP7107248B2 (ja) * 2019-02-26 2022-07-27 トヨタ自動車株式会社 対話システム、対話方法及びプログラム
JP7026066B2 (ja) * 2019-03-13 2022-02-25 株式会社日立ビルシステム 音声案内システム及び音声案内方法
JP7074716B2 (ja) * 2019-04-24 2022-05-24 セコム株式会社 警備システム及び監視表示装置
JP7308068B2 (ja) 2019-04-24 2023-07-13 セコム株式会社 警備システム及び監視表示装置
JP7331928B2 (ja) * 2019-08-01 2023-08-23 オムロン株式会社 タスク配信装置、タスク配信システム、方法、およびプログラム
WO2022270603A1 (en) * 2021-06-23 2022-12-29 Hishab Japan Company Limited A system and method for delivering domain or use-case switch suggestion for an ongoing conversation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005046320A (ja) 2003-07-28 2005-02-24 Okinaya:Kk 要介護者監視システム及び要介護者監視方法
JP2007190641A (ja) 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007334841A (ja) 2006-06-19 2007-12-27 Mitsubishi Electric Corp 情報表示告知システム
JP2015186018A (ja) 2014-03-24 2015-10-22 沖電気工業株式会社 通信装置、オペレータ選択方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005046320A (ja) 2003-07-28 2005-02-24 Okinaya:Kk 要介護者監視システム及び要介護者監視方法
JP2007190641A (ja) 2006-01-19 2007-08-02 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2007334841A (ja) 2006-06-19 2007-12-27 Mitsubishi Electric Corp 情報表示告知システム
JP2015186018A (ja) 2014-03-24 2015-10-22 沖電気工業株式会社 通信装置、オペレータ選択方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
千葉祐弥, 外1名,対話中のユーザ状態逐次推定のための多段階識別手法に関する検討,情報処理学会研究報告,一般社団法人情報処理学会,2013年04月15日,音声言語情報処理 No.95,p.1-6

Also Published As

Publication number Publication date
JP2018142280A (ja) 2018-09-13

Similar Documents

Publication Publication Date Title
JP7045020B2 (ja) 対話支援装置及び対話装置
US10462300B2 (en) Technologies for monitoring interaction between customers and agents using sentiment detection
US7415456B2 (en) Network support for caller identification based on biometric measurement
EP1494499B1 (en) Ideal transfer of call handling from automated systems to human operators
US7665024B1 (en) Methods and apparatus for controlling a user interface based on the emotional state of a user
JP7222938B2 (ja) インタラクション装置、インタラクション方法、およびプログラム
CN100524458C (zh) 用于操作语音识别系统的方法
KR102066225B1 (ko) 인공지능 기능의 스마트 진단 장치, 시스템 및 방법
US8724796B2 (en) Estimation of expected value for remaining work time for contact center agents
CN109793526A (zh) 测谎方法、装置、计算机设备和存储介质
KR102233929B1 (ko) 사용자의 건강을 관리하기 위한 장치 및 이를 위한 방법
CN104973471A (zh) 群管理电梯装置
CN113636421A (zh) 用于发送信息的方法和装置
JP6689953B2 (ja) 通訳サービスシステム、通訳サービス方法及び通訳サービスプログラム
EP3608777A1 (en) Method and apparatus of intelligent device for executing task
US11658886B2 (en) Methods and systems of facilitating predictive intent-based routing of service requests
JP6525072B1 (ja) 顔認証装置
JPWO2018180666A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019153868A (ja) 通信制御装置
US20200007686A1 (en) Cognitive routing of calls based on derived employee activity
EP4027630A1 (en) Group calling system, group calling method, and program
JP7140422B1 (ja) 通話解析方法
JP7171521B2 (ja) 見守りサービスシステム
KR102479039B1 (ko) 참여자의 입력 신호에 따른 회의 모니터링 제어 장치 및 방법
JP6235148B2 (ja) 対話システム、および情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220308

R150 Certificate of patent or registration of utility model

Ref document number: 7045020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150