JP2018101847A - 電子機器、電子機器の制御方法、制御プログラム、および記録媒体 - Google Patents

電子機器、電子機器の制御方法、制御プログラム、および記録媒体 Download PDF

Info

Publication number
JP2018101847A
JP2018101847A JP2016245721A JP2016245721A JP2018101847A JP 2018101847 A JP2018101847 A JP 2018101847A JP 2016245721 A JP2016245721 A JP 2016245721A JP 2016245721 A JP2016245721 A JP 2016245721A JP 2018101847 A JP2018101847 A JP 2018101847A
Authority
JP
Japan
Prior art keywords
user
call
voice
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016245721A
Other languages
English (en)
Inventor
弘康 伊神
Hiroyasu Igami
弘康 伊神
和典 森下
Kazunori Morishita
和典 森下
慎哉 佐藤
Shinya Sato
慎哉 佐藤
直起 江角
Naoki Esumi
直起 江角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016245721A priority Critical patent/JP2018101847A/ja
Publication of JP2018101847A publication Critical patent/JP2018101847A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)

Abstract

【課題】ユーザの状況に応じた適切な対応をとり、発信者の応答の可能性を高める。【解決手段】通話ロボット(1)は、ユーザが、通話ロボット(1)が存在する建物内にいることが検出され、かつ、通話ロボット(1)への着信後に通話が開始されない場合、ユーザが通話可能な状況であるか否かに応じた応答メッセージを送信する通話制御部(21)を備える。【選択図】図1

Description

本発明は、通話機能を有する電子機器などに関する。
通話相手に対してメッセージを送信し、該メッセージに対する通話相手の回答を録音する、いわゆる留守番電話機能を有する電話機が従来技術として知られている。特許文献1には、通話相手の名前、通話相手の電話番号、緊急の度合い、後でかけ直して欲しいかなどを一項目ずつ対話形式で回答させる電話機が開示されている。
特開昭61−189057号公報(1986年8月22日公開)
上述のような従来技術は予め設定されたメッセージを送信するものである。そのため、メッセージが画一的なものとなり、ユーザの状況に応じた適切なメッセージを送信できない場合があった。このため、発信者がユーザの状況を把握できず、応答せず通話を終了させてしまうという問題があった。
本発明の一態様は、上記の問題点を鑑みてなされたものであり、ユーザの状況に応じた適切な対応をとり、発信者の応答の可能性を高める電子機器などを実現することを目的とする。
上記の課題を解決するために、本発明の一態様に係る電子機器は、通話機能を有する電子機器であって、上記電子機器のユーザが、上記電子機器が存在する建物内にいることを検出する検出部と、上記ユーザが上記建物内にいることが検出され、かつ、上記電子機器への着信後に通話が開始されない場合、上記ユーザが通話可能な状況であるか否かに応じた応答メッセージを発信者に送信する送信部と、を備える。
また、上記の課題を解決するために、本発明の一態様に係る電子機器の制御方法は、通話機能を有する電子機器の制御方法であって、上記電子機器のユーザが、上記電子機器が存在する建物内にいることを検出する検出ステップと、上記ユーザが上記建物内にいることが検出され、かつ、上記電子機器への着信後に通話が開始されない場合、上記ユーザが通話可能な状況であるか否かに応じた応答メッセージを発信者に送信する送信ステップと、を含む。
本発明の一態様によれば、ユーザの状況に応じた適切な対応をとり、発信者の応答の可能性を高めることができる効果を奏する。
本発明の実施形態1に係る通話ロボットの要部構成の一例を示すブロック図である。 図1に示す通話ロボットによる、ユーザの在宅および在宅しているユーザの状況の検出例を示す図である。 図1に示す通話ロボットが記憶している、カテゴリ辞書のデータ構造および具体例を示す図である。 図1に示す通話ロボットが実行する代理対応処理の流れの一例を示すフローチャートの一部である。 図2に示す検出に基づく判定結果に応じて、図1に示す通話ロボットが出力または送信する音声の具体例を示す図である。 代理対応処理を示すフローチャートのうち、図4の「A」以降の処理を示す図である。 図1に示す通話ロボットが実行する、ユーザの指示に基づく代理対応の具体例を示す図である。 図7に示す代理対応の具体例の続きを示す図である。 代理対応処理を示すフローチャートのうち、図4および図6の「B」以降の処理を示す図である。 図1に示す通話ロボットが実行する、ユーザが指示を行わない場合の代理対応の具体例を示す図である。 図1に示す通話ロボットが実行する、緊急対応の具体例を示す図である。 代理対応処理を示すフローチャートのうち、図9の「C」以降の処理を示す図である。 図1に示す通話ロボットが実行する伝言処理の流れの一例を示すフローチャートである。 伝言処理において図1に示す通話ロボットが出力する音声の具体例を示す図である。 本発明の実施形態2に係る通話ロボットが送信する音声の具体例を示す図である。 本発明の実施形態3に係る通話ロボットの要部構成の一例を示すブロック図である。 図16に示す通話ロボットが記憶している、電話帳のデータ構造および具体例を示す図である。 図16に示す通話ロボットが出力する音声の具体例を示す図である。
〔実施形態1〕
以下、本発明の実施形態1について、図1から図14に基づいて詳細に説明する。本開示では、本発明の一態様に係る電子機器の適用例として、無線通信を用いた通話機能を有するロボット(以下、「通話ロボット」と称する)について説明する。なお、本発明の一態様に係る電子機器の適用例は、通話ロボットに限定されない。例えば、本発明の一態様に係る電子機器は、電話機(例えば、スマートフォン、フィーチャーフォン、電話線に有線接続された電話機(いわゆる、固定電話)など)であってもよい。また、本発明の一態様に係る電子機器は、通話機能を有していればよく、上述した電話機に限定されるものではない。
(通話ロボット1の概要)
まず、図2に基づいて通話ロボット1の概要について説明する。図2は、通話ロボット1による、ユーザの在宅および在宅しているユーザの状況の検出例を示す図である。
本実施形態に係る通話ロボット1は、図2に示すように、人型のロボットである。本実施形態では、通話ロボット1はユーザの自宅内(建物内)で使用される。なお、通話ロボット1の外観は人型に限定されない。
通話ロボット1は、着信すると所定のコール音声を出力する。該コール音声を出力している通話ロボット1は、ユーザによって所定の操作(例えば、特定のボタンの押下)が行われると、通話ロボット1に対して電話をかけてきた相手(以下、「発信者」と称する)の音声の出力を開始する。これにより、ユーザは発信者との通話を開始することができる。なお、以降の説明において、着信後にユーザが発信者との通話を開始することを、「電話に出る」と表現する。また、以降の説明において、発信者を「通話相手」と表現する場合がある。
一方、通話ロボット1は、所定のコール音声の出力回数が閾値を超えると、ユーザの代わりに発信者に用件を尋ねる代理対応を開始する。このとき通話ロボット1は、ユーザが自宅にいるか否か、および、ユーザが電話に出ることができる状況(ユーザが通話可能な状況)であるか否かを判定する。そして、通話ロボット1は、上記の判定結果に応じた音声を出力させるための情報(応答メッセージ)を発信者の電話機に送信する。つまり、通話ロボット1は、ユーザの状況に応じて、適切な応答メッセージを発信者に送信することができる。これにより、通話ロボット1は、発信者にユーザの状況を類推させることができる。
続いて、上述した判定の概要について説明する。図2に示すように、本実施形態に係る通話ロボット1は、無線LAN(local area network)を用いてユーザのスマートフォン2がユーザの自宅にあるかどうかを検出する。そして、スマートフォン2が自宅にあることを検出した場合、ユーザが在宅していると判定する。なお、通話ロボット1による検出対象は、スマートフォン2に限定されない。具体的には、該検出対象は、通話ロボット1との無線LANによる通信が可能な、ユーザが携帯することを前提とした携帯機器であればよい。該携帯機器の具体例としては、スマートフォンの他、フィーチャーフォン、タブレット端末、腕時計型端末(スマートウォッチ)などが挙げられる。
また、図2に示すように、本実施形態に係る通話ロボット1は、無線LANを用いて、ユーザの自宅の各部屋に設けられた人感センサ3a〜3dから検出結果を取得する。これにより、通話ロボット1は、ユーザがどの部屋にいるのかを特定することができる。そして、ユーザが特定の部屋にいることを特定した場合、通話ロボット1は、ユーザが電話に出ることができる状況でないと判定する。「特定の部屋」とは、ユーザがその部屋にいることにより、ユーザが電話に出ることができる状況でないと予想することができる部屋である。具体的には、特定の部屋とは、お風呂、トイレ、寝室などである。なお、以下では、人感センサ3a〜3dを区別する必要が無い場合、「人感センサ3」と称する。
なお、ユーザが在宅しているか否かの判定は、上述した例に限定されない。例えば、通話ロボット1は、カメラ15(図1参照)を起動して、ユーザの姿を認識した場合、ユーザが在宅していると判定してもよい。なお、本実施形態では、スマートフォン2が自宅にあることを検出できなかった場合に、カメラ15を起動して、ユーザの姿の認識を行う例を説明する。また、通話ロボット1は、スマートフォン2の位置情報が、スマートフォン2が自宅にあることを示している場合、ユーザが在宅していると判定してもよい。
また、ユーザが電話に出ることができる状況であるか否かの判定は、上述した例に限定されない。例えば、通話ロボット1は、ユーザが状況を予め登録可能である構成であってもよい。つまり、ユーザは、通話ロボット1を操作して、「お風呂に入る」、「トイレに行く」、「寝る」などの、これからのユーザの状況を登録する。通話ロボット1は、これらの状況が登録されている場合、ユーザが電話に出ることができる状況でないと判定する。なお、「登録」とは、ユーザが通話ロボット1を操作して情報を入力し、通話ロボット1(具体的には、後述する記憶部14)に該情報を記憶させることである。
(通話ロボット1の要部構成)
次に、図1に基づいて、通話ロボット1の要部構成について説明する。図1は、通話ロボット1の要部構成の一例を示すブロック図である。なお、図1では、通話ロボット1における、本発明の特徴点と関連性の薄い部材の記載を省略している。また、これらの部材については、本明細書での説明を省略する。
通話ロボット1は、制御部10、通話部11、マイク12、スピーカ13、記憶部14、カメラ15、無線通信部16、および駆動部17を備えている。
制御部10は、通話ロボット1の各部を統括して制御する。通話部11は、通話に係る各種情報の送受信を行う。各種情報とは、例えば、通話の着信を示す着信情報、通話の発信を示す発信情報、ユーザあるいは通話相手の発言に基づく音声情報、通話ロボット1が生成した音声情報などである。マイク12は、通話ロボット1の周囲で発生した音声を取得する。スピーカ13は、通話ロボット1の周囲に音声を出力する。記憶部14は、通話ロボット1が使用する各種データを記憶する。カメラ15は、通話ロボット1の周囲を撮影する。無線通信部16は、無線LANを用いた外部装置との通信を行う。外部装置とは、例えば、上述したスマートフォン2、人感センサ3a〜3dなどである。駆動部17は、通話ロボット1の可動部位を動かす。本実施形態では、駆動部17はサーボモータである。駆動部17は、通話ロボット1における、人間の関節がある部位(例えば、首、肩、肘、足首など)に相当する場所に配置されている。
制御部10は、通話制御部21(送信部)、音声入力制御部22、音声出力制御部23(音声出力部)、自動応答制御部24、ユーザ検出部25、通話相手特定部26(発信者特定部)、および駆動制御部27を含んでいる。また、記憶部14は、少なくとも、カテゴリ辞書41、プリセット応答42、電話帳43、および伝言用データ44を記憶している。
通話制御部21は通話ロボット1の通話機能を制御する。具体的には、通話制御部21は、通話部11を介して着信情報を取得すると、音声出力制御部23に所定のコール音声を出力するよう指示する。また、通話制御部21は、着信情報を取得すると、該着信情報に含まれる発信者の電話番号を通話相手特定部26に出力し、発信者の特定を指示する。また、通話制御部21は、ユーザと通話相手との通話(以下、「通常通話」と称する)時において、音声入力制御部22から取得した音声情報を、通話部11を介して通話相手の電話機に送信する。また、通話制御部21は、通常通話時において、通話部11を介して取得した音声情報を、音声出力制御部23に出力する。また、通話制御部21は、音声出力制御部23から、コール音声の出力回数が閾値を超えたことを通知されると、自動応答制御部24に代理対応の開始を指示する。また、通話制御部21は、代理対応時において、通話部11を介して取得した音声情報を、自動応答制御部24(具体的には、後述する音声認識部31)に出力する。
音声入力制御部22は、マイク12を制御して音声情報を取得する。該音声情報は例えば、ユーザが発言した音声の音声情報である。音声入力制御部22は、通常通話時において、マイク12から取得した音声情報を通話制御部21に出力する。また、音声入力制御部22は、代理対応時において、マイク12から取得した音声情報を自動応答制御部24(具体的には、後述する音声認識部31)に出力する。
音声出力制御部23は、スピーカ13を制御して音声を出力させる。具体的には、音声出力制御部23は、通話制御部21の指示に従って、所定のコール音声をスピーカ13から出力させる。また、音声出力制御部23は、コール音声の出力回数が閾値を超えた場合、その旨を通話制御部21に通知する。
また、音声出力制御部23は、通常通話時において、通話制御部21から取得した音声情報に基づく音声(通話相手が発言した音声)をスピーカ13に出力させる。なお、音声出力制御部23は、通話相手の音声を、スピーカ13に代えてハンドセット通話用のスピーカ(いわゆるレシーバ、不図示)から出力させてもよい。また、音声出力制御部23は、代理対応時において、自動応答制御部24から取得した音声情報に基づく音声をスピーカ13に出力させる。なお、代理対応時にスピーカ13に出力させる音声とは、通話相手に送信する音声情報の内容をユーザに答えさせるためのメッセージ(ユーザ向けメッセージ)の音声である。該メッセージの詳細については後述する。
自動応答制御部24は、代理対応時の各種処理を行う。自動応答制御部24は、音声認識部31、カテゴリ推定部32、音声合成部33、および緊急時処理部34(処理実行部)を含んでいる。自動応答制御部24は、通話制御部21からの指示を受けると、ユーザ検出部25にユーザが在宅しているか否かの判定を行うよう指示する。
音声認識部31は、取得した音声情報に基づいて音声認識を行う。具体的には、音声認識部31は、通話制御部21または音声入力制御部22から取得した音声情報の音声認識を行う。なお、音声認識の具体的な方法については、既存の技術を利用可能であるため、ここでの詳細な説明を省略する。音声認識部31は、音声認識の結果物であるテキストデータをカテゴリ推定部32に出力する。
カテゴリ推定部32は、取得したテキストデータとカテゴリ辞書41とに基づいて、ユーザまたは通話相手の発言の音声のカテゴリを推定する。具体的には、カテゴリ推定部32は、取得したテキストデータから、カテゴリ辞書41に含まれる単語と一致する単語を特定する。そして、カテゴリ推定部32は、特定した単語に対応付けられたカテゴリを特定する。
ここで、図3に基づいて、カテゴリ辞書41の詳細について説明する。図3は、カテゴリ辞書41のデータ構造の一例および具体例を示す図である。
カテゴリ辞書41は、格納されている各単語のカテゴリを特定可能なデータ構造となっている。例えば、カテゴリ辞書41のデータ構造は、図3に示すように、カテゴリを示す情報に、格納されている単語を対応付けたテーブル形式のデータ構造である。
「場所」のカテゴリには、場所を質問したり、回答したりするときに使用される単語や、具体的な場所を示す単語などが含まれる。「時間」のカテゴリには、時間を質問したり、回答したりするときに使用される単語や、具体的な日付、時間を示す単語などが含まれる。「緊急」のカテゴリには、緊急性が高いことを示す単語が含まれる。「終了」のカテゴリには、通話を終了するときに使用される単語が含まれる。なお、図3に示すカテゴリおよび単語は一例であり、カテゴリおよび単語は図示の例に限定されない。また、カテゴリ辞書41はユーザによる編集(例えば、カテゴリおよび単語の追加、削除など)が可能であってもよい。
また、カテゴリ推定部32は、特定したカテゴリが「緊急」でない場合、取得したテキストデータと、特定したカテゴリを示す情報(以下、「カテゴリ情報」と称する)とを音声合成部33に出力する。一方、カテゴリ推定部32は、特定したカテゴリが「緊急」である場合、その旨を緊急時処理部34に通知する。そして、カテゴリ推定部32は、取得したテキストデータと、カテゴリ情報とを音声合成部33に出力する。
音声合成部33は、代理対応時に出力または送信に使用される音声情報を生成する。具体的には、音声合成部33は、取得したテキストデータ、該テキストデータに含まれる、カテゴリが特定された単語、カテゴリ情報、通話相手特定部26が特定した通話相手の名称などの情報のうち少なくとも1つを用いて音声情報を生成する。
音声合成部33は、音声情報を生成するために、プリセット応答42を記憶部14から読み出す。プリセット応答42とは、一部を変更可能としたテキストデータである。例えば、該テキストデータは、「(※1)さんから電話だよ。」や、「(※1)さん、(※2)について教えて。」や、「(※3)の話だね、伝えておくね。」などがある。このように、プリセット応答42には、ユーザや通話相手が親しみを持ちやすいキャラクター性を与えておくことが望ましい。これにより、通話ロボット1は、ユーザおよび通話相手に、通話ロボット1に対する親近感を持たせることができる。よって、通話ロボット1は、ユーザまたは通話相手とのコミュニケーションを促進することができる。なお、プリセット応答42はユーザによる編集(例えば、追加、削除など)が可能であってもよい。
音声合成部33は、取得した情報を用いて、(※1)〜(※3)に適切な文字列を挿入し、テキストデータを完成させる。そして、音声合成部33は、完成したテキストデータを音声情報に変換し、通話制御部21または音声出力制御部23に出力する。この処理の詳細については後述する。
なお、音声合成部33が生成する音声情報のうち、発信者に送信する音声情報(応答メッセージ)は、ユーザの状況に応じて生成される。該音声情報は、例えば、ユーザの代わりに発信者に要件を尋ねるための音声情報であってもよい。また例えば、該音声情報は、通話を終了することを発信者に伝えるための音声情報や、ユーザに取り次ぐことを発信者に伝えるための音声情報であってもよい。音声合成部33は、ユーザ検出部25から通知された、ユーザの状況についての判定結果に基づいて、該音声情報を生成する。ユーザの状況に応じた音声情報の詳細については後述する。
また、音声合成部33は、音声情報の生成のために、伝言用データ44を用いてもよい。伝言用データ44は、通話相手の発言を音声認識したテキストデータに基づく情報である。この例の場合、音声合成部33は、伝言用データ44をプリセット応答42のテキストデータに挿入することで、テキストデータを完成させる。
また、記憶部14には、変更可能な部分を有さないテキストデータが記憶されていてもよい。この例の場合、音声合成部33は、該テキストデータを読み出して音声情報に変換し、通話制御部21または音声出力制御部23に出力する。また、記憶部14には、変更可能な部分を有さないテキストデータに代えて、該テキストデータに対応する音声情報が記憶されていてもよい。これにより、音声合成部33が、テキストデータを音声情報に変更する処理を省略することができる。
緊急時処理部34は、通話相手の発言が、緊急性が高いことを示す条件に合致する場合の代理対応(以下、「緊急対応」と称する)を各部材に行わせる。なお、緊急対応の詳細については後述する。
ユーザ検出部25は、ユーザの存在およびユーザの状況についての検出を行う。ユーザ検出部25は、在宅判定部35(検出部)およびユーザ状況判定部36を含んでいる。
在宅判定部35は、ユーザが在宅しているか否かを判定する。具体的には、在宅判定部35は、無線通信部16を介した通信により、スマートフォン2を検出することができるか否かを判定する。スマートフォン2を検出することができた場合、在宅判定部35は、ユーザが在宅していると判定する。この場合、在宅判定部35は、ユーザ状況判定部36に、ユーザが電話に出ることができる状況であるか否かの判定を行うよう指示する。
一方、スマートフォン2を検出することができなかった場合、在宅判定部35は、カメラ15から取得した映像にユーザの姿を認識することができるか否かを判定する。ユーザの姿を認識することができた場合、在宅判定部35は、ユーザが在宅していると判定する。この場合、在宅判定部35は、ユーザ状況判定部36に、ユーザが電話に出ることができる状況であるか否かの判定を行うよう指示する。一方、ユーザの姿を認識することができなかった場合、在宅判定部35は、ユーザが在宅していないと判定する。この場合、在宅判定部35は判定結果を自動応答制御部24に通知する。
ユーザ状況判定部36は、ユーザが電話に出ることができる状況であるか否かを判定する。具体的には、ユーザ状況判定部36は、在宅判定部35の指示を受けると、無線通信部16を介して、人感センサ3によるユーザの検出結果を取得する。そして、ユーザ状況判定部36は、ユーザを検出した人感センサ3が備え付けられた部屋を特定する。該部屋が特定の部屋(図2のお風呂、トイレ、寝室)である場合、ユーザ状況判定部36は、ユーザが電話に出ることができる状況でないと判定する。一方、ユーザ状況判定部36は、特定した部屋が特定の部屋でない(換言すれば、図2のリビングである)場合、ユーザが電話に出ることができる状況であると判定する。そして、ユーザ状況判定部36は、判定結果を自動応答制御部24に通知する。なお、ユーザ状況判定部36は、ユーザが電話に出ることができる状況でないと判定した場合、特定した部屋を示す情報(以下、「部屋情報」と称する)を自動応答制御部24に出力する。
通話相手特定部26は通話相手、すなわち発信者を特定する。具体的には、通話相手特定部26は、通話制御部21から電話番号を取得すると、該電話番号が電話帳43に含まれているか否かを判定する。なお、電話帳43は、電話番号と通話相手の名称とを対応付けている情報である。電話番号が電話帳43に含まれていない場合、通話相手特定部26は、その旨を自動応答制御部24に通知する。一方、電話番号が電話帳43に含まれている場合、通話相手特定部26は、該電話番号に対応付けられた通話相手の名称を特定する。そして、通話相手特定部26は、特定した通話相手の名称を自動応答制御部24に出力する。また、通話相手特定部26は、取得した電話番号を伝言用データ44として記憶部14に記憶する。
駆動制御部27は、自動応答制御部24の指示を受けて、駆動部17を駆動させる。
(通話ロボット1が実行する代理対応処理の流れと具体例)
次に、図4〜図12に基づいて、通話ロボット1が実行する代理対応処理の流れと具体例について説明する。図4は、通話ロボット1が実行する代理対応処理の流れの一例を示すフローチャートの一部である。図5は、ユーザが在宅しているか否か、および在宅しているユーザが電話に出られる状況であるか否かの判定結果に応じて、通話ロボット1が出力または送信する音声の具体例を示す図である。
図6は、代理対応処理を示すフローチャートのうち、図4の「A」以降の処理を示す図である。図7は、ユーザの指示に基づく代理対応の具体例を示す図である。図8は、図7に示す代理対応の具体例の続きを示す図である。
図9は、代理対応処理を示すフローチャートのうち、図4および図6の「B」以降の処理を示す図である。図10は、ユーザが指示を行わない場合の代理対応の具体例を示す図である。図11は、緊急対応の具体例を示す図である。
図12は、代理対応処理を示すフローチャートのうち、図9の「C」以降の処理を示す図である。
まず、代理対応処理の流れを示すフローチャートのうち、図4に記載の処理について説明する。まず、通話制御部21は、着信情報を待機する状態となっている(ステップS1、以下「ステップ」を省略)。着信情報を取得すると(S1でYES)、通話制御部21は、音声出力制御部23に指示して、コール音声をスピーカ13から出力させる。また、通話制御部21は、通話相手特定部26に指示して、発信者を特定させる。通話相手特定部26は、指示に基づく、発信者の特定処理の結果を自動応答制御部24の音声合成部33に出力する。
音声出力制御部23は、コール音声の出力回数を計測する(S2)。コール音声の出力回数が閾値を超えると(S2でYES)、音声出力制御部23はその旨を通話制御部21に通知する。通話制御部21は、該通知を受けると、自動応答制御部24に代理対応の開始を指示する。
自動応答制御部24は、通話制御部21からの指示を受けると、ユーザ検出部25にユーザが在宅しているか否かの判定を行うよう指示する。ユーザ検出部25の在宅判定部35は、指示に従ってユーザが在宅しているか否かを判定する(S3、検出ステップ)。ユーザが在宅していないと判定した場合(S3でNO)、在宅判定部35は、判定結果を自動応答制御部24に通知する。
自動応答制御部24の音声合成部33は、在宅判定部35からの通知を受けると、ユーザの不在を通話相手に伝えるための音声情報を生成する。本実施形態では、音声合成部33は、「(ユーザ)さんはお出かけ中だから、代わりに僕が聞いておくね。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。なお、本実施形態では、ユーザの名称が「○○」である例を説明する。また、ユーザの名称はユーザが予め通話ロボット1に登録しておけばよい。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S4)。具体的には、通話制御部21は、図5の(c)に示すように、「○○さんはお出かけ中だから、代わりに僕が聞いておくね。」という音声の音声情報を送信する。これにより、通話ロボット1は、通話相手に、通話ロボット1のユーザが不在であることを認識させることができる。また通話ロボット1は、通話相手に、用件を話すよう促すことができる。そして、代理対応処理は「B」に進む。
なお、図5において、角が角張っている吹き出しは、通話相手の電話機に送信され、出力される音声であることを示している。一方、角が丸みを帯びている吹き出しは、通話ロボット1のスピーカ13から出力される音声であることを示している。これは、吹き出しが記載されたその他の図面においても同様である。
一方、ユーザが在宅していると判定した場合(S3でYES)、在宅判定部35は、ユーザ状況判定部36に、ユーザが電話に出ることができる状況であるか否かの判定を行うよう指示する。ユーザ状況判定部36は、在宅判定部35からの指示を受けると、ユーザが電話に出ることができる状況であるか否かを判定する(S5)。そして、ユーザ状況判定部36は、判定結果を自動応答制御部24に通知する。
音声合成部33は、ユーザ状況判定部36から通知された判定結果が、ユーザが電話に出ることができない状況であることを示している場合(S5でNO)、ユーザが電話に出ることができない旨を伝える音声情報を生成する。このとき音声合成部33は、ユーザ状況判定部36から取得した部屋情報に基づいて、ユーザの現在の状況に応じた音声情報を生成する。例えば、お風呂を示す部屋情報を取得した場合、音声合成部33は、「(ユーザ)さんはお風呂に入っているから、代わりに僕が聞いておくね。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S6、送信ステップ)。具体的には、通話制御部21は、図5の(b)に示すように、「○○さんはお風呂に入っているから、代わりに僕が聞いておくね。」という音声の音声情報を送信する。これにより、通話ロボット1は、通話相手に、通話ロボット1のユーザが在宅しているが電話に出ることができる状況でないことを認識させることができる。また通話ロボット1は、通話相手に、用件を話すよう促すことができる。そして、代理対応処理は「B」に進む。
一方、音声合成部33は、ユーザ状況判定部36から通知された判定結果が、ユーザが電話に出ることができる状況であることを示している場合(S5でYES)、通話相手特定部26から取得した情報に基づいて、通話相手の特定に成功したか否かを判定する(S7)。通話相手の特定に成功したと判定した場合(S7でYES)、すなわち、通話相手の名称を取得している場合、音声合成部33は、ユーザ向けメッセージの音声情報を生成する。本実施形態では、音声合成部33は、「(ユーザ)さん、(通話相手)さんから電話だよ。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を、(通話相手)に取得した通話相手の名称を挿入する。本実施形態では、通話相手の名称が「××」である例を説明する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に、ユーザ向けメッセージを出力させる(S9)。具体的には、音声出力制御部23は、図5の(a)に示すように、「○○さん、××さんから電話だよ。」という音声を出力させる。これにより、通話ロボット1は、着信が××さんからであることをユーザに伝えることができる。また、通話ロボット1は、ユーザに、××さんに尋ねるべき用件を答えさせることができる。そして、代理対応処理は「A」に進む。
一方、通話相手の特定に失敗したと判定した場合(S7でNO)、すなわち、電話番号が電話帳43に含まれていない旨を通知されている場合、音声合成部33は、ユーザ不在を通話相手に伝えるための音声情報を生成する。なお、本実施形態では、該音声情報は、ステップS5でNOの場合に生成される音声情報と同様であるため、詳細な説明を省略する。音声合成部33は、生成した音声情報を通話制御部21に出力する。通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S8)。そして、代理対応処理は「B」に進む。
なお、ステップS7でNOの場合に生成される音声情報は、ステップS5でNOの場合に生成される音声情報と異なっていてもよい。例えば、該音声情報は、「オーナーは電話に出られないから、代わりに僕が聞いておくね」というテキストデータから変換されてもよい。該テキストデータは変更可能な部分を有さないテキストデータであるため、この例の場合、音声合成部33は、プリセット応答42に代えて該テキストデータを読み出す。そして、音声合成部33は、該テキストデータを音声情報に変換し、通話制御部21に出力する。これにより、ユーザにとって未知の通話相手に対して、ユーザの名称を通知することなく、用件を話すよう促すことができる。
続いて、代理対応処理の流れを示すフローチャートのうち、図6に記載の処理について説明する。図6に記載の処理は、図4の「A」以降の処理である。すなわち、該処理は、通話ロボット1が、ユーザ向けメッセージを出力した後の処理である。
ステップS9でユーザ向けメッセージを出力すると、音声入力制御部22は、ユーザ向けメッセージに対するユーザの回答の音声入力を待機する状態となる。図6では、音声入力制御部22が、「αを聞いておいて。」という音声の音声情報を取得したものとする(S11)。なお、ステップS11で音声入力制御部22が取得する音声情報は、この例に限定されるものではない。また、本実施形態では、「α」が「集合場所」である例を説明する(図7の(a)参照)。音声入力制御部22は、取得した音声情報を音声認識部31に出力する。
音声認識部31は、取得した音声情報の音声認識を行う(S12)。音声認識に失敗した場合(S12でNO)、音声認識部31は、その旨を音声合成部33に通知する。音声合成部33は、該通知を受けると、ユーザ不在を通話相手に伝えるための音声情報を生成する。なお、本実施形態では、該音声情報は、ステップS5でNOの場合に生成される音声情報と同様であるため、詳細な説明を省略する。音声合成部33は、生成した音声情報を通話制御部21に出力する。通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S13)。そして、代理対応処理は「B」に進む。
一方、音声認識に成功した場合(S12でYES)、音声認識部31は、音声認識の結果物であるテキストデータをカテゴリ推定部32に出力する。カテゴリ推定部32は、取得したテキストデータとカテゴリ辞書41とに基づいて、ユーザの回答のカテゴリ推定を行う(S14)。本実施形態では、カテゴリ推定部32は、「α」のカテゴリ推定を行う。カテゴリ推定に失敗した場合(S14でNO)、カテゴリ推定部32は、その旨を音声合成部33に通知する。なお、「カテゴリ推定に失敗」とは、カテゴリ辞書41に「α」という単語が格納されていないため、該単語のカテゴリを特定できないことを示す。
音声合成部33は、該通知を受けると、ユーザ不在を通話相手に伝えるための音声情報を生成する。なお、本実施形態では、該音声情報は、ステップS5でNOの場合に生成される音声情報と同様であるため、詳細な説明を省略する。音声合成部33は、生成した音声情報を通話制御部21に出力する。通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S15)。そして、代理対応処理は「B」に進む。
一方、カテゴリ推定に成功した場合(S14でYES)、カテゴリ推定部32は、カテゴリ推定によって特定したカテゴリを示すカテゴリ情報と、カテゴリ推定に成功した単語とを対応付けて、伝言用データ44として記憶部14に記憶する。本実施形態の例では、カテゴリ推定部32は、「集合場所」という単語と、「場所」というカテゴリ情報とを対応付けて、記憶部14に記憶する。そして、カテゴリ推定部32は、カテゴリ推定に成功した単語、すなわち、「集合場所」という単語を音声合成部33に出力する。なお、「カテゴリ推定に成功」とは、カテゴリ辞書41に「α」という単語が格納されており、該単語のカテゴリを特定できることを示す。
音声合成部33は、カテゴリ推定に成功した単語を取得すると、ユーザに代わって通話相手に用件を質問するための音声情報を生成する。具体的には、音声合成部33は、「(通話相手)さん、(単語)を教えて。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(通話相手)に取得した通話相手の名称を、(単語)に取得した単語を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S16、送信ステップ)。具体的には、通話制御部21は、図7の(b)に示すように、「××さん、集合場所を教えて。」という音声の音声情報を送信する。これにより、通話ロボット1は、通話相手に、用件を話すよう促すことができる。
なお、音声合成部33は、ユーザに代わって通話相手に用件を質問するための音声情報を生成する前に、ユーザに対する返事の音声情報を生成してもよい。この例の場合、音声合成部33は、「分かった。(単語)を聞いておくね。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(単語)に取得した単語を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に音声を出力させる。具体的には、音声出力制御部23は、図7の(a)に示すように、「分かった。集合場所を聞いておくね。」という音声を出力させる。
ステップS16で音声情報を送信すると、通話制御部21は、通話相手の音声を待機する状態となる。図6では、通話制御部21が、「βだよ。」という音声の音声情報を受信したものとする(S17)。なお、ステップS17で通話制御部21が受信する音声情報は、この例に限定されるものではない。また、本実施形態では、「β」が「△△駅」である例を説明する(図7の(b)参照)。通話制御部21は、取得した音声情報を音声認識部31に出力する。
音声認識部31は、取得した音声情報の音声認識を行う(S18)。音声認識に成功した場合(S18でYES)、音声認識部31は、音声認識の結果物であるテキストデータをカテゴリ推定部32に出力する。カテゴリ推定部32は、取得したテキストデータとカテゴリ辞書41とに基づいて、通話相手の発言(回答)のカテゴリ推定を行う(S19)。本実施形態では、カテゴリ推定部32は、「β」のカテゴリ推定を行う。カテゴリ推定に成功した場合(S19でYES)、カテゴリ推定部32は、カテゴリ推定によって特定したカテゴリを示すカテゴリ情報と、カテゴリ推定に成功した単語とを対応付けて、伝言用データ44として記憶部14に記憶する。本実施形態の例では、カテゴリ推定部32は、「△△駅」という単語と、「場所」というカテゴリ情報とを対応付けて、記憶部14に記憶する。このとき、カテゴリ推定部32は、先に記憶した単語およびカテゴリ情報の組み合わせに、今回記憶する単語およびカテゴリ情報の組み合わせを対応付ける。本実施形態の例の場合、「集合場所」および「場所」の組み合わせに、「△△駅」および「場所」の組み合わせを対応付ける。これにより、単語およびカテゴリの組み合わせのペアが、伝言用データ44として記憶部14に記憶される。また、カテゴリ推定部32は、カテゴリ推定に成功した単語、すなわち、「△△駅」という単語を音声合成部33に出力する。
音声合成部33は、カテゴリ推定に成功した単語を取得すると、伝言用データ44を参照して、ユーザの回答に含まれる「α」のカテゴリと、通話相手の回答に含まれる「β」のカテゴリとが一致するか否かを判定する(S20)。つまり、本実施形態の例の場合、音声合成部33は「集合場所」のカテゴリと、「△△駅」のカテゴリとが一致するか否かを判定する。この例の場合、「集合場所」および「△△駅」のカテゴリはいずれも「場所」であるため、音声合成部33は、2つの単語のカテゴリが一致すると判定する(S20でYES)。この場合、音声合成部33は、通話相手に対する応答の音声情報を生成する。具体的には、音声合成部33は、「(単語1)は(単語2)だね。(ユーザ)さんに伝えておくよ。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(単語1)に「α(集合場所)」を、(単語2)に「β(△△駅)」を、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S21)。具体的には、通話制御部21は、図8の(a)に示すように、「集合場所は△△駅だね。○○さんに伝えておくよ。」という音声の音声情報を送信する。これにより、通話ロボット1は、通話相手の発言に対して応答することができる。そして、代理対応処理は「C」に進む。
一方、音声認識部31が通話相手の発言の音声認識に失敗した場合(S18でNO)、カテゴリ推定部32が単語のカテゴリ推定に失敗した場合(S19でNO)、または、音声合成部33が、「α」のカテゴリと「β」のカテゴリとが一致しないと判定した場合(S20)でNO、音声合成部33は、ユーザに取り次ぐ旨を通話相手に伝える音声の音声情報を生成する。具体的には、音声合成部33は、「良く分からなかったからやっぱり(ユーザ)さんに代わるね。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
さらに、音声合成部33は、「(ユーザ)さん、電話に出て。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する。具体的には、通話制御部21は、図8の(b)に示すように、「良く分からなかったからやっぱり○○さんに代わるね。」という音声の音声情報を送信する。
音声出力制御部23は、取得した音声情報に基づいてユーザへの取り次ぎ対応を行う(S22)。具体的には、音声出力制御部23は、図8の(b)に示すように、「○○さん、電話に出て。」という音声をスピーカ13に出力させる。これにより、通話ロボット1は、ユーザに電話に出るよう促すことができる。ユーザへの取り次ぎが行われると、代理対応処理は終了する。
なお、ユーザへの取り次ぎ対応は、音声の出力に限定されない。例えば、通話ロボット1は、音声の出力とともに駆動部17を駆動させてもよい。この例の場合、自動応答制御部24は、駆動制御部27に指示して、駆動部17に取り次ぎ対応時の駆動を行わせる。これにより、通話ロボット1は、音声の出力と共に所定の動作を行う。よって、通話ロボット1は、ユーザに電話に出るよう、強く促すことができる。
また、通話ロボット1は、ユーザのそばに移動してから、音声を出力させてもよい。この例の場合、自動応答制御部24は、カメラ15を制御して、ユーザの位置を特定する。そして、駆動制御部27に指示して、ユーザのそばに通話ロボット1が移動するように駆動部17を駆動させる。これにより、ユーザが、取り次ぎを求められていることに気づきやすくなる。
また、通話ロボット1は、プロジェクタ(不図示)を起動し、画像または映像を投影することで、ユーザに電話に出るよう促してもよい。
また、通話ロボット1は、通話相手との電話を、スマートフォン2に転送してもよい。この例の場合、自動応答制御部24は、通話制御部21に指示して、通話相手との電話をスマートフォン2に転送させる。なお、スマートフォン2の電話番号は、ユーザが予め登録しておけばよい。
続いて、代理対応処理の流れを示すフローチャートのうち、図9に記載の処理について説明する。図9に記載の処理は、図4および図6の「B」以降の処理である。すなわち、該処理は、通話ロボット1が、ユーザが不在、またはユーザが電話に出られないことを通話相手に伝える音声情報であって、通話相手に用件を話すよう促すための音声情報を送信した後の処理である。
ステップS4、S6などで音声情報を送信すると、通話制御部21は、通話相手の音声を待機する状態となる。図9では、通話制御部21が、「γを伝えて。」という音声の音声情報を受信したものとする(S31)。なおステップS31で通話制御部21が受信する音声情報は、この例に限定されるものではない。また、本実施形態では、「γ」が「明日は△△駅に集合」である例を説明する(図10の(a)参照)。通話制御部21は、取得した音声情報を音声認識部31に出力する。
音声認識部31は、取得した音声情報の音声認識を行う(S32)。音声認識に成功した場合(S32でYES)、音声認識部31は、音声認識の結果物であるテキストデータをカテゴリ推定部32に出力する。カテゴリ推定部32は、取得したテキストデータとカテゴリ辞書41とに基づいて、通話相手の発言のカテゴリ推定を行う(S34)。本実施形態では、カテゴリ推定部32は、「γ」のカテゴリ推定を行う。カテゴリ推定に成功した場合(S34でYES)、カテゴリ推定部32は、カテゴリ推定によって特定したカテゴリが、「緊急」であるか否かを判定する(S35)。特定したカテゴリが、「緊急」でないと判定した場合(S35でNO)、カテゴリ推定部32は、カテゴリ推定によって特定したカテゴリを示すカテゴリ情報を音声合成部33に出力する。この例の場合、カテゴリ推定部32は、「時間」および「場所」というカテゴリ情報を音声合成部33に出力する。また、カテゴリ推定部32は、音声認識部31から取得したテキストデータと特定したカテゴリのカテゴリ情報とを伝言用データ44として記憶部14に記憶する。
音声合成部33は、カテゴリ情報を取得すると、通話相手に対する応答の音声情報を生成する。具体的には、音声合成部33は、「(カテゴリ)の話だね。伝えておくね。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(カテゴリ)に取得したカテゴリ情報を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S37)。具体的には、通話制御部21は、図10の(b)に示すように、「時間と場所の話だね。伝えておくね。」という音声の音声情報を送信する。これにより、通話ロボット1は、通話相手の発言に対して応答することができる。そして、代理対応処理は「C」に進む。
一方、音声認識部31が音声認識に失敗した場合(S32でNO)、または、カテゴリ推定部32が単語のカテゴリ推定に失敗した場合(S33でNO)、音声合成部33は、ユーザに後でかけ直させる旨を通話相手に伝える音声の音声情報を生成する。具体的には、音声合成部33は、「良く分からなかったから(ユーザ)さんに後で電話してもらうね。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S33)。具体的には、通話制御部21は、図10の(c)に示すように、「良く分からなかったから○○さんに後で電話してもらうね。」という音声の音声情報を送信する。そして、代理対応処理は「C」に進む。
なお、通話相手の電話番号を取得できていない場合、通話ロボット1は、ステップS33において、上述の例と異なる音声情報を通話相手の電話機に送信してもよい。具体的には、通話制御部21は、「良く分からなかったから(ユーザ)さんに後で電話してもらうね。電話番号を教えて。」という音声の音声情報を送信してもよい。これにより、ユーザが後で電話をかけ直すときに、電話番号が分からないため電話をかけ直すことができないという事態を回避することができる。
続いて、緊急対応の詳細について説明する。ここでは、ステップS6において、ユーザがお風呂に入っているため電話に出られない旨を通話相手に伝えた結果、通話相手が、「お母さんが入院した」と発言した場合(図11の(a)参照)を例に挙げて説明する。
この例の場合、カテゴリ推定部32は、通話相手の発言のカテゴリを「緊急」と特定する(S35でYES)。続いて、カテゴリ推定部32は、カテゴリが「緊急」である旨を緊急時処理部34に通知する。緊急時処理部34は、音声合成部33に指示して、緊急対応時の音声情報を生成させる。具体的には、音声合成部33は、「分かった。(ユーザ)さんに代わるね。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
さらに、音声合成部33は、「(ユーザ)さん、すぐに電話に出て。」というというテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する。具体的には、通話制御部21は、図11の(b)に示すように、「分かった。○○さんに代わるね。」という音声の音声情報を送信する。
音声出力制御部23は、取得した音声情報に基づいてユーザへの取り次ぎ対応を行う(S36)。具体的には、音声出力制御部23は、図11の(b)に示すように、「○○さん、すぐに電話に出て。」という音声をスピーカ13に出力させる。これにより、通話ロボット1は、ユーザに電話に出るよう促すことができる。ユーザへの取り次ぎが行われると、代理対応処理は終了する。なお、通話ロボット1は、音声の出力とともに駆動部17を駆動させてもよい。この例の場合、緊急時処理部34は、駆動制御部27に指示して、駆動部17に取り次ぎ対応時の駆動を行わせる。これにより、通話ロボット1は、音声の出力と共に所定の動作を行う。よって、通話ロボット1は、ユーザに電話に出るよう、強く促すことができる。
また、緊急対応時に通話ロボット1が行う取り次ぎ対応は、ユーザが電話に出ることができる状況でなくとも、電話を取り次ぎを試みるものであることが望ましい。例えば、通話ロボット1は、ユーザがいる部屋(または、部屋の近く)まで移動してから、音声を出力させてもよい。この例の場合、通話ロボット1は、ユーザの自宅の間取りを示す地図情報を記憶部14に記憶している。緊急時処理部34は、駆動制御部27に、特定した部屋まで移動するよう指示する。駆動制御部27は、地図情報と特定した部屋を示す部屋情報に従って駆動部17を駆動させ、通話ロボット1を特定した部屋まで移動させる。これにより、ユーザは、取り次ぎを求められていることに気づきやすくなる。
また、通話ロボット1は、通話相手との電話を、スマートフォン2に転送してもよい。この例の場合、緊急時処理部34は、通話制御部21に指示して、通話相手との電話をスマートフォン2に転送させる。緊急時処理部34は、通話ロボット1が、ユーザの不在を通話相手に伝えるための音声情報を通話相手に送信した場合に、通話制御部21にこの処理を行わせる構成であってもよい。
また、緊急時処理部34は、電話を転送する処理に代えて、ユーザのスマートフォン2の電話番号を通話相手に伝える音声情報を送信させる構成であってもよい。この例の場合、緊急時処理部34は、音声合成部33に指示して、スマートフォン2の電話番号を、通話相手に伝える音声情報を生成させる。音声合成部33は、該指示を受けると、「(電話番号)に電話して。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(電話番号)にスマートフォン2の電話番号を挿入する。なお、スマートフォン2の電話番号は、ユーザが予め登録しておけばよい。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する。具体的には、通話制御部21は、「○○○−○○○○−○○○○に電話して。」という音声の音声情報を送信する。
また、緊急時処理部34は、ユーザへの取り次ぎができない場合、通話ロボット1に、その旨を通話相手に伝える音声を出力させるとともに、伝言をスマートフォン2に転送する処理を行わせてもよい。具体的には、緊急時処理部34は、所定時間を超えてもユーザへの取り次ぎができない場合、音声合成部33に指示して、ユーザへの取り次ぎができない旨を通話相手に伝える音声の音声情報を生成させる。音声合成部33は、該指示を受けると、「(ユーザ)さんが電話に出ないよ。伝えておくからもう一度用件を話して。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する。具体的には、通話制御部21は、「○○さんが電話に出ないよ。伝えておくからもう一度用件を話して。」という音声の音声情報を送信する。
続いて、通話制御部21は、取得した音声情報を音声認識部31に出力する。音声認識部31は、取得した音声情報の音声認識を行う。音声認識に成功した場合、音声認識部31は、音声認識の結果物であるテキストデータを伝言用データ44として記憶部14に記憶するとともに、その旨を音声合成部33に通知する。
音声合成部33は、音声認識部31からの通知を受けると、伝言用データ44を音声情報に変換し、通話制御部21に出力する。通話制御部21は、スマートフォン2に対して定期的に自動発信を行い、ユーザへの取り次ぎを試みる。ユーザが電話に出た場合、通話制御部21は、音声情報をスマートフォン2に対して送信する。
続いて、代理対応処理の流れを示すフローチャートのうち、図12に記載の処理について説明する。図12に記載の処理は、図6および図9の「C」以降の処理である。すなわち、該処理は、通話相手が話した用件について、通話ロボット1と通話相手との対話が終了した後の処理である。
ステップS21、S37などで音声情報を送信すると、通話制御部21は、その旨を自動応答制御部24に通知する。自動応答制御部24の音声合成部33は、該通知を受けると、記憶部14から「他に何かあるかな?」というテキストデータを読み出し、音声情報に変換する。そして、音声合成部33は、該音声情報を通話制御部21に出力する。通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S41)。
音声情報を送信すると、通話制御部21は、通話相手の音声を待機する状態となる(S42)。また、通話制御部21は、タイマ(不図示)を制御して、ステップS42で音声情報を送信してからの時間を計測する(S43)。通話制御部21は、所定時間が経過するまで、通話相手の音声を待機する(S43でNO)。通話相手の音声を取得することなく(S42でNO)、所定時間が経過すると(S43でYES)、通話制御部21は通話を終了する(S47)。以上で、代理対応処理は終了する。
一方、所定時間が経過する前に通話相手の音声を取得すると(S42でYES)、通話制御部21は、取得した音声情報を音声認識部31に出力する。音声認識部31は、取得した音声情報の音声認識を行う(S44)。音声認識に成功した場合(S44でYES)、音声認識部31は、音声認識の結果物であるテキストデータをカテゴリ推定部32に出力する。カテゴリ推定部32は、取得したテキストデータとカテゴリ辞書41とに基づいて、通話相手の発言(回答)のカテゴリ推定を行う(S45)。カテゴリ推定に成功した場合(S34でYES)、カテゴリ推定部32は、カテゴリ推定によって特定したカテゴリが、「終了」であるか否かを判定する(S46)。特定したカテゴリが「終了」であると判定した場合(S46でYES)、カテゴリ推定部32は、その旨を通話制御部21に通知する。通話制御部21は、該通知を受けると、通話を終了する(S47)。以上で、代理対応処理は終了する。
一方、音声認識部31が音声認識に失敗した場合(S44でNO)、または、カテゴリ推定部32が単語のカテゴリ推定に失敗した場合(S45でNO)、代理対応処理は「D」に進む。これにより、通話ロボット1は、図6のステップS22の処理を実行する。
また、カテゴリ推定によって特定したカテゴリが「終了」でないと判定した場合(S46でNO)、代理対応処理は「E」に進む。これにより、通話ロボット1は、図9のステップS35の処理を実行する。
(通話ロボット1が実行する伝言処理の流れと具体例)
次に、図13および図14に基づいて、通話ロボット1が実行する伝言処理の流れと具体例について説明する。図13は、通話ロボット1が実行する伝言処理の流れの一例を示すフローチャートである。図14は、伝言処理において通話ロボット1が出力する音声の具体例を示す図である。
本実施形態に係る通話ロボット1は、ユーザによって所定の操作(例えば、特定のボタンの押下)が行われると、伝言再生を行う。なお、通話ロボット1は、伝言があることをユーザに報知する構成であることが望ましい。例えば、通話ロボット1は、伝言がある場合、LED(light-emitting diode、不図示)を所定の色で点灯または点滅させてもよい。また、伝言再生のトリガは、ユーザによる操作に限定されない。例えば、通話ロボット1は、カメラ15を起動して、ユーザの姿を認識した場合、伝言再生を行ってもよい。
音声合成部33は、ユーザによって所定の操作が行われたことを通知されると、伝言用音声情報を生成する。音声合成部33は、まず、通話相手の特定に成功しているか否かを判定する(S51)。具体的には、音声合成部33は、伝言用データ44として通話相手の名称が記憶されているか否かを判定する。
通話相手の名称が記憶されている場合(S51でYES)、音声合成部33は、「(通話相手)さんから電話があったよ。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(通話相手)に読み出した通話相手の名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に音声を出力させる(S52)。具体的には、音声出力制御部23は、図14の(a)に示すように、「××さんから電話があったよ。」という音声を出力させる。
一方、通話相手の名称が記憶されていない場合(S51でNO)、音声合成部33は、「電話があったよ。」というテキストデータを読み出す。そして、音声合成部33は読み出したテキストデータを音声情報に変換し、音声出力制御部23に出力する。音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に「電話があったよ。」という音声を出力させる(S53)。
続いて、音声合成部33は、伝言用データ44として、単語およびカテゴリの組み合わせのペアが記憶部14に記憶されているか否かを判定する。該ペアが記憶されている場合、音声合成部33は、2つの単語(αおよびβ)のカテゴリが一致しているか否かを判定する(S54)。カテゴリが一致している場合(S54でYES)、音声合成部33は、「(単語1)は(単語2)だって。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(単語1)に「α」を、(単語2)に「β」を挿入する。本実施形態の例では、αは集合場所、βは△△駅であるため、音声合成部33は、これらの単語を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に音声を出力させる(S55)。具体的には、音声出力制御部23は、図14の(b)に示すように、「集合場所は△△駅だって。」という音声を出力させる。
一方、2つの単語のカテゴリが一致していない場合(S54でNO)、音声合成部33は、伝言用データ44として、テキストデータとともにカテゴリ情報が記憶されているか否かを判定する。換言すれば、音声合成部33は、カテゴリ推定部32がγのカテゴリ推定に成功しているか否かを判定する(S56)。なお、2つの単語のカテゴリが一致していない場合とは、単語およびカテゴリの組み合わせのペアが伝言用データ44として記憶されていない場合を含む。
カテゴリ推定部32がγのカテゴリ推定に成功している場合(S56でYES)、音声合成部33は、「(伝言)だって。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(伝言)に「γ」を挿入する。本実施形態の例では、γは「明日は△△駅に集合」であるため、音声合成部33はこの文章を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に音声を出力させる(S57)。具体的には、音声出力制御部23は、図14の(c)に示すように、「明日は△△駅に集合だって。」という音声を出力させる。
一方、カテゴリ推定部32がγのカテゴリ推定に成功していない場合(S56でYES)、音声合成部33は、「良く分からなかったからもう一度聞いておいてね。」というテキストデータを読み出す。そして、音声合成部33は読み出したテキストデータを音声情報に変換し、音声出力制御部23に出力する。音声出力制御部23は、取得した音声情報に基づいて、図14の(d)に示すように、「良く分からなかったからもう一度聞いておいてね。」という音声を出力させる(S58)。
なお、通話ロボット1は、「電話があったよ。」という音声を出力している場合、ステップS58で出力する音声を変更してもよい。この例の場合、音声合成部33は、「良く分からなかったからもう一度聞いておいてね。電話番号は(電話番号)だよ。」というテキストデータ(プリセット応答42)を読み出す。また、音声合成部33は、伝言用データ44として記憶されている電話番号を読み出す。そして、音声合成部33は、(電話番号)に読み出した電話番号を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に音声を出力させる(S55)。例えば、音声出力制御部23は、「良く分からなかったからもう一度聞いておいてね。電話番号は×××−××××−××××だよ。」という音声を出力させる。これにより、ユーザは、通話相手を特定できなかった着信における伝言を確認した後、電話番号が分からないため電話をかけ直すことができないという事態を回避することができる。
〔実施形態2〕
本発明の他の実施形態について、図15に基づいて説明すれば、以下のとおりである。図15は、本実施形態に係る通話ロボット1が送信する音声の具体例を示す図である。なお、実施形態2および後述する実施形態3では、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
本実施形態では、ユーザが電話に出ることができる状況ではない場合に、通話相手特定部26による通話相手の特定結果に応じた音声情報を通話相手の電話機に送信する構成について説明する。
本実施形態に係る電話帳43は、電話番号と通話相手の名称に、通話相手が、ユーザの状況を伝えてもよい通話相手であるか否かを示す情報(以下、「伝達可否情報」)がさらに対応付けられている。本実施形態に係る通話相手特定部26は、電話番号が電話帳43に含まれている場合、通話相手の名称に加え、上記伝達可否情報を自動応答制御部24に出力する。
自動応答制御部24の音声合成部33は、ユーザ状況判定部36から通知された判定結果が、ユーザが電話に出ることができる状況でないことを示している場合、取得した伝達可否情報に応じた音声情報を生成する。伝達可否情報が、ユーザの状況を伝えてもよい通話相手でないことを示している場合、音声合成部33は、「ごめんなさい。(ユーザ)さんは出られないから、代わりに僕が聞いておくね。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、通話制御部21に出力する。
通話制御部21は、取得した音声情報を、通話部11を介して通話相手の電話機に送信する(S6)。具体的には、通話制御部21は、図15の(b)に示すように、「ごめんなさい。○○さんは出られないから、代わりに僕が聞いておくね。」という音声の音声情報を送信する。
一方、伝達可否情報が、ユーザの状況を伝えてもよい通話相手であることを示している場合、音声合成部33は、ユーザ状況判定部36から取得した部屋情報に基づいて、ユーザの現在の状況に応じた音声情報を生成する。この結果、通話制御部21は、例えば図15の(a)に示すように、「○○さんはお風呂に入っているから、代わりに僕が聞いておくね。」という音声を出力する。なお、この例における音声情報の生成処理の詳細は、実施形態1で既に説明しているため、ここでの説明を省略する。
以上のように、本実施形態に係る通話ロボット1は、ユーザが電話に出ることができる状態ではない場合に、通話相手に応じて、ユーザの状況を伝えるか否かを切り替えることができる。これにより、ユーザがあまり親しくない相手であるなどの理由で、状況を伝えたくない通話相手には、ユーザの状況を伝えずに、通話相手に、用件を話すよう促すことができる。
なお、通話ロボット1は、通話相手特定部26が通話相手を特定できなかった場合に、図15の(b)に示す音声情報を送信する構成であってもよい。
〔実施形態3〕
本発明のさらに別の実施形態について、図16〜図18に基づいて説明すれば、以下のとおりである。図16は、本実施形態に係る通話ロボット1aの要部構成の一例を示すブロック図である。図17は、本実施形態に係る電話帳43aのデータ構造および具体例を示す図である。図18は、通話ロボット1aが出力する音声の具体例を示す図である。
本実施形態では、本実施形態に係る通話ロボット1aのユーザが複数である例について説明する。具体的には、父親、母親、子どもで構成される家族の住居において、通話ロボット1aが使用される例について説明する。なお、父親、母親、子どもは、いずれもスマートフォン2を所有しているものとする。以降、父親、母親、子どものスマートフォン2を区別する必要がある場合、父親のスマートフォン2をスマートフォン2a、母親のスマートフォン2をスマートフォン2b、子どものスマートフォン2をスマートフォン2cと称する。
図16に示すように、通話ロボット1aと実施形態1にて説明した通話ロボット1との相違点は、制御部10に代えて制御部10aを備え、記憶部14に代えて記憶部14aを備えている点である。
制御部10aと制御部10との相違点は、自動応答制御部24に代えて自動応答制御部24aを含み、ユーザ検出部25に代えてユーザ検出部25aを含んでいる点、および、新たにユーザ特定部28を含んでいる点である。
自動応答制御部24と自動応答制御部24aとの相違点は、音声合成部33に代えて音声合成部33aを含んでいる点である。
ユーザ検出部25とユーザ検出部25aとの相違点は、在宅判定部35に代えて在宅判定部35aを含んでいる点である。
記憶部14aと記憶部14との相違点は、電話帳43に代えて電話帳43aを記憶している点である。
在宅判定部35aは、スマートフォン2を検出した場合、検出したスマートフォン2を識別可能な情報を、無線通信部16を介して取得する。本実施形態では、該情報として電話番号を取得する例を説明するが、スマートフォン2を識別する情報は電話番号に限定されない。在宅判定部35aは、取得した電話番号をユーザ特定部28に出力する。また、在宅判定部35aは、カメラ15から取得した、人物の映る映像をユーザ特定部28に出力する。
ユーザ特定部28は在宅しているユーザを特定する。具体的には、ユーザ特定部28は、取得した電話番号と、スマートフォン2a、スマートフォン2b、およびスマートフォン2cの電話番号とを比較して、在宅しているユーザを特定する。また、ユーザ特定部28は、取得した映像に映る顔と、父親、母親、子どもの顔の画像データとを比較して、在宅しているユーザを特定する。なお、各スマートフォン2の電話番号、および、各ユーザの顔画像は、ユーザが予め登録しておけばよい。ユーザ特定部28は、特定したユーザの名称を自動応答制御部24aに出力する。
本実施形態に係る通話相手特定部26は、電話番号を取得すると、該電話番号が電話帳43aに含まれているか否かを判定する。ここで、図17に基づいて電話帳43aの詳細について説明する。
図17に示すように、本実施形態に係る電話帳43aは、電話番号、通話相手の名称、通話ロボット1が出力する通話相手の名称(以下、「出力名称」と称する)、ユーザの名称を対応付けて管理するテーブルである。「電話番号」のカラムには電話番号を示す情報が格納されている。「名前」のカラムには通話相手の名称を示す情報が格納されている。「出力」のカラムには通話ロボット1が出力する通話相手の名称を示す情報が格納されている。「ユーザ」のカラムにはユーザの名称を示す情報が格納されている。なお、電話帳43aのデータ構造および具体例は、図17の例に限定されるものではない。
通話相手特定部26は、取得した電話番号が電話帳43aに含まれている場合、該電話番号に対応付けられている出力名称およびユーザの名称を自動応答制御部24に出力する。なお、本実施形態では、通話相手が「××」である例を説明する。また、取得した電話番号が電話帳43aに含まれていない場合の処理は、実施形態1で説明した処理と同様であるため、ここでの説明を省略する。
音声合成部33aは、ユーザ特定部28から取得したユーザの名称に応じて、ユーザ向けメッセージの音声情報を生成する。具体的には、音声合成部33aは、通話相手特定部26から取得した情報を参照して、ユーザ特定部28から取得したユーザの名称が対応付けられている出力名称を特定する。そして、取得したユーザの名称と、特定した出力名称とを用いて、音声情報を生成する。
例えば、取得したユーザの名称が「○○」(父親)である場合、音声合成部33aは、音声情報の生成に使用する出力名称として、「××さん」を特定する。そして、音声合成部33は、「(ユーザ)さん、(出力名称)から電話だよ。」というテキストデータ(プリセット応答42)を読み出す。そして、音声合成部33は、(ユーザ)にユーザの名称を、(出力名称)に特定した出力名称を挿入する。そして、音声合成部33は完成したテキストデータを音声情報に変換し、音声出力制御部23に出力する。
音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に、ユーザ向けメッセージを出力させる。具体的には、音声出力制御部23は、図18の(a)に示すように、「○○さん、××さんから電話だよ。」という音声を出力させる。
一方、取得したユーザの名称が「△△」(母親)である場合、音声合成部33aは、音声情報の生成に使用する出力名称として、「お父さんの会社の人」を特定する。読み出すテキストデータと、音声情報の生成については、ユーザの名称として「○○」を特定した例と同様である。
音声出力制御部23は、取得した音声情報に基づいて、スピーカ13に、ユーザ向けメッセージを出力させる。具体的には、音声出力制御部23は、図18の(b)に示すように、「△△さん、お父さんの会社の人から電話だよ。」という音声を出力させる。
以上より、本実施形態に係る通話ロボット1aは、通話相手と在宅しているユーザとの関係性に応じたユーザ向けメッセージを出力することができる。具体的には、在宅しているユーザにとって親しくない相手(換言すれば、別のユーザと親しい相手)からの着信の場合、「お父さんの会社の人」のような、別のユーザとの関係性を示す名称を出力する。これにより、在宅しているユーザは、通話相手が話したい人物を容易に特定することができる。
〔変形例〕
以下、本発明の各実施形態の変形例について説明する。なお、以降の説明では、各変形例を実施形態1に適用している。ただし、各変形例は、実施形態2および3にも適用可能である。
カテゴリ推定部32は、音声認識部31から取得したテキストデータに、ユーザが登録したキーワードおよび文言が含まれているか否かを判定することで、通話相手の発言の緊急性が高いか否かを判定してもよい。該キーワードおよび文言の具体例としては、「大至急電話」、「緊急連絡」、「お父さんへ大至急電話して」、「緊急連絡を会社へして」などが挙げられる。
通話ロボット1は、通話相手の発言に具体的な時間または場所を示す単語が含まれている場合、該単語の付加情報を応答の音声情報に加えてもよい。ここで、通話ロボット1からの「××さん、集合場所を教えて。」という音声に対し、通話相手が「△△駅だよ」と発言した場合を例に挙げて説明する。カテゴリ推定部32が、音声認識部31から取得したテキストデータから、「△△駅」のカテゴリを「場所」と特定すると、自動応答制御部24は、インターネットを用いた通信を行う通信部(不図示)を制御して、ユーザの自宅から△△駅までの距離を取得する。そして、自動応答制御部24は、例えば該距離が閾値以内である場合、「距離=近い」という付加情報を生成する。
音声合成部33は、生成した「集合場所は△△駅だね。○○さんに伝えておくよ。」というテキストデータに、「距離=近い」という付加情報に応じた文字列を追加する。例えば、音声合成部33は、「○○さんの家から近いから大丈夫だね。」という文字列を追加して、音声情報に変換する。これにより、通話ロボット1が、通話相手にとってより親しみやすいものとなる。なお、付加情報は、カテゴリ辞書41において、単語に対応付けられている情報であってもよい。
また、通話ロボット1は、通常通話の途中でユーザによる所定の操作(例えば特定のボタンの押下)が行われると、代理対応処理を開始する構成であってもよい。このとき、通話ロボット1は、上記操作が行われた場合、「○○さんに急用ができたから、ここからは代わりに僕が聞いておくね」などの音声情報を、通話相手の電話機に送信することが望ましい。
また、通話ロボット1は、過去に着信があった相手から、再度着信があった場合に、出力するユーザ向けメッセージを変更してもよい。例えば、音声合成部33は、通話相手特定部26から取得した通話いての名称が、現在から所定期間以内の着信相手として、記憶部14に記憶されている着信履歴(不図示)に含まれているか否かを判定する。着信履歴に含まれていると判定した場合、音声合成部33は、「○○さん、また××さんから電話だよ。」という音声情報を生成する。
〔ソフトウェアによる実現例〕
通話ロボット1および通話ロボット1aの制御ブロック(特に制御部10および制御部10a)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、通話ロボット1および通話ロボット1aは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る電子機器(通話ロボット1、通話ロボット1a)は、通話機能を有する電子機器であって、上記電子機器のユーザが、上記電子機器が存在する建物内にいることを検出する検出部(在宅判定部35)と、上記ユーザが上記建物内にいることが検出され、かつ、上記電子機器への着信後に通話が開始されない場合、上記ユーザが通話可能な状況であるか否かに応じた応答メッセージを発信者に送信する送信部(通話制御部21)と、を備える。
上記の構成によれば、電子機器は、ユーザが建物内にいるにもかかわらず、通話が開始されない場合、ユーザが通話可能な状況であるか否かに応じた応答メッセージを発信者に送信する。これにより、電子機器は、ユーザが通話を開始しない場合において、ユーザの状況に応じた適切な対応を取ることができる。また、適切な対応を取ることにより、発信者が応答する可能性を高めることができる。
本発明の態様2に係る電子機器は、上記態様1において、上記送信部は、上記ユーザが通話可能な状況でない場合、上記ユーザの状況に応じた上記応答メッセージを送信してもよい。
上記の構成によれば、電子機器は、ユーザが通話可能な状況でない場合、状況に応じた応答メッセージを送信する。これにより、電子機器は、ユーザの状況を発信者に類推させることができる。
本発明の態様3に係る電子機器は、上記態様2において、上記応答メッセージに対する上記発信者の発言が、緊急性が高いことを示す条件に合致する場合、上記ユーザに上記発信者との通話を開始するよう促す処理を上記電子機器に実行させる処理実行部(緊急時処理部34)をさらに備えてもよい。
上記の構成によれば、電子機器は、緊急の用件である場合、ユーザに対して電話に出るよう促すので、ユーザに緊急の用件を迅速に把握させることができる。
本発明の態様4に係る電子機器は、上記態様1から3のいずれかにおいて、上記発信者を特定する発信者特定部(通話相手特定部26)をさらに備え、上記送信部は、特定された上記発信者に応じた上記応答メッセージを送信してもよい。
上記の構成によれば、電子機器は、発信者に応じた応答メッセージを送信する。これにより、電子機器は、ユーザまたは発信者にとって、より適切な応答メッセージを送信することができる。
本発明の態様5に係る電子機器は、上記態様1から4のいずれかにおいて、上記ユーザが通話可能な状況である場合、上記発信者に送信する上記応答メッセージの内容を上記ユーザに答えさせるためのユーザ向けメッセージを出力する音声出力部(音声出力制御部23)をさらに備え、上記送信部は、上記ユーザ向けメッセージに対する上記ユーザの回答に応じた上記応答メッセージを送信してもよい。
上記の構成によれば、電子機器は、ユーザが通話可能な状況である場合、発信者に送信する応答メッセージの内容をユーザに予め答えさせたうえで、ユーザの回答に応じた応答メッセージを送信する。これにより、電話機は、発信者との円滑なコミュニケーションを実現することができる。
本発明の態様6に係る電子機器は、上記態様5において、上記電子機器のユーザは複数であり、上記建物内にいることが検出されたユーザを特定するユーザ特定部(ユーザ特定部28)をさらに備え、上記音声出力部は、特定されたユーザに応じた上記ユーザ向けメッセージを出力してもよい。
上記の構成によれば、電子機器は、建物内にいるユーザに応じたユーザ向けメッセージを出力するので、該ユーザと電子機器との円滑なコミュニケーションを実現することができる。
本発明の態様7に係る電子機器の制御方法は、通話機能を有する電子機器の制御方法であって、上記電子機器のユーザが、上記電子機器が存在する建物内にいることを検出する検出ステップ(ステップS3)と、上記ユーザが上記建物内にいることが検出され、かつ、上記電子機器への着信後に通話が開始されない場合、上記ユーザが通話可能な状況であるか否かに応じた応答メッセージを発信者に送信する送信ステップ(ステップS6、ステップS16)と、を含む。
上記の構成によれば、態様1に係る電子機器と同様の作用効果を奏する。
本発明の各態様に係る電子機器は、コンピュータによって実現してもよく、この場合には、コンピュータを上記電子機器が備える各部(ソフトウェア要素)として動作させることにより上記電子機器をコンピュータにて実現させる電子機器の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 通話ロボット(電子機器)
1a 通話ロボット(電子機器)
35 在宅判定部(検出部)
21 通話制御部(送信部)
34 緊急時処理部(処理実行部)
26 通話相手特定部(発信者特定部)
23 音声出力制御部(音声出力部)
28 ユーザ特定部
S3 検出ステップ
S6 送信ステップ
S16 送信ステップ

Claims (9)

  1. 通話機能を有する電子機器であって、
    上記電子機器のユーザが、上記電子機器が存在する建物内にいることを検出する検出部と、
    上記ユーザが上記建物内にいることが検出され、かつ、上記電子機器への着信後に通話が開始されない場合、上記ユーザが通話可能な状況であるか否かに応じた応答メッセージを発信者に送信する送信部と、を備えることを特徴とする電子機器。
  2. 上記送信部は、上記ユーザが通話可能な状況でない場合、上記ユーザの状況に応じた上記応答メッセージを送信することを特徴とする請求項1に記載の電子機器。
  3. 上記応答メッセージに対する上記発信者の発言が、緊急性が高いことを示す条件に合致する場合、上記ユーザに上記発信者との通話を開始するよう促す処理を上記電子機器に実行させる処理実行部をさらに備えることを特徴とする請求項2に記載の電子機器。
  4. 上記発信者を特定する発信者特定部をさらに備え、
    上記送信部は、特定された上記発信者に応じた上記応答メッセージを送信することを特徴とする請求項1から3のいずれか1項に記載の電子機器。
  5. 上記ユーザが通話可能な状況である場合、上記発信者に送信する上記応答メッセージの内容を上記ユーザに答えさせるためのユーザ向けメッセージを出力する音声出力部をさらに備え、
    上記送信部は、上記ユーザ向けメッセージに対する上記ユーザの回答に応じた上記応答メッセージを送信することを特徴とする請求項1から4のいずれか1項に記載の電子機器。
  6. 上記電子機器のユーザは複数であり、
    上記建物内にいることが検出されたユーザを特定するユーザ特定部をさらに備え、
    上記音声出力部は、特定されたユーザに応じた上記ユーザ向けメッセージを出力することを特徴とする請求項5に記載の電子機器。
  7. 通話機能を有する電子機器の制御方法であって、
    上記電子機器のユーザが、上記電子機器が存在する建物内にいることを検出する検出ステップと、
    上記ユーザが上記建物内にいることが検出され、かつ、上記電子機器への着信後に通話が開始されない場合、上記ユーザが通話可能な状況であるか否かに応じた応答メッセージを発信者に送信する送信ステップと、を含むことを特徴とする電子機器の制御方法。
  8. 請求項1に記載の電子機器としてコンピュータを機能させるための制御プログラムであって、上記検出部および上記送信部としてコンピュータを機能させるための制御プログラム。
  9. 請求項8に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2016245721A 2016-12-19 2016-12-19 電子機器、電子機器の制御方法、制御プログラム、および記録媒体 Pending JP2018101847A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016245721A JP2018101847A (ja) 2016-12-19 2016-12-19 電子機器、電子機器の制御方法、制御プログラム、および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016245721A JP2018101847A (ja) 2016-12-19 2016-12-19 電子機器、電子機器の制御方法、制御プログラム、および記録媒体

Publications (1)

Publication Number Publication Date
JP2018101847A true JP2018101847A (ja) 2018-06-28

Family

ID=62715628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016245721A Pending JP2018101847A (ja) 2016-12-19 2016-12-19 電子機器、電子機器の制御方法、制御プログラム、および記録媒体

Country Status (1)

Country Link
JP (1) JP2018101847A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023501059A (ja) * 2020-03-20 2023-01-18 グーグル エルエルシー 人間の参加者の代理の自動アシスタントによる準委任通話

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023501059A (ja) * 2020-03-20 2023-01-18 グーグル エルエルシー 人間の参加者の代理の自動アシスタントによる準委任通話
JP7392128B2 (ja) 2020-03-20 2023-12-05 グーグル エルエルシー 人間の参加者の代理の自動アシスタントによる準委任通話

Similar Documents

Publication Publication Date Title
JP4026758B2 (ja) ロボット
JP7179834B2 (ja) 音声認識デバイス、音声認識デバイスの連携システム、及び音声認識デバイスの連携方法
US10750000B1 (en) Opportunistic initiation of voice or video calls between smart speaker devices
US20180054507A1 (en) Artificial Intelligence Communication with Caller and Real-Time Transcription and Manipulation Thereof
JPS63121350A (ja) 留守番電話装置
CN109348048B (zh) 通话留言方法、终端和具有存储功能的装置
US9736309B1 (en) Real-time transcription and interaction with a caller based on the transcription
JP2007096961A (ja) 電話装置
JPWO2015083741A1 (ja) 中継装置、表示装置および通信システム
JP2018101847A (ja) 電子機器、電子機器の制御方法、制御プログラム、および記録媒体
CN107864460A (zh) 呼叫转移方法、装置和设备
JP6495479B2 (ja) ロボット、ロボットの制御方法、制御プログラム、および記録媒体
JP2010178067A (ja) インターホンシステム
JP2008005102A (ja) 音声通信装置および音声通信システム
JP7349281B2 (ja) 制御装置および制御装置の制御方法
JP2006157672A (ja) 移動機、サーバ装置、及び、発信制御方法
JP4008477B2 (ja) ボタン電話装置の転送通知方法
JP4230982B2 (ja) 通話補助装置、通話補助方法、通話補助プログラムおよび通話補助システム
JP7222802B2 (ja) インターホンシステム
US20230254411A1 (en) Group calling system, group calling method, and program
JP6854170B2 (ja) インターホン装置
US20240029738A1 (en) Speech recognition device, speech-recognition-device coordination system, and speech-recognition-device coordination method
JP3866727B2 (ja) 留守録転送機能付きボタン電話装置
JPS61157053A (ja) 電話装置
JP2010148559A (ja) ナースコールシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200715

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210126