JP7136656B2 - 情報処理システムおよびプログラム - Google Patents

情報処理システムおよびプログラム Download PDF

Info

Publication number
JP7136656B2
JP7136656B2 JP2018195396A JP2018195396A JP7136656B2 JP 7136656 B2 JP7136656 B2 JP 7136656B2 JP 2018195396 A JP2018195396 A JP 2018195396A JP 2018195396 A JP2018195396 A JP 2018195396A JP 7136656 B2 JP7136656 B2 JP 7136656B2
Authority
JP
Japan
Prior art keywords
information
voice
home
acquired
household
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018195396A
Other languages
English (en)
Other versions
JP2020064425A (ja
Inventor
彩乃 山口
登 宮本
朋佳 大橋
遥香 松本
宏樹 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Gas Co Ltd
Original Assignee
Tokyo Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Gas Co Ltd filed Critical Tokyo Gas Co Ltd
Priority to JP2018195396A priority Critical patent/JP7136656B2/ja
Publication of JP2020064425A publication Critical patent/JP2020064425A/ja
Application granted granted Critical
Publication of JP7136656B2 publication Critical patent/JP7136656B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Description

本発明は、情報処理システムおよびプログラムに関する。
特許文献1には、ネットワークを通じて送られてくるユーザの音声信号を、ロボットの発話として編集して、編集音声信号を生成する音声編集手段と、編集音声信号を出力する少なくとも一以上のスピーカとを有する構成が開示されている。
特開2017-191390号公報
各家庭にスピーカや表示装置を設置し、このスピーカや表示装置を通して、情報の提供を行うようにすると、各家庭に属する人は、特別な操作を行わないでも、情報を知ることができ、利便性が高まる。
ところで、家庭を構成する人の人数、年齢、性別等は、家族毎に異なっており、同じ情報を各家庭に一律に提供してしまうと、役に立たない情報が提供されたり、誰も人がいないときに情報の提供がなされたりする。
本発明の目的は、各家庭の状況を考慮せずに各家庭への情報提供を行う場合に比べ、各家庭への情報の提供をより適切に行えるようにすることにある。
本発明が適用される情報処理システムは、家庭内の人間の発する音声を取得する音声取得手段と、前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する決定手段と、を備える情報処理システムである。
また、前記決定手段は、前記音声取得手段により取得された音声に基づき、前記家庭内における人間の在宅タイミングを把握し、把握した当該在宅タイミングに基づき、情報の提供タイミングを決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声に基づき、在宅している率が予め定められた閾値を超える曜日および時間を把握し、把握した当該曜日および当該時間を、情報の提供タイミングとして決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声に基づき、前記家庭内の家族の人数を把握し、当該人数に基づき、当該家庭に対して提供する情報の内容を決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声に含まれる文言の出現頻度を把握し、把握した出現頻度に基づき、前記家庭に対して提供する情報の内容を決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により音声が取得されてから予め定められた時間内に前記情報が提供されるように、当該情報の提供タイミングを決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声に基づき、前記家庭内の人間の属性を把握し、把握した当該属性に基づき、前記家庭に対して提供する情報の内容を決定することを特徴とすることができる。
また、前記家庭に対して提供される情報は、音声によって当該家庭に提供され、前記決定手段は、前記家庭内の人間が音声を発していないタイミングに、前記情報が当該家庭に提供されるように、当該情報の提供タイミングを決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段によって取得された音声の状態を把握し、当該状態に基づき、前記家庭に対して提供する情報の内容を決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声のうちの特定の曜日及び/又は特定の時間に取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定することを特徴とすることができる。
また、前記家庭内に設置され音声を発する機器のオン/オフの状態を把握する把握手段を更に備え、前記決定手段は、前記音声取得手段により取得された音声のうちの前記機器がオフのときに取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定することを特徴とすることができる。
また、本発明をプログラムとして捉えた場合、本発明が適用されるプログラムは、家庭内の人間の発する音声を取得する音声取得機能と、前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する決定機能と、をコンピュータに実現させるためのプログラムである。
本発明によれば、各家庭の状況を考慮せずに各家庭への情報提供を行う場合に比べ、各家庭への情報の提供をより適切に行えるようになる。
情報処理システムの全体構成を示した図である。 室内機器を説明する図である。 管理サーバのハードウエアの構成を示した図である。 管理サーバのCPU等により実現される機能部を示した図である。 情報処理システムにて実行される処理の流れの一例を示したフローチャートである。 (A)、(B)は、処理の詳細の一例を示した図である。 決定部により行われる処理の他の一例を示した図である。
以下、添付図面を参照して、本発明の実施の形態について説明する。
図1は、情報処理システム1の全体構成を示した図である。
情報処理システム1には、情報処理装置の一例としての管理サーバ300が設けられている。さらに、情報処理システム1には、各家庭(各家)の各々に設置された室内機器200が設けられている。
図2(室内機器200を説明する図)に示すように、本実施形態の室内機器200は、いわゆるロボットを模した機器であり、符号2Aで示すように、人の顔を模した部分を有する。
より具体的には、室内機器200には、液晶ディスプレイなどにより構成された表示装置201が設けられており、本実施形態では、この表示装置201に、人の顔に相当する画像が表示されることで、人の顔を模した部分が表示される。
なお、この表示装置201を介して、各家庭への情報の提供が行われる際には、人の顔に相当するこの画像は、非表示となる。
さらに、本実施形態の室内機器200は、表示装置201を下方から支持する胴体部分202、および、この胴体部分202に取り付けられた腕部分203を有する。
さらに、この腕部分203を動かすためのモータ(不図示)が、胴体部分202の内部に設けられている。また、胴体部分202には、互いに異なる色の光を出射する複数の光源204が設けられている。
さらに、室内機器200には、室内機器200が設置された居室内の状況を撮影する撮影手段の一例としてのカメラ205Cが設けられている。また、室内機器200には、この居室内の音を取得する音取得手段の一例としてのマイク205Mが設けられている。
さらに、室内機器200には、音を発生するスピーカ250Pが設けられている。また、室内機器200には、室内機器200の位置情報を取得するGPS(Global Positioning System)(不図示)が設けられている。
室内機器200の各々は、インターネットなどの通信回線400(図1参照)を通じて管理サーバ300に接続される。
図3は、管理サーバ300のハードウエアの構成を示した図である。
管理サーバ300は、コンピュータ装置により構成され、管理サーバ300には、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、ROM(Read Only Memory)303が設けられている。また、ハードディスク装置などにより構成される記憶装置304が設けられている。さらに、管理サーバ300には、外部との通信を行うための通信インタフェース(通信I/F)305が設けられている。
CPU301によって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、管理サーバ300へ提供しうる。
また、CPU301によって実行されるプログラムは、インターネットなどの通信手段を用いて管理サーバ300へダウンロードしてもよい。
図4は、管理サーバ300のCPU301等により実現される機能部を示した図である。
図4に示すように、管理サーバ300は、音声取得部321、決定部322、出力部323を備える。
ここで、音声取得部321、決定部322は、管理サーバ300のCPU301が、記憶装置304等に格納されているプログラムを実行することで実現される。
また、出力部323は、通信インタフェース(通信I/F)305、および、記憶装置304等に格納されているプログラムを実行するCPU301により実現される。
音声取得手段の一例としての音声取得部321は、各家庭内の人間が発する音声を取得する。付言すると、音声取得部321は、図1にて示した複数の家の各々における音声を取得する。言い換えると、音声取得部321は、対象となる人間の自宅における音声を取得する。
より具体的には、音声取得部321は、室内機器200のマイク205Mにより取得された音声を、室内機器200の各々から取得し、各家庭にいる人間が発する音声を取得する。
付言すると、音声取得部321は、各家で生活を営む家族に属する人間が発する音声を取得する。
決定手段の一例としての決定部322は、音声取得部321により取得された音声に基づき、この音声が取得された家庭に対して提供する情報の内容および/またはこの家庭への情報の提供タイミングを決定する。
出力部323は、各家庭に提供する情報を、対応する室内機器200に出力する(送信)する。より具体的には、出力部323は、決定部322により決定された情報の内容を含む情報を、室内機器200へ出力(送信)し、および/または、出力部323は、決定部322により決定された提供タイミングのときに室内機器200への情報の出力を行う。
図5は、本実施形態の情報処理システム1にて実行される処理の流れの一例を示したフローチャートである。なお、以下の説明では、複数存在する家のうちの一つの家における処理を一例に説明する。
本実施形態では、まず、音声取得部321が、家庭内の人間の発する音声を取得する(ステップS101)。付言すると、音声取得部321は、人間の音声であってこの人間の自宅における音声を取得する。
付言すると、本実施形態では、家の中における音が、室内機器200により取得され、そして、この音についての情報が、管理サーバ300に出力される。
そして、管理サーバ300の音声取得部321が、公知の音声認識技術を利用して、家庭内の人間の発する音声(家の中(自宅内)にいる人間の音声)を取得する。
次いで、本実施形態では、決定部322によって、音声取得部321が取得した音声(音声情報)の解析が行われ、決定部322は、取得したこの音声に基づき、家庭に対して提供する情報の内容および/または家庭への情報の提供タイミングを決定する(ステップS102)。
その後、本実施形態では、出力部323が、決定部322により決定された内容および/または提供タイミングで、室内機器200への情報の出力を行う(ステップS103)。
付言すると、出力部323は、提供する情報の内容のみを決定部322が決定した場合には、この内容の情報を、予め定められたタイミングに出力する。
また、出力部323は、情報の提供タイミングのみを決定部322が決定した場合には、予め定められた情報を、この提供タイミングのときに出力する。
さらに、出力部323は、提供する情報の内容および提供タイミングの両者が決定部322により決定された場合には、決定された内容の情報を、決定されたタイミングに出力する。
これにより、本実施形態では、家庭に適した情報が家庭に提供されたり、家庭に適したタイミングで情報がこの家庭に提供されたりする。
図6(A)、(B)は、ステップS102にて行われる処理の詳細の一例を示した図である。
図6(A)に示すように、本実施形態の決定部322は、例えば、音声取得部321により取得された音声に基づき、家庭内(家内)における人間の在宅タイミングを把握し(この人間の自宅における在宅タイミングを把握し)(ステップS201)、把握したこの在宅タイミングに基づき、情報の提供タイミングを決定する(ステップS202)。
より具体的には、決定部322は、音声取得部321により取得される、家内の音声を予め定められた期間に亘って蓄積し、この蓄積結果に基づき、この家に人が在宅している率が、予め定められた閾値を超える曜日および時間を把握する。
そして、決定部322は、把握したこの曜日および時間を、情報の提供タイミングとして決定する。そして、この場合、出力部323が、決定されたこの提供タイミングのときに、室内機器200(図2参照)への情報の提供を行う。
なお、室内機器200へ提供された情報は、この室内機器200から出力されるが、この出力は、例えば、スピーカ250Pから音声として出力される。また、その他に、例えば、表示装置201に表示されて、表示装置201から出力される。また、その他には、室内機器200へ提供された情報は、スピーカ250Pおよび表示装置201の両者から出力される。
ここで、各家庭に対するコマーシャルや、各家庭に対するサービスの提供を行うにあたり、家に人間がいない状態で、このコマーシャルやサービルの提供を行ったとしても、その効果は小さい。
これに対し、本実施形態のように、把握した在宅タイミングのときに、情報の提供が行われるようにすると(在宅している率が予め定められた閾値を超える曜日および時間のときに、情報の提供が行われるようにすると)、コマーシャルやサービスの提供をより効果的に行える。
図6(B)は、ステップS102にて行われる処理の他の一例を示した図である。
この処理では、決定部322は、音声取得部321により取得された音声に基づき、家庭内の人の数を把握する(家族を構成する人の数を把握する)(ステップS301)。そして、決定部322は、この人の数に基づき、この家庭に対して提供する情報の内容を決定する(ステップS302)。
ここで、家庭内の人の数の把握は、公知の音声認識技術により、発話を行った人間を識別するようにし、この識別により把握した人間の数を把握することで、家庭内の人の数を把握する。
ここで、例えば、家庭内の人の数(家族の人数)に応じて、家族の行動内容が異なることも多い。
具体的には、例えば、家族の構成人数が一人である場合と、複数人である場合とでは、家族の行動内容が異なることも多い。
このような場合に、家族を構成する人数に基づき、家庭に対して提供する情報の内容を決定するようにすると、各家族により適した情報の提供を行える。
ここで、この処理を行う場合、家族の構成人数が例えば一人である場合には、例えば、一人でも行きやすいお店についての情報(ラーメン店などについての情報)が提供される。
また、家族の構成人数が複数である場合には、ラーメン店についての情報に限らず、例えば、焼き肉店の情報やファミリーレストランの情報が提供される。
また、その他に、決定部322は、図7(決定部322により行われる処理の他の一例を示した図)に示すように、音声取得部321により取得された音声に含まれる文言の出現頻度を把握し(ステップS401)、把握したこの出現頻度に基づき、家庭に対して提供する情報の内容を決定してもよい(ステップS402)。
具体的には、この場合、決定部322は、音声取得部321により取得された音声に含まれる文言を順次蓄積し、さらに、各文言の登場回数を把握する。
そして、決定部322は、ある文言の登場回数が予め定められた閾値を超えた場合、この文言に関連した情報を、家庭に対して提供する情報の内容として決定する。
より具体的には、決定部322は、例えば、ある文言の登場回数が予め定められた閾値を超えた場合、この文言をキーワードとしてインターネット検索等を行って、この文言に関連した関連情報を取得する。そして、この関連情報を、家庭に対して提供する情報として決定する。
また、その他に、例えば、決定部322は、ある文言の登場回数が予め定められた閾値を超えた場合、予め定められた登録された登録情報の中から(記憶装置304(図3参照)に登録されている登録情報の中から)、この文言を含む登録情報を抽出する。そして、決定部322は、抽出したこの登録情報を、家庭に対して提供する情報として決定する。
この場合、この家庭が興味を抱いている事項に関連する情報が、この家庭に対して提供されるようになる。
具体的には、例えば、家庭内にて「釣り」に関する会話があり、さらに、この「釣り」という文言が数多く登場した場合には、この「釣り」に関連した情報が、家庭に対して提供されるようになる。
また、例えば、家庭内にて「花粉症」に関する会話があり、さらに、この「花粉症」という文言が数多く登場した場合には、この「花粉症」に関連した情報が、家庭に対して提供されるようになる。
なお、登場した文言に直接関連する情報に限らず、登場した文言の上位概念化を行い、この上位概念化により得られた概念に関連した情報を、家庭に対して提供してもよい。
例えば、家庭内にて「花粉症」に関する会話があり、さらに、この「花粉症」という文言が数多く登場した場合には、この「花粉症」よりも上位概念である「アレルギー」に関連した情報を、家庭に対して提供してもよい。
また、その他に、決定部322は、音声取得部321により音声が取得されてから予め定められた時間内に、家庭に対して情報が提供されるように、情報の提供タイミングを決定してもよい。
付言すると、決定部322は、音声取得部321により音声が取得されてから予め定められた時間内に、室内機器200から情報が出力されるように、情報の提供タイミングを決定してもよい。
より具体的には、決定部322は、例えば、音声取得部321により音声が取得されてから30秒以内に家庭に対して情報が提供されるように、情報の提供タイミングを決定してもよい。
ここで、家庭内の人間が、音声を発してから直ぐに他の部屋へ移動してしまうことも想定され、この場合に、情報の提供が遅いと、この人間への情報の提供ができなくなってしまう。
これに対し、上記のように、音声取得部321により音声が取得されてから予め定められた時間内に情報が提供されるようにすると、家庭内の人間へ情報が提供される可能性を高めることができる。
また、その他に、決定部322は、家庭内の人間が音声を発していないタイミングに、この家庭に情報が提供されるように、この情報の提供タイミングを決定してもよい。
具体的には、この場合、決定部322は、例えば、音声取得部321により音声が取得された後に、無音の状態(音声が検出されない状態)が予め定められた時間を超えて継続したら情報の提供が行われるように、情報の提供タイミングを決定する。
本実施形態では、家庭に対して提供される情報は、例えば、スピーカ250Pを通じ、音声によって提供される。この場合に、家庭内の人間が音声を発しているタイミングに、情報の提供を行ってしまうと、ユーザはこの情報を聞き取りにくくなったり、また、ユーザの会話を邪魔してしまったりする。
これに対して、家庭内の人間が音声を発していないタイミングに情報を提供するようにすると、このような不具合が生じにくくなる。
また、その他に、決定部322は、音声取得部321により取得された音声に基づき、家庭内の人間の属性を把握し、把握したこの属性に基づき、家庭に対して提供する情報の内容を決定してもよい。
具体的には、例えば、決定部322は、音声取得部321により取得された音声に基づき、家庭内の人間の性別、年齢などの属性を把握(推定)し、把握したこの属性に基づき、家庭に対して提供する情報の内容を決定してもよい。
また、その他に、決定部322は、音声取得部321によって取得された音声の状態を把握し、把握したこの状態に基づき、家庭に対して提供する情報の内容を決定してもよい。
例えば、人間が風邪をひくと、声が低音になる場合があり、決定部322は、音声取得部321によって取得された音声がいつもよりも低い場合には、例えば、風邪薬についての情報など、風邪に関する情報を提供することを決定する。
また、その他に、決定部322は、音声取得部321により取得された音声のうちの特定の曜日及び/又は特定の時間に取得された音声に基づき、家庭に対して提供する情報の内容および/または家庭への情報の提供タイミングを決定してもよい。
具体的には、例えば、決定部322は、音声取得部321により取得された音声のうちの平日に取得された音声や、早朝や深夜に取得された音声に基づき、家庭に対して提供する情報の内容および/または家庭への情報の提供タイミングを決定してもよい。
ここで、家庭に来客があることも想定され、音声取得部321により取得される音声には、この来客の音声が含まれることがある。この来客の音声を含んだ状態で、家庭に対して提供する情報の内容や、家庭への情報の提供タイミングを決定すると、家庭への適切な情報の提供を行いにくくなる。
その一方で、一般的に、平日や早朝、深夜などの特定のタイミングでは、家庭への来客は少なくなる。そこで、上記のように、特定の曜日及び/又は特定の時間に取得された音声に基づき、提供する情報の内容を決定したり、情報の提供タイミングを決定したりすると、家庭に対してより適切な情報の提供を行えるようになる。
また、その他に、家庭内に設置され音声を発する機器のオン/オフの状態を把握するようにし、決定部322は、音声取得部321により取得された音声のうちのこの機器がオフのときに取得された音声に基づき、家庭に対して提供する情報の内容および/または家庭への情報の提供タイミングを決定してもよい。
ここで、家庭内に設置されたテレビやPCなどの機器から音声が発せられる場合があり、この音声に基づき、家庭に対して提供する情報の内容や、家庭への情報の提供タイミングを決定してしまうと、家庭への適切な情報の提供がなされなくなるおそれがある。
これに対し、上記のように、機器がオフのときに取得された音声に基づき、家庭に対して提供する情報の内容を決定したり、家庭への情報の提供タイミングを決定したりすると、家庭にいる人間の音声に基づきこの決定が行われるようになり、より適切な情報の提供を行えるようになる。
なお、機器のオン/オフの状態の把握は、例えば、室内機器200に設けられたカメラ205Cにより得られた映像(映像のうちテレビやPCが映っている部分)を解析することで、このオン/オフの状態の把握を行える。また、その他に、Bluetooth(登録商標)などの通信を利用して、機器からの情報を例えば室内機器200が取得するようにして、この機器からの情報に基づき、機器のオン/オフの状態を把握してもよい。
1…情報処理システム、321…音声取得部、322…決定部

Claims (8)

  1. 家庭内の人間の発する音声を取得する音声取得手段と、
    前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する情報の提供タイミングを決定する決定手段と、
    を備え
    前記決定手段は、前記音声取得手段により取得された音声に基づき、前記家庭内に人間が在宅している率が予め定められた閾値を超える曜日および時間を把握し、把握した当該曜日および当該時間を、情報の提供タイミングとして決定する情報処理システム。
  2. 家庭内の人間の発する音声を取得する音声取得手段と、
    前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する提供情報の内容を決定する決定手段と、
    を備え
    前記決定手段は、前記音声取得手段により取得された音声に基づき、前記提供情報の提供の際に在宅している家族の人数を把握し、当該人数に基づき、当該在宅している家族に対して提供する当該提供情報の内容を決定する情報処理システム。
  3. 家庭内の人間の発する音声を取得する音声取得手段と、
    前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する情報の内容を決定する決定手段と、
    を備え
    前記決定手段は、前記音声取得手段によって取得された音声の状態を把握し、当該状態に基づき、前記家庭に対して提供する情報の内容を決定する情報処理システム。
  4. 家庭内の人間の発する音声を取得する音声取得手段と、
    前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する決定手段と、
    前記家庭内に設置され音声を発する機器のオン/オフの状態を把握する把握手段と、
    を備え
    前記決定手段は、前記音声取得手段により取得された音声のうちの前記機器がオフのときに取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する情報処理システム。
  5. 家庭内の人間の発する音声を取得する音声取得機能と、
    前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する情報の提供タイミングを決定する決定機能と、
    をコンピュータに実現させるためのプログラムであり、
    前記決定機能は、前記音声取得機能により取得された音声に基づき、前記家庭内に人間が在宅している率が予め定められた閾値を超える曜日および時間を把握し、把握した当該曜日および当該時間を、情報の提供タイミングとして決定する、
    プログラム
  6. 家庭内の人間の発する音声を取得する音声取得機能と、
    前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する提供情報の内容を決定する決定機能と、
    をコンピュータに実現させるためのプログラムであり、
    前記決定機能は、前記音声取得機能により取得された音声に基づき、前記提供情報の提供の際に在宅している家族の人数を把握し、当該人数に基づき、当該在宅している家族に対して提供する当該提供情報の内容を決定する、
    プログラム。
  7. 家庭内の人間の発する音声を取得する音声取得機能と、
    前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する情報の内容を決定する決定機能と、
    をコンピュータに実現させるためのプログラムであり、
    前記決定機能は、前記音声取得機能によって取得された音声の状態を把握し、当該状態に基づき、前記家庭に対して提供する情報の内容を決定する、
    プログラム。
  8. 家庭内の人間の発する音声を取得する音声取得機能と、
    前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する決定機能と、
    前記家庭内に設置され音声を発する機器のオン/オフの状態を把握する把握機能と、
    をコンピュータに実現させるためのプログラムであり、
    前記決定機能は、前記音声取得機能により取得された音声のうちの前記機器がオフのときに取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する、
    プログラム。
JP2018195396A 2018-10-16 2018-10-16 情報処理システムおよびプログラム Active JP7136656B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018195396A JP7136656B2 (ja) 2018-10-16 2018-10-16 情報処理システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018195396A JP7136656B2 (ja) 2018-10-16 2018-10-16 情報処理システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2020064425A JP2020064425A (ja) 2020-04-23
JP7136656B2 true JP7136656B2 (ja) 2022-09-13

Family

ID=70387299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018195396A Active JP7136656B2 (ja) 2018-10-16 2018-10-16 情報処理システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP7136656B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258970A (ja) 2008-04-16 2009-11-05 Toshiba Corp 通信端末
JP2015011621A (ja) 2013-07-01 2015-01-19 シャープ株式会社 会話処理装置、制御方法、制御プログラム、および記録媒体
JP2015087957A (ja) 2013-10-30 2015-05-07 株式会社東芝 情報提供装置およびその方法、ならびにプログラム
JP2017157010A (ja) 2016-03-02 2017-09-07 株式会社リクルートホールディングス 情報処理装置および情報処理方法
JP2018524679A (ja) 2015-06-01 2018-08-30 フェイスブック,インク. 電子通信スレッドにおける拡張メッセージ要素の提供

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258970A (ja) 2008-04-16 2009-11-05 Toshiba Corp 通信端末
JP2015011621A (ja) 2013-07-01 2015-01-19 シャープ株式会社 会話処理装置、制御方法、制御プログラム、および記録媒体
JP2015087957A (ja) 2013-10-30 2015-05-07 株式会社東芝 情報提供装置およびその方法、ならびにプログラム
JP2018524679A (ja) 2015-06-01 2018-08-30 フェイスブック,インク. 電子通信スレッドにおける拡張メッセージ要素の提供
JP2017157010A (ja) 2016-03-02 2017-09-07 株式会社リクルートホールディングス 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JP2020064425A (ja) 2020-04-23

Similar Documents

Publication Publication Date Title
US11875820B1 (en) Context driven device arbitration
JP7101322B2 (ja) デジタルアシスタントのためのボイストリガ
US11138977B1 (en) Determining device groups
US9344815B2 (en) Method for augmenting hearing
US11687526B1 (en) Identifying user content
US10580407B1 (en) State detection and responses for electronic devices
US11776541B2 (en) Communicating announcements
JPWO2019098038A1 (ja) 情報処理装置、及び情報処理方法
JP7276129B2 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2018055898A1 (ja) 情報処理装置、及び情報処理方法
JP6973380B2 (ja) 情報処理装置、および情報処理方法
JP2019200598A (ja) サーバ
US20210159867A1 (en) Context based volume adaptation by voice assistant devices
US11575758B1 (en) Session-based device grouping
WO2020003851A1 (ja) 音声処理装置、音声処理方法及び記録媒体
WO2020202862A1 (ja) 応答生成装置及び応答生成方法
JP7136656B2 (ja) 情報処理システムおよびプログラム
WO2019138652A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
WO2016052520A1 (ja) 対話装置
US11024303B1 (en) Communicating announcements
JP7070546B2 (ja) 情報処理装置および情報処理方法
US11743588B1 (en) Object selection in computer vision
WO2020149031A1 (ja) 応答処理装置及び応答処理方法
WO2019107144A1 (ja) 情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220901

R150 Certificate of patent or registration of utility model

Ref document number: 7136656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150