JP7136656B2 - 情報処理システムおよびプログラム - Google Patents
情報処理システムおよびプログラム Download PDFInfo
- Publication number
- JP7136656B2 JP7136656B2 JP2018195396A JP2018195396A JP7136656B2 JP 7136656 B2 JP7136656 B2 JP 7136656B2 JP 2018195396 A JP2018195396 A JP 2018195396A JP 2018195396 A JP2018195396 A JP 2018195396A JP 7136656 B2 JP7136656 B2 JP 7136656B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- home
- acquired
- household
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
Description
ところで、家庭を構成する人の人数、年齢、性別等は、家族毎に異なっており、同じ情報を各家庭に一律に提供してしまうと、役に立たない情報が提供されたり、誰も人がいないときに情報の提供がなされたりする。
本発明の目的は、各家庭の状況を考慮せずに各家庭への情報提供を行う場合に比べ、各家庭への情報の提供をより適切に行えるようにすることにある。
また、前記決定手段は、前記音声取得手段により取得された音声に基づき、前記家庭内における人間の在宅タイミングを把握し、把握した当該在宅タイミングに基づき、情報の提供タイミングを決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声に基づき、在宅している率が予め定められた閾値を超える曜日および時間を把握し、把握した当該曜日および当該時間を、情報の提供タイミングとして決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声に基づき、前記家庭内の家族の人数を把握し、当該人数に基づき、当該家庭に対して提供する情報の内容を決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により音声が取得されてから予め定められた時間内に前記情報が提供されるように、当該情報の提供タイミングを決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声に基づき、前記家庭内の人間の属性を把握し、把握した当該属性に基づき、前記家庭に対して提供する情報の内容を決定することを特徴とすることができる。
また、前記家庭に対して提供される情報は、音声によって当該家庭に提供され、前記決定手段は、前記家庭内の人間が音声を発していないタイミングに、前記情報が当該家庭に提供されるように、当該情報の提供タイミングを決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段によって取得された音声の状態を把握し、当該状態に基づき、前記家庭に対して提供する情報の内容を決定することを特徴とすることができる。
また、前記決定手段は、前記音声取得手段により取得された音声のうちの特定の曜日及び/又は特定の時間に取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定することを特徴とすることができる。
また、前記家庭内に設置され音声を発する機器のオン/オフの状態を把握する把握手段を更に備え、前記決定手段は、前記音声取得手段により取得された音声のうちの前記機器がオフのときに取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定することを特徴とすることができる。
図1は、情報処理システム1の全体構成を示した図である。
情報処理システム1には、情報処理装置の一例としての管理サーバ300が設けられている。さらに、情報処理システム1には、各家庭(各家)の各々に設置された室内機器200が設けられている。
より具体的には、室内機器200には、液晶ディスプレイなどにより構成された表示装置201が設けられており、本実施形態では、この表示装置201に、人の顔に相当する画像が表示されることで、人の顔を模した部分が表示される。
なお、この表示装置201を介して、各家庭への情報の提供が行われる際には、人の顔に相当するこの画像は、非表示となる。
さらに、この腕部分203を動かすためのモータ(不図示)が、胴体部分202の内部に設けられている。また、胴体部分202には、互いに異なる色の光を出射する複数の光源204が設けられている。
さらに、室内機器200には、音を発生するスピーカ250Pが設けられている。また、室内機器200には、室内機器200の位置情報を取得するGPS(Global Positioning System)(不図示)が設けられている。
室内機器200の各々は、インターネットなどの通信回線400(図1参照)を通じて管理サーバ300に接続される。
管理サーバ300は、コンピュータ装置により構成され、管理サーバ300には、CPU(Central Processing Unit)301、RAM(Random Access Memory)302、ROM(Read Only Memory)303が設けられている。また、ハードディスク装置などにより構成される記憶装置304が設けられている。さらに、管理サーバ300には、外部との通信を行うための通信インタフェース(通信I/F)305が設けられている。
また、CPU301によって実行されるプログラムは、インターネットなどの通信手段を用いて管理サーバ300へダウンロードしてもよい。
図4に示すように、管理サーバ300は、音声取得部321、決定部322、出力部323を備える。
ここで、音声取得部321、決定部322は、管理サーバ300のCPU301が、記憶装置304等に格納されているプログラムを実行することで実現される。
また、出力部323は、通信インタフェース(通信I/F)305、および、記憶装置304等に格納されているプログラムを実行するCPU301により実現される。
付言すると、音声取得部321は、各家で生活を営む家族に属する人間が発する音声を取得する。
出力部323は、各家庭に提供する情報を、対応する室内機器200に出力する(送信)する。より具体的には、出力部323は、決定部322により決定された情報の内容を含む情報を、室内機器200へ出力(送信)し、および/または、出力部323は、決定部322により決定された提供タイミングのときに室内機器200への情報の出力を行う。
本実施形態では、まず、音声取得部321が、家庭内の人間の発する音声を取得する(ステップS101)。付言すると、音声取得部321は、人間の音声であってこの人間の自宅における音声を取得する。
そして、管理サーバ300の音声取得部321が、公知の音声認識技術を利用して、家庭内の人間の発する音声(家の中(自宅内)にいる人間の音声)を取得する。
その後、本実施形態では、出力部323が、決定部322により決定された内容および/または提供タイミングで、室内機器200への情報の出力を行う(ステップS103)。
また、出力部323は、情報の提供タイミングのみを決定部322が決定した場合には、予め定められた情報を、この提供タイミングのときに出力する。
さらに、出力部323は、提供する情報の内容および提供タイミングの両者が決定部322により決定された場合には、決定された内容の情報を、決定されたタイミングに出力する。
これにより、本実施形態では、家庭に適した情報が家庭に提供されたり、家庭に適したタイミングで情報がこの家庭に提供されたりする。
図6(A)に示すように、本実施形態の決定部322は、例えば、音声取得部321により取得された音声に基づき、家庭内(家内)における人間の在宅タイミングを把握し(この人間の自宅における在宅タイミングを把握し)(ステップS201)、把握したこの在宅タイミングに基づき、情報の提供タイミングを決定する(ステップS202)。
より具体的には、決定部322は、音声取得部321により取得される、家内の音声を予め定められた期間に亘って蓄積し、この蓄積結果に基づき、この家に人が在宅している率が、予め定められた閾値を超える曜日および時間を把握する。
なお、室内機器200へ提供された情報は、この室内機器200から出力されるが、この出力は、例えば、スピーカ250Pから音声として出力される。また、その他に、例えば、表示装置201に表示されて、表示装置201から出力される。また、その他には、室内機器200へ提供された情報は、スピーカ250Pおよび表示装置201の両者から出力される。
これに対し、本実施形態のように、把握した在宅タイミングのときに、情報の提供が行われるようにすると(在宅している率が予め定められた閾値を超える曜日および時間のときに、情報の提供が行われるようにすると)、コマーシャルやサービスの提供をより効果的に行える。
この処理では、決定部322は、音声取得部321により取得された音声に基づき、家庭内の人の数を把握する(家族を構成する人の数を把握する)(ステップS301)。そして、決定部322は、この人の数に基づき、この家庭に対して提供する情報の内容を決定する(ステップS302)。
ここで、家庭内の人の数の把握は、公知の音声認識技術により、発話を行った人間を識別するようにし、この識別により把握した人間の数を把握することで、家庭内の人の数を把握する。
具体的には、例えば、家族の構成人数が一人である場合と、複数人である場合とでは、家族の行動内容が異なることも多い。
ここで、この処理を行う場合、家族の構成人数が例えば一人である場合には、例えば、一人でも行きやすいお店についての情報(ラーメン店などについての情報)が提供される。
また、家族の構成人数が複数である場合には、ラーメン店についての情報に限らず、例えば、焼き肉店の情報やファミリーレストランの情報が提供される。
具体的には、この場合、決定部322は、音声取得部321により取得された音声に含まれる文言を順次蓄積し、さらに、各文言の登場回数を把握する。
より具体的には、決定部322は、例えば、ある文言の登場回数が予め定められた閾値を超えた場合、この文言をキーワードとしてインターネット検索等を行って、この文言に関連した関連情報を取得する。そして、この関連情報を、家庭に対して提供する情報として決定する。
この場合、この家庭が興味を抱いている事項に関連する情報が、この家庭に対して提供されるようになる。
また、例えば、家庭内にて「花粉症」に関する会話があり、さらに、この「花粉症」という文言が数多く登場した場合には、この「花粉症」に関連した情報が、家庭に対して提供されるようになる。
例えば、家庭内にて「花粉症」に関する会話があり、さらに、この「花粉症」という文言が数多く登場した場合には、この「花粉症」よりも上位概念である「アレルギー」に関連した情報を、家庭に対して提供してもよい。
付言すると、決定部322は、音声取得部321により音声が取得されてから予め定められた時間内に、室内機器200から情報が出力されるように、情報の提供タイミングを決定してもよい。
より具体的には、決定部322は、例えば、音声取得部321により音声が取得されてから30秒以内に家庭に対して情報が提供されるように、情報の提供タイミングを決定してもよい。
これに対し、上記のように、音声取得部321により音声が取得されてから予め定められた時間内に情報が提供されるようにすると、家庭内の人間へ情報が提供される可能性を高めることができる。
具体的には、この場合、決定部322は、例えば、音声取得部321により音声が取得された後に、無音の状態(音声が検出されない状態)が予め定められた時間を超えて継続したら情報の提供が行われるように、情報の提供タイミングを決定する。
これに対して、家庭内の人間が音声を発していないタイミングに情報を提供するようにすると、このような不具合が生じにくくなる。
具体的には、例えば、決定部322は、音声取得部321により取得された音声に基づき、家庭内の人間の性別、年齢などの属性を把握(推定)し、把握したこの属性に基づき、家庭に対して提供する情報の内容を決定してもよい。
例えば、人間が風邪をひくと、声が低音になる場合があり、決定部322は、音声取得部321によって取得された音声がいつもよりも低い場合には、例えば、風邪薬についての情報など、風邪に関する情報を提供することを決定する。
具体的には、例えば、決定部322は、音声取得部321により取得された音声のうちの平日に取得された音声や、早朝や深夜に取得された音声に基づき、家庭に対して提供する情報の内容および/または家庭への情報の提供タイミングを決定してもよい。
その一方で、一般的に、平日や早朝、深夜などの特定のタイミングでは、家庭への来客は少なくなる。そこで、上記のように、特定の曜日及び/又は特定の時間に取得された音声に基づき、提供する情報の内容を決定したり、情報の提供タイミングを決定したりすると、家庭に対してより適切な情報の提供を行えるようになる。
ここで、家庭内に設置されたテレビやPCなどの機器から音声が発せられる場合があり、この音声に基づき、家庭に対して提供する情報の内容や、家庭への情報の提供タイミングを決定してしまうと、家庭への適切な情報の提供がなされなくなるおそれがある。
なお、機器のオン/オフの状態の把握は、例えば、室内機器200に設けられたカメラ205Cにより得られた映像(映像のうちテレビやPCが映っている部分)を解析することで、このオン/オフの状態の把握を行える。また、その他に、Bluetooth(登録商標)などの通信を利用して、機器からの情報を例えば室内機器200が取得するようにして、この機器からの情報に基づき、機器のオン/オフの状態を把握してもよい。
Claims (8)
- 家庭内の人間の発する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する情報の提供タイミングを決定する決定手段と、
を備え、
前記決定手段は、前記音声取得手段により取得された音声に基づき、前記家庭内に人間が在宅している率が予め定められた閾値を超える曜日および時間を把握し、把握した当該曜日および当該時間を、情報の提供タイミングとして決定する情報処理システム。 - 家庭内の人間の発する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する提供情報の内容を決定する決定手段と、
を備え、
前記決定手段は、前記音声取得手段により取得された音声に基づき、前記提供情報の提供の際に在宅している家族の人数を把握し、当該人数に基づき、当該在宅している家族に対して提供する当該提供情報の内容を決定する情報処理システム。 - 家庭内の人間の発する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する情報の内容を決定する決定手段と、
を備え、
前記決定手段は、前記音声取得手段によって取得された音声の状態を把握し、当該状態に基づき、前記家庭に対して提供する情報の内容を決定する情報処理システム。 - 家庭内の人間の発する音声を取得する音声取得手段と、
前記音声取得手段により取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する決定手段と、
前記家庭内に設置され音声を発する機器のオン/オフの状態を把握する把握手段と、
を備え、
前記決定手段は、前記音声取得手段により取得された音声のうちの前記機器がオフのときに取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する情報処理システム。 - 家庭内の人間の発する音声を取得する音声取得機能と、
前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する情報の提供タイミングを決定する決定機能と、
をコンピュータに実現させるためのプログラムであり、
前記決定機能は、前記音声取得機能により取得された音声に基づき、前記家庭内に人間が在宅している率が予め定められた閾値を超える曜日および時間を把握し、把握した当該曜日および当該時間を、情報の提供タイミングとして決定する、
プログラム。 - 家庭内の人間の発する音声を取得する音声取得機能と、
前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する提供情報の内容を決定する決定機能と、
をコンピュータに実現させるためのプログラムであり、
前記決定機能は、前記音声取得機能により取得された音声に基づき、前記提供情報の提供の際に在宅している家族の人数を把握し、当該人数に基づき、当該在宅している家族に対して提供する当該提供情報の内容を決定する、
プログラム。 - 家庭内の人間の発する音声を取得する音声取得機能と、
前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する情報の内容を決定する決定機能と、
をコンピュータに実現させるためのプログラムであり、
前記決定機能は、前記音声取得機能によって取得された音声の状態を把握し、当該状態に基づき、前記家庭に対して提供する情報の内容を決定する、
プログラム。 - 家庭内の人間の発する音声を取得する音声取得機能と、
前記音声取得機能により取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する決定機能と、
前記家庭内に設置され音声を発する機器のオン/オフの状態を把握する把握機能と、
をコンピュータに実現させるためのプログラムであり、
前記決定機能は、前記音声取得機能により取得された音声のうちの前記機器がオフのときに取得された音声に基づき、前記家庭に対して提供する情報の内容および/または当該家庭への情報の提供タイミングを決定する、
プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195396A JP7136656B2 (ja) | 2018-10-16 | 2018-10-16 | 情報処理システムおよびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018195396A JP7136656B2 (ja) | 2018-10-16 | 2018-10-16 | 情報処理システムおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020064425A JP2020064425A (ja) | 2020-04-23 |
JP7136656B2 true JP7136656B2 (ja) | 2022-09-13 |
Family
ID=70387299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018195396A Active JP7136656B2 (ja) | 2018-10-16 | 2018-10-16 | 情報処理システムおよびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7136656B2 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009258970A (ja) | 2008-04-16 | 2009-11-05 | Toshiba Corp | 通信端末 |
JP2015011621A (ja) | 2013-07-01 | 2015-01-19 | シャープ株式会社 | 会話処理装置、制御方法、制御プログラム、および記録媒体 |
JP2015087957A (ja) | 2013-10-30 | 2015-05-07 | 株式会社東芝 | 情報提供装置およびその方法、ならびにプログラム |
JP2017157010A (ja) | 2016-03-02 | 2017-09-07 | 株式会社リクルートホールディングス | 情報処理装置および情報処理方法 |
JP2018524679A (ja) | 2015-06-01 | 2018-08-30 | フェイスブック,インク. | 電子通信スレッドにおける拡張メッセージ要素の提供 |
-
2018
- 2018-10-16 JP JP2018195396A patent/JP7136656B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009258970A (ja) | 2008-04-16 | 2009-11-05 | Toshiba Corp | 通信端末 |
JP2015011621A (ja) | 2013-07-01 | 2015-01-19 | シャープ株式会社 | 会話処理装置、制御方法、制御プログラム、および記録媒体 |
JP2015087957A (ja) | 2013-10-30 | 2015-05-07 | 株式会社東芝 | 情報提供装置およびその方法、ならびにプログラム |
JP2018524679A (ja) | 2015-06-01 | 2018-08-30 | フェイスブック,インク. | 電子通信スレッドにおける拡張メッセージ要素の提供 |
JP2017157010A (ja) | 2016-03-02 | 2017-09-07 | 株式会社リクルートホールディングス | 情報処理装置および情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020064425A (ja) | 2020-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11875820B1 (en) | Context driven device arbitration | |
JP7101322B2 (ja) | デジタルアシスタントのためのボイストリガ | |
US11138977B1 (en) | Determining device groups | |
US9344815B2 (en) | Method for augmenting hearing | |
US11687526B1 (en) | Identifying user content | |
US10580407B1 (en) | State detection and responses for electronic devices | |
US11776541B2 (en) | Communicating announcements | |
JPWO2019098038A1 (ja) | 情報処理装置、及び情報処理方法 | |
JP7276129B2 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
WO2017141530A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JPWO2018055898A1 (ja) | 情報処理装置、及び情報処理方法 | |
JP6973380B2 (ja) | 情報処理装置、および情報処理方法 | |
JP2019200598A (ja) | サーバ | |
US20210159867A1 (en) | Context based volume adaptation by voice assistant devices | |
US11575758B1 (en) | Session-based device grouping | |
WO2020003851A1 (ja) | 音声処理装置、音声処理方法及び記録媒体 | |
WO2020202862A1 (ja) | 応答生成装置及び応答生成方法 | |
JP7136656B2 (ja) | 情報処理システムおよびプログラム | |
WO2019138652A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
WO2016052520A1 (ja) | 対話装置 | |
US11024303B1 (en) | Communicating announcements | |
JP7070546B2 (ja) | 情報処理装置および情報処理方法 | |
US11743588B1 (en) | Object selection in computer vision | |
WO2020149031A1 (ja) | 応答処理装置及び応答処理方法 | |
WO2019107144A1 (ja) | 情報処理装置、及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210615 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7136656 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |