JP7163103B2 - Information processing device, information processing method and information processing program - Google Patents
Information processing device, information processing method and information processing program Download PDFInfo
- Publication number
- JP7163103B2 JP7163103B2 JP2018154267A JP2018154267A JP7163103B2 JP 7163103 B2 JP7163103 B2 JP 7163103B2 JP 2018154267 A JP2018154267 A JP 2018154267A JP 2018154267 A JP2018154267 A JP 2018154267A JP 7163103 B2 JP7163103 B2 JP 7163103B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- context
- environmental sound
- information processing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 176
- 238000003672 processing method Methods 0.000 title claims description 7
- 230000007613 environmental effect Effects 0.000 claims description 271
- 238000004458 analytical method Methods 0.000 claims description 60
- 230000002123 temporal effect Effects 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 18
- 230000009471 action Effects 0.000 description 28
- 230000000875 corresponding effect Effects 0.000 description 22
- 230000006399 behavior Effects 0.000 description 19
- 238000010219 correlation analysis Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000002596 correlated effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 241000533293 Sesbania emerus Species 0.000 description 2
- 238000009835 boiling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 244000145845 chattering Species 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Description
本発明の実施形態は、情報処理装置、情報処理方法および情報処理プログラムに関する。 TECHNICAL FIELD Embodiments of the present invention relate to an information processing apparatus, an information processing method, and an information processing program.
近年、ユーザからの音声を取得し、取得した音声を音声認識することで、取得した音声に対応する動作を実行する情報機器が開発されている。 2. Description of the Related Art In recent years, an information device has been developed that acquires a voice from a user, recognizes the acquired voice, and executes an operation corresponding to the acquired voice.
例えば、特許文献1には、ユーザに不安を感じさせることなく、ユーザの行動をきっかけに起動する電子機器が提案されている。
For example,
しかしながら、上記の従来技術では、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるとは限らない。例えば、上記の従来技術では、家電に対するユーザの行動をきっかけに、音声認識部や音声取得部を起動させたことをユーザに通知する。 However, with the above-described conventional technology, it is not always possible to assist the user's actions by outputting information in anticipation of situations that may occur to the user in the future. For example, in the conventional technology described above, the user is notified that the speech recognition unit and the speech acquisition unit have been activated, triggered by the user's behavior with respect to the home appliance.
このような上記の従来技術では、ユーザが発話した音声が間違いなく取得・認識されているのかどうかといった不安をユーザに感させなくすることができる。しかしながら、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるとは限らない。 With the conventional technology described above, it is possible to prevent the user from feeling uneasy about whether or not the voice uttered by the user is correctly acquired and recognized. However, it is not always possible to help the user's actions by outputting information in anticipation of situations that may occur to the user in the future.
本願は、上記に鑑みてなされたものであって、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and provides an information processing device, an information processing method, and an information processing program that can assist the user's actions by outputting information that anticipates situations that may occur to the user in the future. for the purpose.
本願にかかる情報処理装置は、ユーザの周辺環境の環境音を取得する取得部と、前記取得部により取得された環境音に対応する前記ユーザのコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定部とを有することを特徴とする。 An information processing apparatus according to the present application includes an acquisition unit that acquires environmental sounds of a user's surrounding environment, and predetermined information for the user based on the user's context corresponding to the environmental sounds acquired by the acquisition unit. and a determination unit that determines the timing of outputting the .
実施形態の一態様によれば、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるといった効果を奏する。 According to one aspect of the embodiment, it is possible to assist the user's actions by outputting information that anticipates situations that may occur to the user in the future.
以下に、本願にかかる情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for implementing an information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described with reference to the drawings. The information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. In addition, in the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
〔1.情報処理〕
まず、図1を用いて、実施形態にかかる情報処理の一例について説明する。図1は、実施形態にかかる情報処理の一例を示す図である。実施形態にかかる情報処理は、図1に示す情報処理装置100によって行われる。
[1. information processing]
First, an example of information processing according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of information processing according to an embodiment; Information processing according to the embodiment is performed by the
図1の説明に先立って、図2を用いて、実施形態にかかる情報処理システムについて説明する。図2は、実施形態にかかる情報処理システム1の構成例を示す図である。実施形態にかかる情報処理システム1は、図2に示すように、端末装置10と、出力装置30と、情報処理装置100とを含む。端末装置10、出力装置30、情報処理装置100は、ネットワークNを介して有線または無線により通信可能に接続される。なお、図1に示す情報処理システム1には、複数台の端末装置10や、複数台の出力装置30や、複数台の情報処理装置100が含まれてよい。
Prior to the description of FIG. 1, the information processing system according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。 The terminal device 10 is an information processing device used by a user. The terminal device 10 is, for example, a smart phone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like.
出力装置30は、例えば、室内等に置かれる据置式のスマートスピーカーである。しかし、出力装置30は、ユーザとの対話を実現する機能を有していれば、必ずしもスマートスピーカーである必要はなく、例えば、カーナビゲーション、可動式ロボット等であってもよい。ただし、本実施形態では、出力装置30は、スマートスピーカーであるものとする。したがって、以下の実施形態では、出力装置30を「スマートスピーカー30」と表記する場合がある。
The
ここで、実施形態にかかる情報処理の前提について説明する。例えば、ユーザは、日常生活の中で、ある行動を行った後には特定の行動を行う、といったように一連の行動がパターン化されている場合がある。より具体的には、ある時間帯において、ある行動を行ったすぐ後には特定の行動を行う、といったように一連の行動がパターン化されている場合がある。一例を示すと、あるユーザUXは、7時台に起床すると、毎朝まず、カーテンを開け、それからスマートスピーカー30に対して「ニュースを流して」といった音声指示を出すとする。かかる例では、ユーザUXは、起床した後の一連の行動として、「カーテンを開けた後に、スマートスピーカー30に対して、ニュースを流すよう音声操作する」といった一連の行動がパターン化されているといえる。
Here, the premise of information processing according to the embodiment will be described. For example, in daily life, the user may have a series of behaviors patterned such that after performing a certain behavior, the user performs a specific behavior. More specifically, a series of behaviors may be patterned such that a specific behavior is performed immediately after performing a certain behavior in a certain time period. To give an example, assume that a certain user UX wakes up around 7:00, opens the curtains every morning, and then issues a voice command to the
また、カーテンを開ける行動以外にも、テレビをつける行動、コーヒーメーカーを起動させる行動、お湯を沸かす行動等、一連の行動の中の一つとしてユーザが行う行動は、ユーザによっても、また、同じユーザであっても時間帯によって千差万別である。とはいえ、日常生活の中では、ユーザ毎に、ある時間帯においてこの行動を行った場合には、そのすぐ後には、ある特定の行動を行う、といったことがパターン化されてくる。 In addition to the action of opening the curtains, actions performed by the user as one of a series of actions such as the action of turning on the television, the action of starting the coffee maker, the action of boiling water, etc. Even users are diverse depending on the time zone. Nonetheless, in daily life, a pattern is formed for each user such that when this behavior is performed in a certain period of time, a specific behavior is performed immediately after that.
ここで、ユーザの行動には多くの場合、その行動に伴う環境音が生じる。例えば、カーテンを開ける行動には「シャッ、シャッ」といった特有(ならでは)の環境音が発生する。この例以外でも同様である。テレビをつける行動には「今日天気は・・・」といったテレビ動画による音声としての環境音が発生する(また、テレビのリモコンを操作することにより発生する環境音もある)。また、コーヒーメーカーを起動させる行動には「ガガガ」といった、コーヒー豆を挽くならではの環境音が発生する。また、お湯を沸かす行動には「ガチャ」といった、ガスコンロを操作するならではの環境音が発生する。 Here, in many cases, environmental sounds accompany the actions of the user. For example, when the curtain is opened, a peculiar (unique) environmental sound such as "shhh, shhh" is generated. The same is true for cases other than this example. When the user turns on the TV, environmental sounds such as "Today's weather is..." are generated as voices of TV moving images (there are also environmental sounds generated by operating the remote control of the TV). In addition, the action of starting the coffee maker produces an environmental sound unique to grinding coffee beans, such as "ga-ga-ga". In addition, the action of boiling water generates an environmental sound unique to operating a gas stove, such as "Gacha".
このようなことから、上記ユーザUXの例であれば、7時台において環境音「シャッ、シャッ」が発生すれば、例えばこの先数秒後(あるいは数分後)には、「ユーザUXはスマートスピーカー30に対して、ニュースを流すよう音声操作する」という行動に出ることを先読み(予測)することができる。これは、ユーザUXの一連のパターン化した行動により、7時台における環境音「シャッ、シャッ」の後に「ユーザUXはスマートスピーカー30に対して、ニュースを流すよう音声操作する」という行動、すなわち環境音に対応するユーザUXのコンテキストの傾向が得られることに基づく。
For this reason, in the above example of the user UX, if the environmental sound "shuh, shhh" is generated at 7 o'clock, for example, after a few seconds (or several minutes later), "the user UX is a smart speaker It is possible to foresee (predict) that the user will perform an action such as "manipulate voice to broadcast news to 30". This is based on a series of patterned behaviors of the user UX, and after the environmental sound "shhhhhhh" at 7 o'clock, the behavior of "the user UX voice-manipulates the
そして、このような場合、7時台においてユーザUXがカーテンを開けた後、スマートスピーカー30がユーザUXからの音声操作を受ける前に動的にニュースを流すことができれば、ユーザUXはわざわざ音声操作を行わなくて済むため便利である。
In such a case, after the user UX opens the curtain at around 7:00, if the news can be dynamically delivered before the
以上のような前提を踏まえて、実施形態にかかる情報処理装置100は、環境音に対応するユーザのコンテキスト、より具体的には、環境音に対応するユーザのコンテキストの傾向を分析し、分析結果に基づいて、ウェイクアップ(情報提供)のタイミングを決定する。
Based on the above premise, the
まとめると、実施形態にかかる情報処理装置100は、ユーザの周辺環境の環境音を取得し、取得した環境音に対応するユーザのコンテキストに基づいて、ユーザに対して所定の情報(ウェイクアップの一例)を出力するタイミングを決定する。具体的には、情報処理装置100は、ユーザの周辺環境の環境音として、前記ユーザのコンテキストが示す状況が起こるよりも前に発生した環境音を取得する。例えば、情報処理装置100は、ユーザのコンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。
In summary, the
そして、情報処理装置100は、ユーザの周辺環境の環境音と、ユーザのコンテキストとの関係性を学習する。そして、情報処理装置100は、環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。環境音に対して時間的傾向を示す関係性とは、例えば、カーテンを開ける環境音「シャッ、シャッ」が発生した数秒後に「スマートスピーカー30に対して、ニュースを流すよう音声操作する」傾向にある、といったものである。以下、実施形態にかかる情報処理の一例について説明する。
Then, the
具体的な説明に入る前に、まず図1の概要を説明する。図1に示すホームHP1には、ユーザU1、ユーザU2、ユーザU3、ユーザU4(ユーザU1~U4)といった四人のユーザが済んでいる。ユーザU1~U4の関係性は限定されないが、ここでは家族であるものとする。そして、図1の例では、ユーザU1は、ルームR1(寝室)に居る。ユーザU2は、ルームR2(ダイニング)に居る。ユーザU3は、ルームR3(リビング)に居る。ユーザU4は、ルームR4(キッチン)に居る。 Before starting a detailed description, first, an outline of FIG. 1 will be described. The home HP1 shown in FIG. 1 has four users, user U1, user U2, user U3, and user U4 (users U1 to U4). Although the relationship between users U1 to U4 is not limited, it is assumed here that they are family members. In the example of FIG. 1, user U1 is in room R1 (bedroom). User U2 is in room R2 (dining room). User U3 is in room R3 (living room). User U4 is in room R4 (kitchen).
また、スマートスピーカー30は、ルームHP1内の所定の場所に置かれており、各ルームにいるユーザの発話音声を取得することが可能であるものとする。一般的に、スマートスピーカーは、各部屋に1台という形で設置される場合が多いが、本実施形態では、説明の便宜上、スマートスピーカー30は、4つのルーム全ての音声を取得カバーできるものとする。なお、4つのルームそれぞれにスマートスピーカー30が置かれている場合、1台のスマートスピーカー30から当該スマートスピーカー30によって検知された情報を取得するか、あるいは、4台のスマートスピーカー30それぞれから当該スマートスピーカー30によって検知された情報を取得するかの違いだけであって、情報処理装置100が行う情報処理に違いは無い。
Also, the
まず、スマートスピーカー30は、各ルームにおいて発生した環境音およびユーザのコンテキストを検知する(ステップS1)。ルームR1では、「2018年7月1日7時00分においてユーザU1がカーテンを開け」、その4分後「2018年7月1日7時04分においてユーザU1がニュースを流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU1の周辺環境を示す環境音として、「2018年7月1日7時00分においてカーテンを開ける環境音「シャッ、シャッ」」を検知する。また、スマートスピーカー30は、ユーザU1のコンテキストとして、「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する、といった行動に出る」というコンテキストを検知する。
First, the
そして、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。図1の例では、スマートスピーカー30は、ルームR1で検知した環境音データDA11-1と、ルームR1で検知したコンテキストデータDA11-2とを情報処理装置100に送信する。なお、ルームR1では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR1で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。
The
また、ルームR2では、「2018年7月1日7時30分においてユーザU2がコーヒーメーカーを起動させ」、その3分後「2018年7月1日7時33分においてユーザU2がラジオショッピングを流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU2の周辺環境を示す環境音として、「2018年7月1日7時30分においてコーヒーメーカーが動作する環境音「ガガガ」」を検知する。また、スマートスピーカー30は、ユーザU2のコンテキストとして、「2018年7月1日7時33分においてユーザU2はラジオショッピングを流すよう音声指示する、といった行動に出る」というコンテキストを検知する。
In room R2, "user U2 started the coffee maker at 7:30 on July 1, 2018", and three minutes later, "user U2 started radio shopping at 7:33 on July 1, 2018". An example is shown in which a voice instruction is given to the
ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。図1の例では、スマートスピーカー30は、ルームR2で検知した環境音データDA21-1と、ルームR2で検知したコンテキストデータDA21-2とを情報処理装置100に送信する。なお、ルームR2では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR2で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。
Again, the
また、ルームR3では、「2018年7月1日18時00分においてユーザU3がテレビに天気予報をつけ」、その4分後「2018年7月1日18時04分においてユーザU3がK区の交通情報を流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU3の周辺環境を示す環境音として、「2018年7月1日18時00分においてテレビが天気予報番組を流している環境音「明日の天気は・・・」」を検知する。また、スマートスピーカー30は、ユーザU3のコンテキストとして、「2018年7月1日18時04分においてユーザU3はK区の交通情報を流すよう音声指示する、といった行動に出る」というコンテキストを検知する。
Further, in room R3, "at 18:00 on July 1, 2018, user U3 turned on the weather forecast on the television", four minutes later, "at 18:04 on July 1, 2018, user U3 turned on the K zone." , the
ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。図1の例では、スマートスピーカー30は、ルームR3で検知した環境音データDA31-1と、ルームR2で検知したコンテキストデータDA31-2とを情報処理装置100に送信する。なお、ルームR3では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR3で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。
Again, the
また、ルームR4では、「2018年7月1日8時00分においてユーザU4がガスコンロを操作し」、その5分後「2018年7月1日8時05分においてユーザU4が料理番組を流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU4の周辺環境を示す環境音として、「2018年7月1日8時00分においてガスコンロが操作される環境音「ガチャ」」を検知する。また、スマートスピーカー30は、ユーザU4のコンテキストとして、「2018年7月1日8時05分においてユーザU4は料理番組を流すよう音声指示する、といった行動に出る」というコンテキストを検知する。
In room R4, "at 8:00 on July 1, 2018, the user U4 operates the gas stove", and five minutes later, "at 8:05 on July 1, 2018, the user U4 plays a cooking program." An example is given to the
ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。図1の例では、スマートスピーカー30は、ルームR4で検知した環境音データDA41-1と、ルームR4で検知したコンテキストデータDA41-2とを情報処理装置100に送信する。なお、ルームR4では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR4で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。
Again, the
情報処理装置100は、スマートスピーカー30から取得した環境音データを環境音情報記憶部121に格納する。図1の例では、環境音情報記憶部121は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日時」は、スマートスピーカー30によって環境音が検知された日時を示す。なお、「日時」には「曜日」も含まれてよく、かかる場合、「日時」はカレンダー情報と解することもできる。「環境音データ」は、スマートスピーカー30によって検知された環境音のデータを示す。
The
図1に示すルームR1の例では、スマートスピーカー30は、ユーザU1について「2018年7月1日7時00分においてカーテンを開ける環境音「シャッ、シャッ」」を検知している。そして、スマートスピーカー30は、この検知結果を示す環境音データDA11-1を情報処理装置100に送信している。したがって、情報処理装置100は、ユーザID「U1」と、日時「2018年7月1日7時00分」と、環境音「シャッ、シャッ」を示す環境音データDA11-1とを対応付けて環境音情報記憶部121に格納する。ルームR2、R3、R4についてもこれまでの説明の通りであるため省略する。
In the example of the room R1 shown in FIG. 1, the
また、情報処理装置100は、スマートスピーカー30から取得したコンテキストデータをコンテキスト情報記憶部122に格納する。図1の例では、コンテキスト情報記憶部122は、「ユーザID」、「日時」、「コンテキストデータ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日時」は、スマートスピーカー30によって、ユーザのコンテキストが検知された日時を示す。なお、「日時」には「曜日」も含まれてよく、かかる場合、「日時」はカレンダー情報と解することもできる。「コンテキストデータ」は、スマートスピーカー30によって検知されたコンテキストのデータを示す。
The
図1に示すルームR1の例では、スマートスピーカー30は、ユーザU1について「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する、といった行動に出る」というコンテキストを検知している。そして、スマートスピーカー30は、この検知結果のデータを示すコンテキストデータDA11-2を情報処理装置100に送信している。したがって、情報処理装置100は、ユーザID「U1」と、日時「2018年7月1日7時04分」と、コンテキスト「ニュースを流すよう音声指示する」を示すコンテキストデータDA11-2とを対応付けてコンテキスト情報記憶部122に格納する。ルームR2、R3、R4についてもこれまでの説明の通りであるため省略する。
In the example of the room R1 shown in FIG. 1, the
次に、情報処理装置100は、コンテキストが示す状況が発生する前において発生した環境音を取得する(ステップS3)。例えば、情報処理装置100は、ユーザ毎に、コンテキストが示す状況が発生する前において発生した環境音を取得する。例えば、情報処理装置100は、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。例えば、情報処理装置100は、環境音情報記憶部121とコンテキスト情報記憶部122とを比較して、ユーザ毎に、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音(環境音データ)を取得する。例えば、情報処理装置100は、環境音情報記憶部121から環境音データを取得する。
Next, the
図1の例では、情報処理装置100は、各「ユーザ」について、各「日付」の「時間帯」毎に、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音の環境音データを取得する。本実施形態では、情報処理装置100は、コンテキストが示す状況が起こるよりも前の5分以内に発生した環境音の環境音データを取得するものとする。この時間条件は、必ずしも5分以内である必要はない。
In the example of FIG. 1 , the
なお、コンテキストが示す状況とは、コンテキストによって示されるユーザの行動状況である。したがって、例えば、コンテキストデータDA11-2が示す状況については、「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA21-2が示す状況については、「2018年7月1日7時33分においてユーザU2はラジオショッピングを流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA31-2が示す状況については、「2018年7月1日18時04分においてユーザU3はK区の交通情報を流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA41-2が示す状況については、「2018年7月1日8時05分においてユーザU4は料理番組を流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。 The situation indicated by the context is the user's action situation indicated by the context. Therefore, for example, the situation indicated by the context data DA11-2 can be rephrased as a situation in which the user U1 performs an action of "at 7:04 on July 1, 2018, the user U1 issues a voice instruction to broadcast news." can be done. In addition, for example, the situation indicated by the context data DA21-2 can be rephrased as a situation in which the user U2 performs a voice instruction to play radio shopping at 7:33 on July 1, 2018. be able to. Further, for example, regarding the situation indicated by the context data DA31-2, there was a situation in which the user U3 took the action of "at 18:04 on July 1, 2018, the user U3 issues a voice instruction to broadcast the traffic information of Section K." , can be rephrased. In addition, for example, the situation indicated by the context data DA41-2 can be rephrased as a situation in which the user U4 performs a voice instruction to play a cooking program at 8:05 on July 1, 2018. be able to.
そして、ルームR1の例では、環境音情報記憶部121とコンテキスト情報記憶部122とを比較すると、ユーザU1について「2018年7月1日の7時台」では、コンテキストデータDA11-2が示す状況が起こるよりも前の5分以内に、環境音データDA11-1が示す環境音(カーテンの音)が発生していることがわかる。また、このようなことから、コンテキストデータDA11-2が示すコンテキスト(ユーザ行動)は、環境音データDA11-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA11-1を取得する。また、情報処理装置100は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA11-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。また、情報処理装置100は、別の日付についても、同様にして時間帯毎にデータを取得し対象情報記憶部123に格納する。
In the example of room R1, when comparing the environmental sound
また、ルームR2の例では、ユーザU2ついて「2018年7月1日の7時台」では、コンテキストデータDA21-2が示す状況が起こるよりも前の3分以内に、環境音データDA21-1が示す環境音(コーヒー豆を挽く音)が発生していることがわかる。また、このようなことから、コンテキストデータDA21-2が示すコンテキストは、環境音データDA21-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA21-1を取得する。また、情報処理装置100は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA21-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。
In addition, in the example of room R2, for user U2, at “7:00 on July 1, 2018”, environmental sound data DA21-1 is generated within three minutes before the situation indicated by context data DA21-2 occurs. It can be seen that the environmental sound indicated by (the sound of grinding coffee beans) is being generated. Also, from this, it can be said that the context indicated by the context data DA21-2 corresponds to the environmental sound indicated by the environmental sound data DA21-1. Therefore, in this example, the
また、ルームR3の例では、ユーザU3について「2018年7月1日の18時台」では、コンテキストデータDA31-2が示す状況が起こるよりも前の4分以内に、環境音データDA31-1が示す環境音(テレビ音)が発生していることがわかる。また、このようなことから、コンテキストデータDA31-2が示すコンテキストは、環境音データDA31-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の18時台」に合わせて、環境音情報記憶部121から環境音データDA31-1を取得する。また、報処理装置100は、「2018年7月1日の18時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA31-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。
In addition, in the example of room R3, for user U3, at “18:00 on July 1, 2018”, environmental sound data DA31-1 is generated within four minutes before the situation indicated by context data DA31-2 occurs. It can be seen that the environmental sound (TV sound) indicated by is occurring. In addition, it can be said that the context indicated by the context data DA31-2 corresponds to the environmental sound indicated by the environmental sound data DA31-1. Therefore, in this example, the
また、ルームR4の例では、ユーザU4について「2018年7月1日の8時台」では、コンテキストデータD41-2が示す状況が起こるよりも前の5分以内に、環境音データDA41-1が示す環境音(ガスコンロ音)が発生していることがわかる。また、このようなことから、コンテキストデータDA41-2が示すコンテキストは、環境音データDA41-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の8時台」に合わせて、環境音情報記憶部121から環境音データDA41-2を取得する。また、情報処理装置100は、「2018年7月1日の8時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA41-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。
In addition, in the example of room R4, for user U4, at “8:00 on July 1, 2018”, environmental sound data DA41-1 is generated within five minutes before the situation indicated by context data D41-2 occurs. It can be seen that the environmental sound (gas stove sound) indicated by is occurring. Also, from this, it can be said that the context indicated by the context data DA41-2 corresponds to the environmental sound indicated by the environmental sound data DA41-1. Therefore, in this example, the
対象情報記憶部123は、後述する分析処理に用いられる情報を記憶する。ここで、図1の例では、対象情報記憶部123は、「ユーザID」、「日付」、「時間帯」、「コンテキストデータ」、「環境音データ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日付」は、対応する「コンテキストデータ」および「環境音データ」が検知された日付を示す。「時間帯」は、対応する「コンテキストデータ」および「環境音データ」が検知された時間帯を示す。すなわち、情報処理装置100は、コンテキスト情報記憶部122および環境音情報記憶部121から取得したデータを「ユーザID」、「日付」、「時間帯」に対応付けて、対象情報記憶部123に格納する。
The target
次に、情報処理装置100は、対象情報記憶部123に格納されている環境音(環境音データ)、および、コンテキスト(コンテキストデータ)を用いて、環境音とコンテキストとの関係性を分析(学習)する分析処理(学習処理)を行う(ステップS4)。情報処理装置100は、かかる分析処理として、例えば、相関分析(教師なし学習)を行うことができる。例えば、情報処理装置100は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、相関分析を行う。
Next, the
ユーザU1を例に挙げると、情報処理装置100は、例えば、対象情報記憶部123格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、相関分析を行う。これにより、情報処理装置100は、ある時間帯においては、どのような環境音の後(5分以内)には、ユーザU1はどのようなコンテキストの傾向にあるかといった、時間的傾向を捉えることができる。なお、ここでの特徴情報は、環境音から抽出される特徴情報であって、ユーザの特徴を示す特徴情報である。
Taking the user U1 as an example, the
そして、図1の例では、情報処理装置100は、ユーザU1~U4について、環境音とコンテキストとの間に次のような相関関係があるとの分析結果を得たとする。具体的には、情報処理装置100は、「7時台にカーテン音を示す環境音が発生した場合、カーテン音の後5分以内に、ユーザU1はスマートスピーカー30に対してニュースを流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。また、情報処理装置100は、「7時台にコーヒーメーカー音を示す環境音が発生した場合、コーヒーメーカー音の後5分以内に、ユーザU2はスマートスピーカー30に対してラジオショッピングを流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。
In the example of FIG. 1, the
また、情報処理装置100は、「18時台にテレビ音を示す環境音が発生した場合、テレビ音の後5分以内に、ユーザU3はスマートスピーカー30に対してK区の交通情報を流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。また、情報処理装置100は、「8時台にガスコンロ音を示す環境音が発生した場合、ガスコンロ音の後5分以内に、ユーザU4はスマートスピーカー30に対して料理番組を流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。
Further, the
そうすると、情報処理装置100は、ステップS4での分析結果に基づいて、ユーザに所定の情報を出力するタイミングを決定する(ステップS5)。例えば、情報処理装置100は、ユーザのスマートスピーカー30に対して、所定の情報を出力させるタイミングを決定する。例えば、情報処理装置100は、ユーザのコンテキストのうち、環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。時間的傾向とは、上で説明した相関関係のことである。
Then, the
図1の例では、情報処理装置100は、環境音と相関関係にあるコンテキストの発生時刻と、この環境音の発生時刻との間での時間間隔に基づいて、出力タイミングを決定する。ルームR1の例では、情報処理装置100は、7時台におけるカーテン音と、7時台におけるユーザU1のコンテキスト(ニュースを流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではカーテン音発生から5分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「5分もしくはそれ以下」である。
In the example of FIG. 1, the
したがって、情報処理装置100は、ルームR1において7時台にカーテン音が検知された場合には、そのカーテン音が検知された時刻から5分以内の時刻を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日7時05分10秒」を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
Therefore, when the curtain sound is detected around 7:00 in the room R1, the
次に、ルームR2の例では、情報処理装置100は、7時台におけるコーヒーメーカー音と、7時台におけるユーザU2のコンテキスト(ラジオショッピングを流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではコーヒーメーカー音発生から3分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「3分もしくはそれ以下」である。
Next, in the example of room R2, the
したがって、情報処理装置100は、ルームR2において7時台にコーヒーメーカー音が検知された場合には、そのコーヒーメーカー音が検知された時刻から3分以内の時刻を、ユーザU2に向けてスマートスピーカー30からラジオショッピングを出力させるタイミングとして決定する。例えば、「2018年7月2日7時06分00秒」にスマートスピーカー30によってコーヒーメーカー音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日7時06分10秒」を、ユーザU2に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
Therefore, when the sound of the coffee maker is detected around 7:00 in the room R2, the
次に、ルームR3の例では、情報処理装置100は、18時台におけるテレビ音と、18時台におけるユーザU3のコンテキスト(K区の交通情報を流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではテレビ音発生から4分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「4分もしくはそれ以下」である。
Next, in the example of room R3, the
したがって、情報処理装置100は、ルームR3において18時台にテレビ音が検知された場合には、そのテレビ音が検知された時刻から4分以内の時刻を、ユーザU3に向けてスマートスピーカー30から交通情報を出力させるタイミングとして決定する。例えば、「2018年7月2日18時07分00秒」にスマートスピーカー30によってテレビ音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日18時07分10秒」を、ユーザU3に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
Therefore, when the TV sound is detected in the room R3 around 18:00, the
次に、ルームR4の例では、情報処理装置100は、8時台におけるガスコンロ音と、8時台におけるユーザU4のコンテキスト(料理番組を流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではガスコンロ音発生から5分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「5分もしくはそれ以下」である。
Next, in the example of room R4, the
したがって、情報処理装置100は、ルームR4において8時台にテレビ音が検知された場合には、そのテレビ音が検知された時刻から5分以内の時刻を、ユーザU4に向けてスマートスピーカー30から料理番組を出力させるタイミングとして決定する。例えば、「2018年7月2日8時08分00秒」にスマートスピーカー30によってガスコンロ音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日8時08分10秒」を、ユーザU4に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
Therefore, when the TV sound is detected around 8:00 in the room R4, the
さて、これまで説明してきたように、実施形態にかかる情報処理装置100は、ユーザの周辺環境の環境音を取得し、取得した環境音に対して時間的傾向に基づく関係(相関関係)性にあるコンテキストに基づいて、ユーザに対して情報出力するタイミングを決定する。これにより、情報処理装置100は、例えば、特定の時間帯において特定の環境音が発生した場合には、その後(例えば、数秒後や数分後)のユーザの行動(コンテキスト)はこうなると予測することができるため、ユーザがその行動を行う前にユーザがその行動を行う必要のないよう先回りした動作を実行することができる。このため、情報処理装置100は、ユーザの行動を手助けすることができる。
Now, as explained so far, the
なお、図1の例では、情報処理装置100は、コンテキストが示す状況が起こるよりも前の5分以内に発生した環境音の環境音データを取得する例を示した。しかし、情報処理装置100は、コンテキストが示す状況が起こる直前(例えば、10秒以内)に発生した環境音を取得してもよい。なぜなら、例えば、ユーザU1であれば、行動がパターン化されている場合、カーテンを開けるといった行動に連動して、そのあと直ぐ(例えば、10秒以内)にニュースを流すよう指示することが多いと考えられるためである。また、こうした場合、情報処理装置100は、上記の様に傾向が取得できれば、ある日、カーテン音が検出された場合には、検出された直後(例えば、3秒後)の時刻を情報提供のタイミングとして決定する。
In the example of FIG. 1, the
〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態にかかる情報処理装置100について説明する。図3は、実施形態にかかる情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。例えば、情報処理装置100は、図1で説明した情報処理を行うサーバ装置である。
[2. Configuration of Information Processing Device]
Next, the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、出力装置30との間で情報の送受信を行う。
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits/receives information to/from the
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、環境音情報記憶部121と、コンテキスト情報記憶部122と、対象情報記憶部123とを有する。
(Regarding storage unit 120)
The storage unit 120 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 has an environmental sound
(環境音情報記憶部121について)
環境音情報記憶部121は、スマートスピーカー30によって検知された環境音に関する情報を記憶する。ここで、図4に実施形態にかかる環境音情報記憶部121の一例を示す。図4の例では、環境音情報記憶部121は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。環境音情報記憶部121については、図1で既に説明しているため、ここでの詳細な説明は省略する。なお、環境音情報記憶部121は、図4に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。
(Regarding the environmental sound information storage unit 121)
The environmental sound
例えば、情報処理装置100は、スマートスピーカー30によって環境音が検知されたときの「天候」情報を所定の外部のサーバ装置から取得することができる。また、ユーザが例えば、各種センサを備えたウェアラブル端末を装着している場合には、情報処理装置100は、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」情報をウェアラブル端末から取得することができる。また、情報処理装置100は、スマートスピーカー30によって環境音が検知された前後において、ユーザが自身の体調に関して発話していた場合には、その発話情報が示す体調を、現在のユーザの体調として取得してもよい。
For example, the
(コンテキスト情報記憶部122について)
コンテキスト情報記憶部122は、スマートスピーカー30によって検知されたユーザのコンテキストに関する情報を記憶する。ここで、図5に実施形態にかかるコンテキスト情報記憶部122の一例を示す。図5の例では、コンテキスト情報記憶部122は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。コンテキスト情報記憶部122については、図1で既に説明しているため、ここでの詳細な説明は省略する。なお、コンテキスト情報記憶部122は、図5に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。
(Regarding the context information storage unit 122)
The context information storage unit 122 stores information about the user's context sensed by the
(対象情報記憶部123について)
対象情報記憶部123は、機械学習(相関分析)に用いられる情報を記憶する。例えば、対象情報記憶部123は、環境音情報記憶部121から取得された環境音データと、コンテキスト情報記憶部122から取得されたコンテキストデータとを対応付けて記憶する。また、ここで対応付けられる環境音データとコンテキストデータとは、例えば、「カーテンを開けた直後に、音声指示する」といったユーザの一連の行動の中で関連性を有するものである。
(Regarding the target information storage unit 123)
The target
ここで、図6に実施形態にかかる対象情報記憶部123の一例を示す。図6の例では、対象情報記憶部123は、「ユーザID」、「日付」、「時間帯」、「コンテキストデータ」、「環境音データ」といった項目を有する。対象情報記憶部123については、図1で既に説明しているため、ここでの詳細な説明は省略する。なお、対象情報記憶部123は、図6に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。
Here, FIG. 6 shows an example of the target
図1では、情報処理装置100は、各ユーザについて、「時間帯」毎に環境音とコンテキストとの関係性を分析(学習)することで、ある時間帯においては、どのような環境音の後にはユーザはどのようなコンテキストの傾向にあるかといった、「時間帯」での傾向を捉えることができる例を示した。
In FIG. 1 , the
しかし、情報処理装置100は、対象情報記憶部123が項目「曜日」を有することで、「天候」毎に「時間帯」での傾向を捉えることができる。また、情報処理装置100は、対象情報記憶部123が項目「天候」を有することで、「天候」毎に「時間帯」での傾向を捉えることができる。また、情報処理装置100は、対象情報記憶部123が項目「体調」を有することで、「体調」毎に「時間帯」での傾向を捉えることができる。
However, since the target
図3に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、決定装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
Returning to FIG. 3, the
図3に示すように、制御部130は、受信部131と、取得部132と、分析部133と、決定部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 3, the
(受信部131について)
受信部131は、スマートスピーカー30から送信された情報を受信する。例えば、受信部131は、スマートスピーカー30によって検知された環境音の環境音データ、および、スマートスピーカー30によって検知されたコンテキストのコンテキストデータを、スマートスピーカー30から受信(取得)する。
(Regarding the receiving unit 131)
The receiving
(取得部132について)
取得部132は、ユーザの周辺環境の環境音を取得する。例えば、取得部132は、ユーザの周辺環境の環境音をユーザ毎に取得する。例えば、取得部132は、ユーザの周辺環境の環境音として、ユーザの生活空間内での環境音を取得する。また、取得部132は、ユーザの周辺環境の環境音として、ユーザのコンテキストが示す状況が起こるよりも前に発生した環境音を取得する。また、取得部132は、ユーザのコンテキストが示す状況よりも前に発生した環境音として、ユーザのコンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。また、取得部132は、環境音として、スマートスピーカー30により検知された環境音のデータ(環境音データ)を取得する。
(Regarding the acquisition unit 132)
The acquisition unit 132 acquires environmental sounds of the user's surrounding environment. For example, the acquisition unit 132 acquires environmental sounds of the user's surrounding environment for each user. For example, the acquisition unit 132 acquires the environmental sounds in the living space of the user as the environmental sounds of the user's surrounding environment. In addition, the acquisition unit 132 acquires, as the environmental sound of the user's surrounding environment, the environmental sound that occurred before the situation indicated by the user's context occurred. In addition, the acquisition unit 132 acquires environmental sounds that occurred within a predetermined period of time before the situation indicated by the user's context occurred, as environmental sounds that occurred before the situation indicated by the user's context. In addition, the acquisition unit 132 acquires environmental sound data (environmental sound data) detected by the
図1の例では、ユーザU1ついて「2018年7月1日の7時台」では、コンテキストデータDA11-2が示す状況が起こるよりも前の5分以内に、環境音データDA11-1が示す環境音(カーテンの音)が発生している。したがって、かかる例では、取得部132は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA11-1を取得する。また、取得部132は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA11-2を取得する。
In the example of FIG. 1, for the user U1, at “7:00 on July 1, 2018”, within 5 minutes before the situation indicated by the context data DA11-2 occurs, the environmental sound data DA11-1 indicates Environmental sound (curtain sound) is being generated. Therefore, in this example, the acquisition unit 132 acquires the environmental sound data DA11-1 from the environmental sound
そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。ユーザU1以外のユーザU2~U4についても、取得部132は、同様にして環境音データを取得するが、図1の説明の通りであるため省略する。
The
(分析部133について)
分析部132は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析(学習)する。例えば、分析部132は、環境音から抽出される特徴情報であって、ユーザの特徴を示す特徴情報と、前記ユーザのコンテキストとの関係性を分析する。また、分析部133は、学習部133と言い換えることができる。例えば、分析部132は、対象情報記憶部123に格納されている各項目をユーザの特徴情報として、環境音とコンテキストとの関係性を分析する。
(Regarding the analysis unit 133)
The analysis unit 132 analyzes (learns) the relationship between the environmental sounds acquired by the acquisition unit 132 and the user's context. For example, the analysis unit 132 analyzes the relationship between the feature information, which is feature information extracted from the environmental sound and indicates the features of the user, and the context of the user. Also, the
例えば、分析部133は、相関分析(教師なし学習)を行うことができる。例えば、分析部133は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、相関分析を行う。ユーザU1を例に挙げると、分析部133は、対象情報記憶部123に格納に格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、相関分析を行う。これにより、情報処理装置100は、ある時間帯においては、どのような環境音の後(5分以内)には、ユーザU1はどのようなコンテキストの傾向にあるかといった、時間的傾向を捉えることができる。
For example, the
なお、分析部132は、対象情報記憶部123の項目「時間帯」以外にも、「曜日」、「天候」、「体調」に対応するコンテキストデータと、環境音データデータとを変数(特徴情報)として、相関分析を行ってもよい。
Note that the analyzing unit 132 stores the context data corresponding to the “day of the week”, the “weather”, and the “physical condition” and the environmental sound data as variables (feature information) in addition to the item “time period” of the target
(決定部134について)
決定部134は、取得部132により取得された環境音に対応するユーザのコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。例えば、決定部134は、ユーザのコンテキストとして、所定の出力装置(例えば、スマートスピーカー30)に対する操作を示すコンテキストに基づいて、所定の情報を出力するタイミングを決定する。具体的には、決定部134は、所定の出力装置に対する操作として、所定の出力装置に対する音声操作を示すコンテキストに基づいて、所定の情報を出力するタイミングを決定する。
(About decision unit 134)
The
また、例えば、決定部134は、所定の情報として、コンテキストが示す情報であって、ユーザがコンテキストの中で要求している情報を出力するタイミングを決定する。図1の例では、ユーザU1がスマートスピーカー30に対してニュースの出力を要求している。このような要求が、ユーザがコンテキストの中で要求している情報に対応する。
Also, for example, the determining
また、決定部134は、取得部132により取得された環境音が発生した発生時刻と、当該環境音に対応するコンテキストが示す時刻とに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。具体的には、決定部134は、分析部133による分析結果に基づき環境音と所定の関係性(時間的傾向の関係)にあるコンテキストが示す発生時刻と、環境音の発生時刻との間での時間間隔に基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。
Further, the determining
一例を示すと、決定部134は、上記発生時刻に対応する時間帯において、コンテキストと所定の関係性にある環境音が検知された場合には、当該環境音が検知された時刻から時間間隔以内の時刻を、所定の情報を出力するタイミングとして決定する。
As an example, if an environmental sound having a predetermined relationship with the context is detected in the time period corresponding to the time of occurrence, the
図1の例では、分析部133は、7時台におけるカーテン音と、7時台におけるユーザU1のコンテキスト(ニュースを流させる音声指示)とは相関関係(時間的傾向の関係)にあるとの分析結果を得ている。したがって、決定部134は、ルームR1において7時台にカーテン音が検知された場合には、そのカーテン音が検知された時刻から5分以内の時刻を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、決定部134は、「2018年7月2日7時05分10秒」(10秒後)を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。
In the example of FIG. 1, the
〔3.処理手順〕
次に、図7を用いて、実施形態にかかる情報処理の手順について説明する。図7は、実施形態にかかる情報処理手順を示すフローチャートである。
[3. Processing procedure]
Next, the procedure of information processing according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an information processing procedure according to the embodiment;
まず、受信部131は、スマートスピーカー30から、スマートスピーカー30を使用するユーザの周辺環境の環境音を示す環境音データと、このユーザのコンテキストを示すコンテキストデータとを受信したか否かを判定する(ステップS101)。受信部131は、データを受信していないと判定した場合には(ステップS101;No)、データを受信するまで待機する。
First, the receiving
一方、取得部132は、受信部131によりデータを受信したと判定された場合には(ステップS101;Yes)、ユーザのコンテキストが起こった時刻よりも前(例えば、30秒前)に発生した環境音を示す環境音データを取得する(ステップS102)。受信部131は、環境音データを受信する度に、受信した環境音データを環境音情報記憶部121に格納する。また、受信部131は、コンテキストデータを受信する度に、受信したコンテキストデータをコンテキスト情報記憶部122に格納する。したがって、取得部132は、これらの記憶部内の格納データを比較することで、ユーザのコンテキストが起こった時刻よりも前(例えば、30秒前)に発生した環境音を示す環境音データを環境音情報記憶部121から取得する。
On the other hand, when the receiving
また、取得部132は、取得した環境音データに対応するコンテキストデータも同時に取得する。例えば、取得部132は、かかるコンテキストデータをコンテキスト情報記憶部122から取得する。そして、取得部132は、取得した環境音データとコンテキストデータとの組合せを時間帯に対応付けて対象情報記憶部123に格納する。
The acquisition unit 132 also acquires context data corresponding to the acquired environmental sound data at the same time. For example, the acquisition unit 132 acquires such context data from the context information storage unit 122 . Then, the acquisition unit 132 stores the combination of the acquired environmental sound data and the context data in the target
次に、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストを用いて、環境音とコンテキストとの関係性を分析(学習)する(ステップS103)。例えば、分析部133は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、環境音とコンテキストとの関係性を分析する。例えば、分析部133は、対象情報記憶部123に格納に格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、各時間帯について相関分析を行う。
Next, the
次に、決定部134は、分析部133による分析結果に基づいて、スマートスピーカー30に対して、ユーザがコンテキストの中で要求している情報を出力させる出力タイミングを決定する(ステップS104)。例えば、決定部134は、分析部133による分析結果に基づき環境音と所定の関係性(時間的傾向の関係)にあるコンテキストが示す発生時刻と、この環境音の発生時刻との間での時間間隔に基づいて、出力タイミングを決定する。例えば、決定部134は、ある日において、この環境音が検知された場合には、その後ユーザがパターン化していると考えられる行動(コンテキスト)に移行すると考えられる時刻よりも早い時刻を、このコンテキストで要求されている情報の出力タイミングとして決定する。
Next, the
また、決定部134は、決定したタイミングでスマートスピーカー30が情報出力するようスマートスピーカー30に対して出力制御する。スマートスピーカー30は、決定部134による出力制御に応じて情報を出力する。
Further, the
〔4.変形例〕
上記実施形態にかかる情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[4. Modification]
The
〔4-1.関係性分析について(1)〕
上記実施形態では、分析部133が、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析する一例として、相関分析を行う例を示した。しかし、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、環境音に対するコンテキストの傾向を示すモデルを生成してもよい。より具体的には、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、検知された環境音とこの環境音の発生時刻とを入力すると、この環境音と相関関係にあるコンテキストに基づく情報を出力するタイミングを決定(出力)するモデルを生成してもよい。これにより、情報処理装置100は、ある環境音が検知された場合、どんな情報をどのタイミングで出力させれば位よいかを捉えることができる。
[4-1. Regarding relationship analysis (1)]
In the above embodiment, the
かかる場合、図1の例では、コンテキスト情報記憶部122に格納される「日時」と「コンテキストデータ」との組合せが、分析部133が生成するモデルの目的変数となる。また、環境音情報記憶部121に格納される「日時」と「環境音データ」との組合せが、説明変数となる。なお、説明変数(特徴情報)には、さらに「曜日」、「天候」、「体調」等が用いられてもよい。
In such a case, in the example of FIG. 1, the combination of the “date and time” and the “context data” stored in the context information storage unit 122 becomes the objective variable of the model generated by the
なお、分析部133が生成するモデルに関する学習手法は、下記の例に限らず、種々の既知の機械学習の手法が採用されてもよい。
Note that the learning method for the model generated by the
例えば、分析部133は、カーテン音を示す環境音データから抽出される個々の特徴情報が、例えば「ユーザU1がカーテン音が発生した後の5分以内にスマートスピーカー30に対してニュースを流すよう音声指示する」という事象に対して、どのような重みを有するかを算出する。これにより、分析部133は、「ユーザU1がカーテン音が発生した後の5分以内にスマートスピーカー30に対してニュースを流すよう音声指示する」という事象に対して、個々の特徴情報がどのくらい寄与するのかといった情報を得ることができる。そして、分析部133は、算出した情報を用いて、傾向を示すモデルを生成する。
For example, the
また、決定部134は、分析部133により生成されたモデルを用いて、出力タイミングを決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、決定部134は、「2018年7月2日7時05分00秒」と、カーテン音を示す環境音データとを、上記生成されたモデルに入力する。例えば、このときの出力結果が「2018年7月2日7時05分10秒において、ニュースを出力させる」ことであるとすると、決定部134は、「2018年7月2日7時05分10秒」を出力タイミングとして決定する。
Also, the
〔4-2.関係性分析について(2)〕
上記実施形態では、分析部133が、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析する一例として、相関分析を行う例を示した。しかし、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、取得部132により取得された環境音が発生した後の所定時間内におけるユーザのコンテキストの傾向を示すモデルを生成してもよい。かかるモデルは、検知された環境音とこの環境音の発生時刻とを入力すると、この環境音と相関関係にあるコンテキストに基づく情報を出力するタイミングを決定(出力)するモデルと言い換えることができる。これにより、情報処理装置100は、ある環境音が検知された場合、どんな情報をどのタイミングで出力させれば位よいかを捉えることができる。
[4-2. Regarding relationship analysis (2)]
In the above embodiment, the
また、分析部133は、取得部132により取得された環境音であってユーザ毎に取得された環境音と、当該ユーザのコンテキストとの関係性を学習することにより、ユーザ毎にモデルを生成する。一方で、分析部133は、取得部132により取得された環境音であって所定の複数のユーザについて取得された環境音と、当該所定の複数のユーザのコンテキストとの関係性を学習することにより、当該所定の複数のユーザに対応するモデルを生成してもよい。かかる場合、分析部133は、所定の複数のユーザのコンテキストを、所定の複数のユーザのコンテキストを平均した平均コンテキストとして、モデルを生成することができる。
In addition, the
また、決定部134は、所定の情報を出力する出力対象のユーザ以外のユーザである他ユーザのモデルに基づいて、出力対象のユーザに対して所定の情報を出力するタイミングを決定してもよい。ここで、分析部134が、出力対象のユーザ(例えば、ユーザU1)のモデルを生成する場合、ユーザU1について所定期間分のコンテキスト情報が蓄積されている必要がある。コンテキスト情報が十分な数蓄積されていないと、精度の高いモデルを生成できない場合があることも、背景の一つである。したがって、決定部134は、ユーザU1のコンテキスト情報が不足しているため分析部133によりユーザU1に対応するモデルが生成されていない場合には、例えば、十分な数のコンテキスト情報に基づき既にモデルが生成されている他ユーザ(例えば、ユーザU2)のモデルに基づいて、ユーザU1に所定の情報を出力するタイミングを決定する。
Further, the determining
なお、決定部134は、必ずしも、分析部133によりユーザU1に対応するモデルが生成されていない場合に限って、他ユーザ(例えば、ユーザU2)のモデルに基づいて、ユーザU1に所定の情報を出力するタイミングを決定する必要はない。
Note that the
〔4-3.環境音について〕
上記実施形態では、情報処理装置100による情報処理に用いられる対象の環境音は、ユーザの周辺環境の環境音であり、これらは人物が物体に触れることにより発生する環境音であったり、機器から出力される機械音である例を示した。しかし、ユーザの周辺環境の環境音は、これらに限定される必要はなく、例えば、人物の話し声等であってもよい。例えば、複数の人物が会話していることによる、会話の雑音(ガヤガヤ音)が挙げられる。例えば、例えば、ホームHP1のあるルームR1では、頻繁に20時台にパーティーが行われ、このときユーザU1の音声指示により、スマートスピーカーからいつも特定の音楽(BGM)が流されるものとする。
[4-3. About environmental sounds]
In the above embodiment, the environmental sounds to be used for information processing by the
かかる場合、情報処理装置100は、20時台において会話の雑音が検知されると、ユーザU1は特定のBGMを流すとの傾向を学習結果により得ることができる。そうすると、これまで説明したきたように、例えば、情報処理装置100は、次回のパーティーにて、20時台において会話の雑音が検知されると、ユーザU1よる操作よりも先に、スマートスピーカー30からBGMを出力させることができる。
In such a case, the
〔4-4.スタンドアロン形式〕
上記実施形態では、情報処理装置100が、スマートスピーカー30と連携することにより、実施形態にかかる情報処理を行う例をしました。しかしながら、情報処理装置100が行うものとして説明した情報処理は、スマートスピーカー30側で単独(スタンドアロン)で行われてもよい。また、かかる場合、実施形態にかかる情報処理システム1には、情報処理装置100は含まれず、また、スマートスピーカー30は、情報処理装置100を含め、他の外部装置に対して、検知した環境音やコンテキストのデータを送信することもない。また、そうすると、スマートスピーカー30は、図3で説明した受信部131を有していなくともよい。
[4-4. Standalone format]
In the above embodiment, the
〔4-5.タイミングについて〕
上記実施形態では、決定部134が、スマートスピーカー30から情報出力(音声出力)させる例を示した。しかし、決定部134が情報出力させる対象の機器は、スマートスピーカー30に限定されない。例えば、決定部134は、ユーザの端末装置10からコンテンツを出力(表示)させるタイミングを決定してもよい。
[4-5. About timing]
In the above embodiment, an example in which the
例えば、ユーザU1は毎朝7時に起床すると、端末装置10を手に取り端末装置10を起動させてから、端末装置10で天気予報サイトを閲覧することがパターン化されているとする。端末装置10を手に取る場合や、端末装置10を起動させる場合には、環境音が発生する。そうすると、情報処理装置100は、例えば、この環境音とコンテキスト(端末装置10で天気予報サイトを閲覧する)との間に傾向を示す関係性があるとの学習結果を得られる場合がある。
For example, assume that user U1 wakes up at 7:00 every morning, picks up the terminal device 10, activates the terminal device 10, and then browses the weather forecast site on the terminal device 10. Environmental sounds are generated when the terminal device 10 is picked up or when the terminal device 10 is activated. Then, the
これにより、情報処理装置100は、例えば、ユーザU1が起床して端末装置10を起動させるとすぐに、動的に天気予報サイトを表示させることができる。あるいは、情報処理装置100は、ユーザU1が天気予報サイトでどの地域の天気を調べる傾向にあるのかまで特定できている場合には、その地域の天気情報をプッシュ通知させてもよい。
Accordingly, the
〔5.ハードウェア構成〕
また、上記実施形態にかかるスマートスピーカー30および情報処理装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図8は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
Also, the
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
For example, when the
また、例えば、コンピュータ1000が実施形態にかかるスマートスピーカー30として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部13の機能を実現する。
Also, for example, when the
〔6.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[6. others〕
Of the processes described in each of the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or all of the processes described as being performed manually Alternatively, some can be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, the embodiments of the present application have been described in detail based on several drawings, but these are examples, and various modifications and It is possible to carry out the invention in other forms with modifications.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 情報処理システム
10 端末装置
30 出力装置
100 情報処理装置
120 記憶部
121 環境音情報記憶部
122 コンテキスト情報記憶部
123 対象情報記憶部
130 制御部
131 受信部
132 取得部
133 分析部
134 決定部
1 information processing system 10
Claims (16)
前記取得部により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析部と、
前記ユーザのコンテキストのうち、前記分析部による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定部と
を有し、
前記決定部は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
ことを特徴とする情報処理装置。 an acquisition unit that acquires environmental sounds of the user's surrounding environment;
an analysis unit that analyzes the relationship between the environmental sound acquired by the acquisition unit and the context of the user corresponding to the environmental sound;
Predetermined information is provided to the user based on the context of the user, which is indicated by the analysis result of the analysis unit and which has a relationship indicating a temporal tendency with respect to the environmental sound. and a determination unit that determines the output timing ,
The determination unit determines a timing to output information requested by a user in a context having a relationship indicating a temporal tendency to the environmental sound as the predetermined information.
An information processing device characterized by:
ことを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the acquisition unit acquires environmental sounds in the user's living space as the environmental sounds of the user's surrounding environment.
ことを特徴とする請求項1または2に記載の情報処理装置。 The information processing according to claim 1 or 2, wherein the acquisition unit acquires, as the environmental sound of the user's surrounding environment, an environmental sound that occurred before a situation indicated by the user's context occurred. Device.
ことを特徴とする請求項3に記載の情報処理装置。 The acquisition unit acquires, as the environmental sound generated before the situation indicated by the user's context, an environmental sound that occurred within a predetermined period of time before the situation indicated by the user's context occurred. The information processing apparatus according to claim 3.
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。 The determination unit determines the timing of outputting the predetermined information based on a context indicating an operation on a predetermined output device as a context having a relationship indicating a temporal tendency with respect to the environmental sound. The information processing apparatus according to any one of claims 1 to 4.
ことを特徴とする請求項5に記載の情報処理装置。 6. The determining unit determines the timing of outputting the predetermined information based on a context indicating a voice operation on the predetermined output device as the operation on the predetermined output device. information processing equipment.
ことを特徴とする請求項1~6のいずれか1つに記載の情報処理装置。 The determination unit identifies, from the analysis results of the analysis unit, contexts of the user that have a relationship indicating a temporal tendency to the environmental sound, and based on the identified context, 7. The information processing apparatus according to any one of claims 1 to 6, wherein timing for outputting the predetermined information is determined.
ことを特徴とする請求項1~7のいずれか1つに記載の情報処理装置。 The method according to any one of claims 1 to 7, wherein the analysis unit analyzes the relationship between the feature information extracted from the environmental sound and indicating the features of the user and the context of the user. The information processing device according to any one of the above.
前記決定部は、前記分析部により生成されたモデルに基づいて、前記ユーザに対して前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。 The analysis unit learns the relationship between the environmental sound acquired by the acquisition unit and the user's context, thereby indicating the tendency of the user's context within a predetermined time period after the environmental sound is generated. generate the model,
9. The method according to any one of claims 1 to 8 , wherein the determining unit determines timing for outputting the predetermined information to the user based on the model generated by the analyzing unit. information processing equipment.
前記決定部は、前記ユーザ毎のモデルのうち、出力先のユーザ以外のユーザである他ユーザのモデルに基づいて、前記出力先のユーザに対して前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項9に記載の情報処理装置。 The analysis unit generates the model for each user,
The determination unit determines the timing of outputting the predetermined information to the output destination user based on a model of another user who is a user other than the output destination user among the models for each user. 10. The information processing apparatus according to claim 9 , characterized by:
ことを特徴とする請求項1~10のいずれか1つに記載の情報処理装置。 The analysis unit generates the environmental sound and the The information processing apparatus according to any one of claims 1 to 10 , wherein the relationship with the user's context is analyzed .
ことを特徴とする請求項1~11のいずれか1つに記載の情報処理装置。 The determining unit, based on the time interval between the time of occurrence indicated by a context having a relationship indicating a temporal tendency with respect to the environmental sound and the time of occurrence of the environmental sound, to the user The information processing apparatus according to any one of claims 1 to 11 , wherein the timing for outputting predetermined information is determined.
ことを特徴とする請求項12に記載の情報処理装置。 When an environmental sound having a relationship indicating a temporal tendency with the context is detected in a time zone corresponding to the time of occurrence, the determination unit determines whether the environmental sound is detected within the time interval from the time when the environmental sound was detected. 13. The information processing apparatus according to claim 12 , wherein the time of is determined as the timing for outputting the predetermined information.
ことを特徴とする請求項1~13のいずれか1つに記載の情報処理装置。 The determination unit determines, for each user, the timing of outputting the predetermined information based on the context of each user corresponding to the environmental sound acquired by the acquisition unit. 14. The information processing device according to any one of 13 .
ユーザの周辺環境の環境音を取得する取得工程と、
前記取得工程により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析工程と、
前記ユーザのコンテキストのうち、前記分析工程による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定工程と
を含み、
前記決定工程は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
ことを特徴とする情報処理方法。 An information processing method executed by an information processing device,
an acquisition step of acquiring environmental sounds of the user's surrounding environment;
an analyzing step of analyzing the relationship between the environmental sound acquired by the acquiring step and the context of the user corresponding to the environmental sound;
Predetermined information is provided to the user based on the context of the user, which is the context indicated by the analysis result of the analysis step and which has a relationship indicating a temporal tendency to the environmental sound. and a determining step of determining the output timing ,
The determining step determines timing for outputting, as the predetermined information, information requested by the user in a context having a relationship indicating a temporal tendency to the environmental sound.
An information processing method characterized by:
前記取得手順により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析手順と、
前記ユーザのコンテキストのうち、前記分析手順による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定手順と
をコンピュータに実行させ、
前記決定手順は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
ことを特徴とする情報処理プログラム。 an acquisition procedure for acquiring environmental sounds of a user's surrounding environment;
an analysis procedure for analyzing the relationship between the environmental sound acquired by the acquisition procedure and the context of the user corresponding to the environmental sound;
Predetermined information is provided to the user based on the context of the user, which is indicated by the analysis result of the analysis procedure and which has a relationship indicating a temporal tendency with respect to the environmental sound. causing a computer to execute a determination procedure for determining the output timing and
The determination procedure determines the timing of outputting the information requested by the user in a context having a relationship indicating a temporal tendency to the environmental sound as the predetermined information.
An information processing program characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154267A JP7163103B2 (en) | 2018-08-20 | 2018-08-20 | Information processing device, information processing method and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018154267A JP7163103B2 (en) | 2018-08-20 | 2018-08-20 | Information processing device, information processing method and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030489A JP2020030489A (en) | 2020-02-27 |
JP7163103B2 true JP7163103B2 (en) | 2022-10-31 |
Family
ID=69622481
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018154267A Active JP7163103B2 (en) | 2018-08-20 | 2018-08-20 | Information processing device, information processing method and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7163103B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011138530A (en) | 2011-01-26 | 2011-07-14 | Olympus Corp | Information display system |
JP2015138534A (en) | 2014-01-24 | 2015-07-30 | 株式会社ニコン | Electronic device |
US20170293727A1 (en) | 2016-04-08 | 2017-10-12 | Apple Inc. | Intelligent blood pressure monitoring |
JP2018005536A (en) | 2016-06-30 | 2018-01-11 | 東芝デジタルソリューションズ株式会社 | Life data integration analysis system, life data integration analysis method and life data integration analysis program |
JP2018049321A (en) | 2016-09-20 | 2018-03-29 | ヤフー株式会社 | Estimation device, estimation method, and estimation program |
-
2018
- 2018-08-20 JP JP2018154267A patent/JP7163103B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011138530A (en) | 2011-01-26 | 2011-07-14 | Olympus Corp | Information display system |
JP2015138534A (en) | 2014-01-24 | 2015-07-30 | 株式会社ニコン | Electronic device |
US20170293727A1 (en) | 2016-04-08 | 2017-10-12 | Apple Inc. | Intelligent blood pressure monitoring |
JP2018005536A (en) | 2016-06-30 | 2018-01-11 | 東芝デジタルソリューションズ株式会社 | Life data integration analysis system, life data integration analysis method and life data integration analysis program |
JP2018049321A (en) | 2016-09-20 | 2018-03-29 | ヤフー株式会社 | Estimation device, estimation method, and estimation program |
Also Published As
Publication number | Publication date |
---|---|
JP2020030489A (en) | 2020-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102041063B1 (en) | Information processing device, information processing method and program | |
JP6416752B2 (en) | Home appliance control method, home appliance control system, and gateway | |
US8909636B2 (en) | Lifestyle collecting apparatus, user interface device, and lifestyle collecting method | |
JP6120927B2 (en) | Dialog system, method for controlling dialog, and program for causing computer to function as dialog system | |
EP3613045B1 (en) | Methods, systems, and media for providing information relating to detected events | |
JP6400871B1 (en) | Utterance control device, utterance control method, and utterance control program | |
WO2017141530A1 (en) | Information processing device, information processing method and program | |
JP6543125B2 (en) | Control method and refrigerator | |
JP2009087074A (en) | Equipment control system | |
JP2018087872A (en) | Information processing device, information processing system, information processing method, and program | |
WO2017175442A1 (en) | Information processing device and information processing method | |
JP6557376B1 (en) | Output control device, output control method, and output control program | |
JP7163103B2 (en) | Information processing device, information processing method and information processing program | |
KR20230016013A (en) | Inferring semantic label(s) for assistant device(s) based on device-specific signals | |
WO2020202862A1 (en) | Response generation device and response generation method | |
JP6373709B2 (en) | Dialogue device | |
WO2016117514A1 (en) | Robot control device and robot | |
JP6720983B2 (en) | Information processing device, information processing method, and program | |
US20210224066A1 (en) | Information processing device and information processing method | |
CN106303701A (en) | Intelligent television content recommendation method and device | |
KR20230047434A (en) | Inferring assistant action(s) based on ambient sensing of the assistant device(s) | |
JP7428130B2 (en) | Information processing device that determines the degree of macro security risk | |
JP6787957B2 (en) | Utterance control device, utterance control method, and utterance control program | |
JP6499343B1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP2022180232A (en) | Robot and robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200819 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220920 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221019 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7163103 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |