JP7163103B2 - Information processing device, information processing method and information processing program - Google Patents

Information processing device, information processing method and information processing program Download PDF

Info

Publication number
JP7163103B2
JP7163103B2 JP2018154267A JP2018154267A JP7163103B2 JP 7163103 B2 JP7163103 B2 JP 7163103B2 JP 2018154267 A JP2018154267 A JP 2018154267A JP 2018154267 A JP2018154267 A JP 2018154267A JP 7163103 B2 JP7163103 B2 JP 7163103B2
Authority
JP
Japan
Prior art keywords
user
context
environmental sound
information processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018154267A
Other languages
Japanese (ja)
Other versions
JP2020030489A (en
Inventor
学 山本
孝太 坪内
太士 岩▲瀬▼張
浩樹 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018154267A priority Critical patent/JP7163103B2/en
Publication of JP2020030489A publication Critical patent/JP2020030489A/en
Application granted granted Critical
Publication of JP7163103B2 publication Critical patent/JP7163103B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明の実施形態は、情報処理装置、情報処理方法および情報処理プログラムに関する。 TECHNICAL FIELD Embodiments of the present invention relate to an information processing apparatus, an information processing method, and an information processing program.

近年、ユーザからの音声を取得し、取得した音声を音声認識することで、取得した音声に対応する動作を実行する情報機器が開発されている。 2. Description of the Related Art In recent years, an information device has been developed that acquires a voice from a user, recognizes the acquired voice, and executes an operation corresponding to the acquired voice.

例えば、特許文献1には、ユーザに不安を感じさせることなく、ユーザの行動をきっかけに起動する電子機器が提案されている。 For example, Patent Literature 1 proposes an electronic device that is activated by a user's behavior without making the user feel uneasy.

特開2017-4231号公報JP 2017-4231 A

しかしながら、上記の従来技術では、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるとは限らない。例えば、上記の従来技術では、家電に対するユーザの行動をきっかけに、音声認識部や音声取得部を起動させたことをユーザに通知する。 However, with the above-described conventional technology, it is not always possible to assist the user's actions by outputting information in anticipation of situations that may occur to the user in the future. For example, in the conventional technology described above, the user is notified that the speech recognition unit and the speech acquisition unit have been activated, triggered by the user's behavior with respect to the home appliance.

このような上記の従来技術では、ユーザが発話した音声が間違いなく取得・認識されているのかどうかといった不安をユーザに感させなくすることができる。しかしながら、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるとは限らない。 With the conventional technology described above, it is possible to prevent the user from feeling uneasy about whether or not the voice uttered by the user is correctly acquired and recognized. However, it is not always possible to help the user's actions by outputting information in anticipation of situations that may occur to the user in the future.

本願は、上記に鑑みてなされたものであって、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。 The present application has been made in view of the above, and provides an information processing device, an information processing method, and an information processing program that can assist the user's actions by outputting information that anticipates situations that may occur to the user in the future. for the purpose.

本願にかかる情報処理装置は、ユーザの周辺環境の環境音を取得する取得部と、前記取得部により取得された環境音に対応する前記ユーザのコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定部とを有することを特徴とする。 An information processing apparatus according to the present application includes an acquisition unit that acquires environmental sounds of a user's surrounding environment, and predetermined information for the user based on the user's context corresponding to the environmental sounds acquired by the acquisition unit. and a determination unit that determines the timing of outputting the .

実施形態の一態様によれば、この先ユーザに起こり得る状況を先読みした情報出力により、ユーザの行動を手助けすることができるといった効果を奏する。 According to one aspect of the embodiment, it is possible to assist the user's actions by outputting information that anticipates situations that may occur to the user in the future.

図1は、実施形態にかかる情報処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of information processing according to an embodiment; 図2は、実施形態にかかる情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information processing system according to the embodiment; 図3は、実施形態にかかる情報処理装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of an information processing apparatus according to the embodiment; 図4は、実施形態にかかる環境音情報記憶部の一例を示す図である。4 is a diagram illustrating an example of an environmental sound information storage unit according to the embodiment; FIG. 図5は、実施形態にかかるコンテキスト情報記憶部の一例を示す図である。5 is a diagram illustrating an example of a context information storage unit according to the embodiment; FIG. 図6は、実施形態にかかる対象情報記憶部の一例を示す図である。6 is a diagram illustrating an example of a target information storage unit according to the embodiment; FIG. 図7は、実施形態にかかる情報処理手順を示すフローチャートである。FIG. 7 is a flowchart illustrating an information processing procedure according to the embodiment; 図8は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 8 is a hardware configuration diagram showing an example of a computer that implements the functions of the information processing apparatus.

以下に、本願にかかる情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes for implementing an information processing apparatus, an information processing method, and an information processing program according to the present application (hereinafter referred to as "embodiments") will be described with reference to the drawings. The information processing apparatus, information processing method, and information processing program according to the present application are not limited to this embodiment. In addition, in the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

〔1.情報処理〕
まず、図1を用いて、実施形態にかかる情報処理の一例について説明する。図1は、実施形態にかかる情報処理の一例を示す図である。実施形態にかかる情報処理は、図1に示す情報処理装置100によって行われる。
[1. information processing]
First, an example of information processing according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of information processing according to an embodiment; Information processing according to the embodiment is performed by the information processing apparatus 100 shown in FIG.

図1の説明に先立って、図2を用いて、実施形態にかかる情報処理システムについて説明する。図2は、実施形態にかかる情報処理システム1の構成例を示す図である。実施形態にかかる情報処理システム1は、図2に示すように、端末装置10と、出力装置30と、情報処理装置100とを含む。端末装置10、出力装置30、情報処理装置100は、ネットワークNを介して有線または無線により通信可能に接続される。なお、図1に示す情報処理システム1には、複数台の端末装置10や、複数台の出力装置30や、複数台の情報処理装置100が含まれてよい。 Prior to the description of FIG. 1, the information processing system according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the information processing system 1 according to the embodiment. The information processing system 1 according to the embodiment includes a terminal device 10, an output device 30, and an information processing device 100, as shown in FIG. The terminal device 10, the output device 30, and the information processing device 100 are communicably connected via a network N by wire or wirelessly. The information processing system 1 shown in FIG. 1 may include a plurality of terminal devices 10, a plurality of output devices 30, and a plurality of information processing devices 100. FIG.

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。 The terminal device 10 is an information processing device used by a user. The terminal device 10 is, for example, a smart phone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like.

出力装置30は、例えば、室内等に置かれる据置式のスマートスピーカーである。しかし、出力装置30は、ユーザとの対話を実現する機能を有していれば、必ずしもスマートスピーカーである必要はなく、例えば、カーナビゲーション、可動式ロボット等であってもよい。ただし、本実施形態では、出力装置30は、スマートスピーカーであるものとする。したがって、以下の実施形態では、出力装置30を「スマートスピーカー30」と表記する場合がある。 The output device 30 is, for example, a stationary smart speaker placed indoors or the like. However, the output device 30 does not necessarily have to be a smart speaker as long as it has a function of realizing dialogue with a user, and may be, for example, a car navigation system, a mobile robot, or the like. However, in this embodiment, the output device 30 is assumed to be a smart speaker. Therefore, in the following embodiments, the output device 30 may be referred to as "smart speaker 30".

ここで、実施形態にかかる情報処理の前提について説明する。例えば、ユーザは、日常生活の中で、ある行動を行った後には特定の行動を行う、といったように一連の行動がパターン化されている場合がある。より具体的には、ある時間帯において、ある行動を行ったすぐ後には特定の行動を行う、といったように一連の行動がパターン化されている場合がある。一例を示すと、あるユーザUXは、7時台に起床すると、毎朝まず、カーテンを開け、それからスマートスピーカー30に対して「ニュースを流して」といった音声指示を出すとする。かかる例では、ユーザUXは、起床した後の一連の行動として、「カーテンを開けた後に、スマートスピーカー30に対して、ニュースを流すよう音声操作する」といった一連の行動がパターン化されているといえる。 Here, the premise of information processing according to the embodiment will be described. For example, in daily life, the user may have a series of behaviors patterned such that after performing a certain behavior, the user performs a specific behavior. More specifically, a series of behaviors may be patterned such that a specific behavior is performed immediately after performing a certain behavior in a certain time period. To give an example, assume that a certain user UX wakes up around 7:00, opens the curtains every morning, and then issues a voice command to the smart speaker 30 such as "play the news." In such an example, the user UX has a pattern of a series of behaviors such as "open the curtains and then voice-operate the smart speaker 30 to play news" as a series of behaviors after waking up. I can say.

また、カーテンを開ける行動以外にも、テレビをつける行動、コーヒーメーカーを起動させる行動、お湯を沸かす行動等、一連の行動の中の一つとしてユーザが行う行動は、ユーザによっても、また、同じユーザであっても時間帯によって千差万別である。とはいえ、日常生活の中では、ユーザ毎に、ある時間帯においてこの行動を行った場合には、そのすぐ後には、ある特定の行動を行う、といったことがパターン化されてくる。 In addition to the action of opening the curtains, actions performed by the user as one of a series of actions such as the action of turning on the television, the action of starting the coffee maker, the action of boiling water, etc. Even users are diverse depending on the time zone. Nonetheless, in daily life, a pattern is formed for each user such that when this behavior is performed in a certain period of time, a specific behavior is performed immediately after that.

ここで、ユーザの行動には多くの場合、その行動に伴う環境音が生じる。例えば、カーテンを開ける行動には「シャッ、シャッ」といった特有(ならでは)の環境音が発生する。この例以外でも同様である。テレビをつける行動には「今日天気は・・・」といったテレビ動画による音声としての環境音が発生する(また、テレビのリモコンを操作することにより発生する環境音もある)。また、コーヒーメーカーを起動させる行動には「ガガガ」といった、コーヒー豆を挽くならではの環境音が発生する。また、お湯を沸かす行動には「ガチャ」といった、ガスコンロを操作するならではの環境音が発生する。 Here, in many cases, environmental sounds accompany the actions of the user. For example, when the curtain is opened, a peculiar (unique) environmental sound such as "shhh, shhh" is generated. The same is true for cases other than this example. When the user turns on the TV, environmental sounds such as "Today's weather is..." are generated as voices of TV moving images (there are also environmental sounds generated by operating the remote control of the TV). In addition, the action of starting the coffee maker produces an environmental sound unique to grinding coffee beans, such as "ga-ga-ga". In addition, the action of boiling water generates an environmental sound unique to operating a gas stove, such as "Gacha".

このようなことから、上記ユーザUXの例であれば、7時台において環境音「シャッ、シャッ」が発生すれば、例えばこの先数秒後(あるいは数分後)には、「ユーザUXはスマートスピーカー30に対して、ニュースを流すよう音声操作する」という行動に出ることを先読み(予測)することができる。これは、ユーザUXの一連のパターン化した行動により、7時台における環境音「シャッ、シャッ」の後に「ユーザUXはスマートスピーカー30に対して、ニュースを流すよう音声操作する」という行動、すなわち環境音に対応するユーザUXのコンテキストの傾向が得られることに基づく。 For this reason, in the above example of the user UX, if the environmental sound "shuh, shhh" is generated at 7 o'clock, for example, after a few seconds (or several minutes later), "the user UX is a smart speaker It is possible to foresee (predict) that the user will perform an action such as "manipulate voice to broadcast news to 30". This is based on a series of patterned behaviors of the user UX, and after the environmental sound "shhhhhhh" at 7 o'clock, the behavior of "the user UX voice-manipulates the smart speaker 30 to play news", that is, It is based on obtaining a trend of the user UX context corresponding to environmental sounds.

そして、このような場合、7時台においてユーザUXがカーテンを開けた後、スマートスピーカー30がユーザUXからの音声操作を受ける前に動的にニュースを流すことができれば、ユーザUXはわざわざ音声操作を行わなくて済むため便利である。 In such a case, after the user UX opens the curtain at around 7:00, if the news can be dynamically delivered before the smart speaker 30 receives the voice operation from the user UX, the user UX will not be bothered to perform the voice operation. This is convenient because it eliminates the need to perform

以上のような前提を踏まえて、実施形態にかかる情報処理装置100は、環境音に対応するユーザのコンテキスト、より具体的には、環境音に対応するユーザのコンテキストの傾向を分析し、分析結果に基づいて、ウェイクアップ(情報提供)のタイミングを決定する。 Based on the above premise, the information processing apparatus 100 according to the embodiment analyzes the user's context corresponding to the environmental sound, more specifically, the tendency of the user's context corresponding to the environmental sound, and analyzes the analysis result determines the timing of wakeup (providing information) based on

まとめると、実施形態にかかる情報処理装置100は、ユーザの周辺環境の環境音を取得し、取得した環境音に対応するユーザのコンテキストに基づいて、ユーザに対して所定の情報(ウェイクアップの一例)を出力するタイミングを決定する。具体的には、情報処理装置100は、ユーザの周辺環境の環境音として、前記ユーザのコンテキストが示す状況が起こるよりも前に発生した環境音を取得する。例えば、情報処理装置100は、ユーザのコンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。 In summary, the information processing apparatus 100 according to the embodiment acquires environmental sounds of the user's surrounding environment, and provides predetermined information (an example of wake-up) to the user based on the user's context corresponding to the acquired environmental sounds. ) is output. Specifically, the information processing apparatus 100 acquires, as the environmental sound of the user's surrounding environment, the environmental sound that occurred before the situation indicated by the user's context occurred. For example, the information processing apparatus 100 acquires environmental sounds that occurred within a predetermined period of time before the situation indicated by the user's context occurred.

そして、情報処理装置100は、ユーザの周辺環境の環境音と、ユーザのコンテキストとの関係性を学習する。そして、情報処理装置100は、環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。環境音に対して時間的傾向を示す関係性とは、例えば、カーテンを開ける環境音「シャッ、シャッ」が発生した数秒後に「スマートスピーカー30に対して、ニュースを流すよう音声操作する」傾向にある、といったものである。以下、実施形態にかかる情報処理の一例について説明する。 Then, the information processing apparatus 100 learns the relationship between the environmental sounds of the user's surrounding environment and the user's context. Then, the information processing apparatus 100 determines the timing of outputting the predetermined information to the user based on the context having the relationship indicating the temporal tendency with respect to the environmental sound. The relationship that indicates a temporal tendency with respect to the environmental sound is, for example, a tendency to “manipulate the smart speaker 30 by voice to broadcast news” a few seconds after the environmental sound “Shut, shut” that opens the curtain is generated. There is. An example of information processing according to the embodiment will be described below.

具体的な説明に入る前に、まず図1の概要を説明する。図1に示すホームHP1には、ユーザU1、ユーザU2、ユーザU3、ユーザU4(ユーザU1~U4)といった四人のユーザが済んでいる。ユーザU1~U4の関係性は限定されないが、ここでは家族であるものとする。そして、図1の例では、ユーザU1は、ルームR1(寝室)に居る。ユーザU2は、ルームR2(ダイニング)に居る。ユーザU3は、ルームR3(リビング)に居る。ユーザU4は、ルームR4(キッチン)に居る。 Before starting a detailed description, first, an outline of FIG. 1 will be described. The home HP1 shown in FIG. 1 has four users, user U1, user U2, user U3, and user U4 (users U1 to U4). Although the relationship between users U1 to U4 is not limited, it is assumed here that they are family members. In the example of FIG. 1, user U1 is in room R1 (bedroom). User U2 is in room R2 (dining room). User U3 is in room R3 (living room). User U4 is in room R4 (kitchen).

また、スマートスピーカー30は、ルームHP1内の所定の場所に置かれており、各ルームにいるユーザの発話音声を取得することが可能であるものとする。一般的に、スマートスピーカーは、各部屋に1台という形で設置される場合が多いが、本実施形態では、説明の便宜上、スマートスピーカー30は、4つのルーム全ての音声を取得カバーできるものとする。なお、4つのルームそれぞれにスマートスピーカー30が置かれている場合、1台のスマートスピーカー30から当該スマートスピーカー30によって検知された情報を取得するか、あるいは、4台のスマートスピーカー30それぞれから当該スマートスピーカー30によって検知された情報を取得するかの違いだけであって、情報処理装置100が行う情報処理に違いは無い。 Also, the smart speaker 30 is placed at a predetermined location in the room HP1, and is capable of acquiring the uttered voices of users in each room. In general, one smart speaker is often installed in each room, but in this embodiment, for convenience of explanation, the smart speaker 30 is assumed to be able to acquire and cover the sound of all four rooms. do. In addition, when the smart speaker 30 is placed in each of the four rooms, the information detected by the smart speaker 30 is acquired from one smart speaker 30, or the information detected by the smart speaker 30 is acquired from each of the four smart speakers 30. The only difference is whether information detected by the speaker 30 is acquired, and there is no difference in the information processing performed by the information processing apparatus 100 .

まず、スマートスピーカー30は、各ルームにおいて発生した環境音およびユーザのコンテキストを検知する(ステップS1)。ルームR1では、「2018年7月1日7時00分においてユーザU1がカーテンを開け」、その4分後「2018年7月1日7時04分においてユーザU1がニュースを流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU1の周辺環境を示す環境音として、「2018年7月1日7時00分においてカーテンを開ける環境音「シャッ、シャッ」」を検知する。また、スマートスピーカー30は、ユーザU1のコンテキストとして、「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する、といった行動に出る」というコンテキストを検知する。 First, the smart speaker 30 detects environmental sounds generated in each room and the user's context (step S1). In the room R1, "at 7:00 on July 1, 2018, the user U1 opens the curtain", and four minutes later, "at 7:04 on July 1, 2018, the user U1 opens the smart speaker 30 to broadcast the news." A voice instruction is being given to "." In this case, the smart speaker 30 detects the ambient sound of opening the curtains at 7:00 on July 1, 2018 as the environmental sound indicating the surrounding environment of the user U1. In addition, the smart speaker 30 detects, as the context of the user U1, the context "at 7:04 on July 1, 2018, the user U1 performs an action such as issuing a voice instruction to broadcast news".

そして、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。図1の例では、スマートスピーカー30は、ルームR1で検知した環境音データDA11-1と、ルームR1で検知したコンテキストデータDA11-2とを情報処理装置100に送信する。なお、ルームR1では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR1で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。 The smart speaker 30 then transmits the detected environmental sound and context data (environmental sound data and context data) to the information processing device 100 (step S2). In the example of FIG. 1, the smart speaker 30 transmits to the information processing apparatus 100 environmental sound data DA11-1 detected in the room R1 and context data DA11-2 detected in the room R1. In room R1, of course, environmental sounds and contexts other than the environmental sounds and contexts described above can occur. Therefore, the smart speaker 30 transmits these data to the information processing device 100 each time it detects environmental sounds and context in the room R1.

また、ルームR2では、「2018年7月1日7時30分においてユーザU2がコーヒーメーカーを起動させ」、その3分後「2018年7月1日7時33分においてユーザU2がラジオショッピングを流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU2の周辺環境を示す環境音として、「2018年7月1日7時30分においてコーヒーメーカーが動作する環境音「ガガガ」」を検知する。また、スマートスピーカー30は、ユーザU2のコンテキストとして、「2018年7月1日7時33分においてユーザU2はラジオショッピングを流すよう音声指示する、といった行動に出る」というコンテキストを検知する。 In room R2, "user U2 started the coffee maker at 7:30 on July 1, 2018", and three minutes later, "user U2 started radio shopping at 7:33 on July 1, 2018". An example is shown in which a voice instruction is given to the smart speaker 30 to play. In such a case, the smart speaker 30 detects the environmental sound of the coffee maker operating at 7:30 on July 1, 2018 as the environmental sound indicating the surrounding environment of the user U2. In addition, the smart speaker 30 detects, as the context of the user U2, the context of "at 7:33 on July 1, 2018, the user U2 performs an action such as giving a voice instruction to play radio shopping".

ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。図1の例では、スマートスピーカー30は、ルームR2で検知した環境音データDA21-1と、ルームR2で検知したコンテキストデータDA21-2とを情報処理装置100に送信する。なお、ルームR2では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR2で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。 Again, the smart speaker 30 transmits the detected environmental sound and context data (environmental sound data and context data) to the information processing device 100 (step S2). In the example of FIG. 1, the smart speaker 30 transmits to the information processing apparatus 100 environmental sound data DA21-1 detected in the room R2 and context data DA21-2 detected in the room R2. In room R2, of course, environmental sounds and contexts other than the environmental sounds and contexts described above can occur. Therefore, the smart speaker 30 transmits these data to the information processing device 100 every time it detects environmental sounds and context in the room R2.

また、ルームR3では、「2018年7月1日18時00分においてユーザU3がテレビに天気予報をつけ」、その4分後「2018年7月1日18時04分においてユーザU3がK区の交通情報を流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU3の周辺環境を示す環境音として、「2018年7月1日18時00分においてテレビが天気予報番組を流している環境音「明日の天気は・・・」」を検知する。また、スマートスピーカー30は、ユーザU3のコンテキストとして、「2018年7月1日18時04分においてユーザU3はK区の交通情報を流すよう音声指示する、といった行動に出る」というコンテキストを検知する。 Further, in room R3, "at 18:00 on July 1, 2018, user U3 turned on the weather forecast on the television", four minutes later, "at 18:04 on July 1, 2018, user U3 turned on the K zone." , the smart speaker 30 is instructed by voice to deliver traffic information of ". In such a case, the smart speaker 30 selects the ambient sound indicating the surrounding environment of the user U3 as "environmental sound of the TV broadcasting the weather forecast program at 18:00 on July 1, 2018" "tomorrow's weather will be... ” is detected. In addition, the smart speaker 30 detects the context of the user U3 as "At 18:04 on July 1, 2018, the user U3 takes an action such as issuing a voice instruction to broadcast traffic information for Section K". .

ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。図1の例では、スマートスピーカー30は、ルームR3で検知した環境音データDA31-1と、ルームR2で検知したコンテキストデータDA31-2とを情報処理装置100に送信する。なお、ルームR3では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR3で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。 Again, the smart speaker 30 transmits the detected environmental sound and context data (environmental sound data and context data) to the information processing device 100 (step S2). In the example of FIG. 1, the smart speaker 30 transmits to the information processing apparatus 100 environmental sound data DA31-1 detected in the room R3 and context data DA31-2 detected in the room R2. In room R3, of course, environmental sounds and contexts other than the environmental sounds and contexts described above can occur. Therefore, the smart speaker 30 transmits these data to the information processing device 100 every time it detects environmental sounds and context in the room R3.

また、ルームR4では、「2018年7月1日8時00分においてユーザU4がガスコンロを操作し」、その5分後「2018年7月1日8時05分においてユーザU4が料理番組を流すようスマートスピーカー30に対して音声指示している」例を示す。かかる場合、スマートスピーカー30は、ユーザU4の周辺環境を示す環境音として、「2018年7月1日8時00分においてガスコンロが操作される環境音「ガチャ」」を検知する。また、スマートスピーカー30は、ユーザU4のコンテキストとして、「2018年7月1日8時05分においてユーザU4は料理番組を流すよう音声指示する、といった行動に出る」というコンテキストを検知する。 In room R4, "at 8:00 on July 1, 2018, the user U4 operates the gas stove", and five minutes later, "at 8:05 on July 1, 2018, the user U4 plays a cooking program." An example is given to the smart speaker 30 by voice. In this case, the smart speaker 30 detects the environmental sound of the gas stove being operated at 8:00 on July 1, 2018 as the environmental sound indicating the surrounding environment of the user U4. In addition, the smart speaker 30 detects, as the context of the user U4, the context "At 8:05 on July 1, 2018, the user U4 performs an action such as giving a voice instruction to play a cooking program".

ここでも、スマートスピーカー30は、検知した環境音およびコンテキストのデータ(環境音データおよびコンテキストデータ)を情報処理装置100に送信する(ステップS2)。図1の例では、スマートスピーカー30は、ルームR4で検知した環境音データDA41-1と、ルームR4で検知したコンテキストデータDA41-2とを情報処理装置100に送信する。なお、ルームR4では、当然ながら、上記環境音およびコンテキスト以外の環境音およびコンテキストも発生し得る。よって、スマートスピーカー30は、ルームR4で環境音およびコンテキストを検知する度に、これらのデータを情報処理装置100に送信する。 Again, the smart speaker 30 transmits the detected environmental sound and context data (environmental sound data and context data) to the information processing device 100 (step S2). In the example of FIG. 1, smart speaker 30 transmits environmental sound data DA41-1 detected in room R4 and context data DA41-2 detected in room R4 to information processing apparatus 100. In FIG. In room R4, of course, environmental sounds and contexts other than the environmental sounds and contexts described above can occur. Therefore, smart speaker 30 transmits these data to information processing device 100 each time it detects environmental sounds and context in room R4.

情報処理装置100は、スマートスピーカー30から取得した環境音データを環境音情報記憶部121に格納する。図1の例では、環境音情報記憶部121は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日時」は、スマートスピーカー30によって環境音が検知された日時を示す。なお、「日時」には「曜日」も含まれてよく、かかる場合、「日時」はカレンダー情報と解することもできる。「環境音データ」は、スマートスピーカー30によって検知された環境音のデータを示す。 The information processing device 100 stores the environmental sound data acquired from the smart speaker 30 in the environmental sound information storage unit 121 . In the example of FIG. 1, the environmental sound information storage unit 121 has items such as "user ID", "date and time", and "environmental sound data". “User ID” indicates identification information for identifying the user or the user's terminal device 10 . “Date and time” indicates the date and time when the environmental sound was detected by the smart speaker 30 . The "date and time" may include "day of the week", and in such a case, the "date and time" can be interpreted as calendar information. “Environmental sound data” indicates environmental sound data detected by the smart speaker 30 .

図1に示すルームR1の例では、スマートスピーカー30は、ユーザU1について「2018年7月1日7時00分においてカーテンを開ける環境音「シャッ、シャッ」」を検知している。そして、スマートスピーカー30は、この検知結果を示す環境音データDA11-1を情報処理装置100に送信している。したがって、情報処理装置100は、ユーザID「U1」と、日時「2018年7月1日7時00分」と、環境音「シャッ、シャッ」を示す環境音データDA11-1とを対応付けて環境音情報記憶部121に格納する。ルームR2、R3、R4についてもこれまでの説明の通りであるため省略する。 In the example of the room R1 shown in FIG. 1, the smart speaker 30 detects the environmental sound of opening the curtains at 7:00 on July 1, 2018 for the user U1. The smart speaker 30 then transmits environmental sound data DA11-1 indicating the detection result to the information processing apparatus 100. FIG. Therefore, the information processing apparatus 100 associates the user ID “U1”, the date and time “July 1, 2018, 7:00”, and the environmental sound data DA11-1 indicating the environmental sound “shuh, shuh”. Stored in the environmental sound information storage unit 121 . Since the rooms R2, R3, and R4 are the same as those described above, they are omitted.

また、情報処理装置100は、スマートスピーカー30から取得したコンテキストデータをコンテキスト情報記憶部122に格納する。図1の例では、コンテキスト情報記憶部122は、「ユーザID」、「日時」、「コンテキストデータ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日時」は、スマートスピーカー30によって、ユーザのコンテキストが検知された日時を示す。なお、「日時」には「曜日」も含まれてよく、かかる場合、「日時」はカレンダー情報と解することもできる。「コンテキストデータ」は、スマートスピーカー30によって検知されたコンテキストのデータを示す。 The information processing device 100 also stores context data acquired from the smart speaker 30 in the context information storage unit 122 . In the example of FIG. 1, the context information storage unit 122 has items such as "user ID", "date and time", and "context data". “User ID” indicates identification information for identifying the user or the user's terminal device 10 . “Date and time” indicates the date and time when the user's context was detected by the smart speaker 30 . The "date and time" may include "day of the week", and in such a case, the "date and time" can be interpreted as calendar information. “Context data” refers to contextual data sensed by the smart speaker 30 .

図1に示すルームR1の例では、スマートスピーカー30は、ユーザU1について「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する、といった行動に出る」というコンテキストを検知している。そして、スマートスピーカー30は、この検知結果のデータを示すコンテキストデータDA11-2を情報処理装置100に送信している。したがって、情報処理装置100は、ユーザID「U1」と、日時「2018年7月1日7時04分」と、コンテキスト「ニュースを流すよう音声指示する」を示すコンテキストデータDA11-2とを対応付けてコンテキスト情報記憶部122に格納する。ルームR2、R3、R4についてもこれまでの説明の通りであるため省略する。 In the example of the room R1 shown in FIG. 1, the smart speaker 30 detects the context of the user U1, "At 7:04 on July 1, 2018, the user U1 performs an action such as issuing a voice instruction to broadcast news". is doing. The smart speaker 30 then transmits context data DA11-2 indicating data of the detection result to the information processing apparatus 100. FIG. Therefore, the information processing apparatus 100 associates the user ID "U1", the date and time "July 1, 2018, 7:04", and the context data DA11-2 indicating the context "voice instruction to broadcast news". and stores it in the context information storage unit 122 . Since the rooms R2, R3, and R4 are the same as those described above, they are omitted.

次に、情報処理装置100は、コンテキストが示す状況が発生する前において発生した環境音を取得する(ステップS3)。例えば、情報処理装置100は、ユーザ毎に、コンテキストが示す状況が発生する前において発生した環境音を取得する。例えば、情報処理装置100は、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。例えば、情報処理装置100は、環境音情報記憶部121とコンテキスト情報記憶部122とを比較して、ユーザ毎に、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音(環境音データ)を取得する。例えば、情報処理装置100は、環境音情報記憶部121から環境音データを取得する。 Next, the information processing apparatus 100 acquires the environmental sound that occurred before the situation indicated by the context occurred (step S3). For example, the information processing apparatus 100 acquires environmental sounds generated before the situation indicated by the context occurs for each user. For example, the information processing apparatus 100 acquires environmental sounds that occurred within a predetermined period of time before the situation indicated by the context occurred. For example, the information processing apparatus 100 compares the environmental sound information storage unit 121 and the context information storage unit 122, and compares the environmental sound (environmental sound) generated within a predetermined time before the situation indicated by the context for each user. sound data). For example, the information processing device 100 acquires environmental sound data from the environmental sound information storage unit 121 .

図1の例では、情報処理装置100は、各「ユーザ」について、各「日付」の「時間帯」毎に、コンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音の環境音データを取得する。本実施形態では、情報処理装置100は、コンテキストが示す状況が起こるよりも前の5分以内に発生した環境音の環境音データを取得するものとする。この時間条件は、必ずしも5分以内である必要はない。 In the example of FIG. 1 , the information processing apparatus 100 generates an environment sound environment for each “user” for each “time period” of each “date” that occurred within a predetermined period of time before the situation indicated by the context occurred. Get sound data. In this embodiment, the information processing apparatus 100 acquires environmental sound data of environmental sounds that occurred within five minutes before the situation indicated by the context occurred. This time condition does not necessarily have to be within 5 minutes.

なお、コンテキストが示す状況とは、コンテキストによって示されるユーザの行動状況である。したがって、例えば、コンテキストデータDA11-2が示す状況については、「2018年7月1日7時04分においてユーザU1はニュースを流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA21-2が示す状況については、「2018年7月1日7時33分においてユーザU2はラジオショッピングを流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA31-2が示す状況については、「2018年7月1日18時04分においてユーザU3はK区の交通情報を流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。また、例えば、コンテキストデータDA41-2が示す状況については、「2018年7月1日8時05分においてユーザU4は料理番組を流すよう音声指示する」という行動をする状況にあった、と言い換えることができる。 The situation indicated by the context is the user's action situation indicated by the context. Therefore, for example, the situation indicated by the context data DA11-2 can be rephrased as a situation in which the user U1 performs an action of "at 7:04 on July 1, 2018, the user U1 issues a voice instruction to broadcast news." can be done. In addition, for example, the situation indicated by the context data DA21-2 can be rephrased as a situation in which the user U2 performs a voice instruction to play radio shopping at 7:33 on July 1, 2018. be able to. Further, for example, regarding the situation indicated by the context data DA31-2, there was a situation in which the user U3 took the action of "at 18:04 on July 1, 2018, the user U3 issues a voice instruction to broadcast the traffic information of Section K." , can be rephrased. In addition, for example, the situation indicated by the context data DA41-2 can be rephrased as a situation in which the user U4 performs a voice instruction to play a cooking program at 8:05 on July 1, 2018. be able to.

そして、ルームR1の例では、環境音情報記憶部121とコンテキスト情報記憶部122とを比較すると、ユーザU1について「2018年7月1日の7時台」では、コンテキストデータDA11-2が示す状況が起こるよりも前の5分以内に、環境音データDA11-1が示す環境音(カーテンの音)が発生していることがわかる。また、このようなことから、コンテキストデータDA11-2が示すコンテキスト(ユーザ行動)は、環境音データDA11-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA11-1を取得する。また、情報処理装置100は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA11-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。また、情報処理装置100は、別の日付についても、同様にして時間帯毎にデータを取得し対象情報記憶部123に格納する。 In the example of room R1, when comparing the environmental sound information storage unit 121 and the context information storage unit 122, the situation indicated by the context data DA11-2 for the user U1 at "7:00 on July 1, 2018" It can be seen that the environmental sound (curtain sound) indicated by the environmental sound data DA11-1 is generated within five minutes before the occurrence of . In addition, it can be said that the context (user behavior) indicated by the context data DA11-2 corresponds to the environmental sound indicated by the environmental sound data DA11-1. Therefore, in this example, the information processing apparatus 100 acquires the environmental sound data DA11-1 from the environmental sound information storage unit 121 in time with "7:00 on July 1, 2018". Further, the information processing apparatus 100 acquires the context data DA11-2 from the context information storage unit 122 at the time of "7:00 on July 1, 2018". The information processing apparatus 100 then stores the acquired data in the target information storage unit 123 . Similarly, the information processing apparatus 100 acquires data for each time zone for another date and stores the data in the target information storage unit 123 .

また、ルームR2の例では、ユーザU2ついて「2018年7月1日の7時台」では、コンテキストデータDA21-2が示す状況が起こるよりも前の3分以内に、環境音データDA21-1が示す環境音(コーヒー豆を挽く音)が発生していることがわかる。また、このようなことから、コンテキストデータDA21-2が示すコンテキストは、環境音データDA21-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA21-1を取得する。また、情報処理装置100は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA21-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。 In addition, in the example of room R2, for user U2, at “7:00 on July 1, 2018”, environmental sound data DA21-1 is generated within three minutes before the situation indicated by context data DA21-2 occurs. It can be seen that the environmental sound indicated by (the sound of grinding coffee beans) is being generated. Also, from this, it can be said that the context indicated by the context data DA21-2 corresponds to the environmental sound indicated by the environmental sound data DA21-1. Therefore, in this example, the information processing apparatus 100 acquires the environmental sound data DA21-1 from the environmental sound information storage unit 121 in time with "7:00 on July 1, 2018". Further, the information processing apparatus 100 acquires the context data DA21-2 from the context information storage unit 122 at the time of "7:00 on July 1, 2018". The information processing apparatus 100 then stores the acquired data in the target information storage unit 123 .

また、ルームR3の例では、ユーザU3について「2018年7月1日の18時台」では、コンテキストデータDA31-2が示す状況が起こるよりも前の4分以内に、環境音データDA31-1が示す環境音(テレビ音)が発生していることがわかる。また、このようなことから、コンテキストデータDA31-2が示すコンテキストは、環境音データDA31-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の18時台」に合わせて、環境音情報記憶部121から環境音データDA31-1を取得する。また、報処理装置100は、「2018年7月1日の18時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA31-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。 In addition, in the example of room R3, for user U3, at “18:00 on July 1, 2018”, environmental sound data DA31-1 is generated within four minutes before the situation indicated by context data DA31-2 occurs. It can be seen that the environmental sound (TV sound) indicated by is occurring. In addition, it can be said that the context indicated by the context data DA31-2 corresponds to the environmental sound indicated by the environmental sound data DA31-1. Therefore, in this example, the information processing apparatus 100 acquires the environmental sound data DA31-1 from the environmental sound information storage unit 121 at "18:00 on July 1, 2018". Further, the information processing apparatus 100 acquires the context data DA31-2 from the context information storage unit 122 in time with "18:00 on July 1, 2018". The information processing apparatus 100 then stores the acquired data in the target information storage unit 123 .

また、ルームR4の例では、ユーザU4について「2018年7月1日の8時台」では、コンテキストデータD41-2が示す状況が起こるよりも前の5分以内に、環境音データDA41-1が示す環境音(ガスコンロ音)が発生していることがわかる。また、このようなことから、コンテキストデータDA41-2が示すコンテキストは、環境音データDA41-1が示す環境音に対応するコンテキストといえる。したがって、かかる例では、情報処理装置100は、「2018年7月1日の8時台」に合わせて、環境音情報記憶部121から環境音データDA41-2を取得する。また、情報処理装置100は、「2018年7月1日の8時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA41-2を取得する。そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。 In addition, in the example of room R4, for user U4, at “8:00 on July 1, 2018”, environmental sound data DA41-1 is generated within five minutes before the situation indicated by context data D41-2 occurs. It can be seen that the environmental sound (gas stove sound) indicated by is occurring. Also, from this, it can be said that the context indicated by the context data DA41-2 corresponds to the environmental sound indicated by the environmental sound data DA41-1. Therefore, in this example, the information processing apparatus 100 acquires the environmental sound data DA41-2 from the environmental sound information storage unit 121 in time with "July 1, 2018 between 8:00". Further, the information processing apparatus 100 acquires the context data DA41-2 from the context information storage unit 122 at the time of "July 1, 2018 between 8:00". The information processing apparatus 100 then stores the acquired data in the target information storage unit 123 .

対象情報記憶部123は、後述する分析処理に用いられる情報を記憶する。ここで、図1の例では、対象情報記憶部123は、「ユーザID」、「日付」、「時間帯」、「コンテキストデータ」、「環境音データ」といった項目を有する。「ユーザID」は、ユーザまたはユーザの端末装置10を識別する識別情報を示す。「日付」は、対応する「コンテキストデータ」および「環境音データ」が検知された日付を示す。「時間帯」は、対応する「コンテキストデータ」および「環境音データ」が検知された時間帯を示す。すなわち、情報処理装置100は、コンテキスト情報記憶部122および環境音情報記憶部121から取得したデータを「ユーザID」、「日付」、「時間帯」に対応付けて、対象情報記憶部123に格納する。 The target information storage unit 123 stores information used for analysis processing, which will be described later. Here, in the example of FIG. 1, the target information storage unit 123 has items such as "user ID", "date", "time zone", "context data", and "environmental sound data". “User ID” indicates identification information for identifying the user or the user's terminal device 10 . "Date" indicates the date when the corresponding "context data" and "environmental sound data" were detected. "Time period" indicates the time period in which the corresponding "context data" and "environmental sound data" were detected. That is, the information processing apparatus 100 associates the data acquired from the context information storage unit 122 and the environmental sound information storage unit 121 with the "user ID", the "date", and the "time period", and stores the data in the target information storage unit 123. do.

次に、情報処理装置100は、対象情報記憶部123に格納されている環境音(環境音データ)、および、コンテキスト(コンテキストデータ)を用いて、環境音とコンテキストとの関係性を分析(学習)する分析処理(学習処理)を行う(ステップS4)。情報処理装置100は、かかる分析処理として、例えば、相関分析(教師なし学習)を行うことができる。例えば、情報処理装置100は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、相関分析を行う。 Next, the information processing apparatus 100 analyzes (learns) the relationship between the environmental sound and the context using the environmental sound (environmental sound data) and the context (context data) stored in the target information storage unit 123 . ) is performed (step S4). The information processing apparatus 100 can perform, for example, correlation analysis (unsupervised learning) as such analysis processing. For example, the information processing apparatus 100 performs correlation analysis for each user using environmental sound data and context data corresponding to the user.

ユーザU1を例に挙げると、情報処理装置100は、例えば、対象情報記憶部123格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、相関分析を行う。これにより、情報処理装置100は、ある時間帯においては、どのような環境音の後(5分以内)には、ユーザU1はどのようなコンテキストの傾向にあるかといった、時間的傾向を捉えることができる。なお、ここでの特徴情報は、環境音から抽出される特徴情報であって、ユーザの特徴を示す特徴情報である。 Taking the user U1 as an example, the information processing apparatus 100 converts, for example, the context data corresponding to the item “time zone” among the items stored in the target information storage unit 123 and the environmental sound data into variables (features). information), perform a correlation analysis. As a result, the information processing apparatus 100 can capture temporal trends such as what kind of context the user U1 tends to follow after what kind of environmental sound (within 5 minutes) in a certain time period. can be done. Note that the feature information here is feature information extracted from the environmental sound, and is feature information indicating the feature of the user.

そして、図1の例では、情報処理装置100は、ユーザU1~U4について、環境音とコンテキストとの間に次のような相関関係があるとの分析結果を得たとする。具体的には、情報処理装置100は、「7時台にカーテン音を示す環境音が発生した場合、カーテン音の後5分以内に、ユーザU1はスマートスピーカー30に対してニュースを流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。また、情報処理装置100は、「7時台にコーヒーメーカー音を示す環境音が発生した場合、コーヒーメーカー音の後5分以内に、ユーザU2はスマートスピーカー30に対してラジオショッピングを流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。 In the example of FIG. 1, the information processing apparatus 100 obtains an analysis result indicating that there is the following correlation between the environmental sounds and the contexts for the users U1 to U4. Specifically, the information processing apparatus 100 outputs information such that "when an environmental sound indicating a curtain sound is generated around 7:00, the user U1 will issue a voice prompting the smart speaker 30 to play news within five minutes after the curtain sound." Suppose we obtain a correlation between the environmental sound and the context, such as "there is a tendency to indicate". In addition, the information processing apparatus 100 outputs "If an environmental sound indicating the sound of a coffee maker is generated at around 7:00, the user U2 will issue a voice requesting radio shopping to the smart speaker 30 within 5 minutes after the sound of the coffee maker." Suppose we obtain a correlation between the environmental sound and the context, such as "there is a tendency to indicate".

また、情報処理装置100は、「18時台にテレビ音を示す環境音が発生した場合、テレビ音の後5分以内に、ユーザU3はスマートスピーカー30に対してK区の交通情報を流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。また、情報処理装置100は、「8時台にガスコンロ音を示す環境音が発生した場合、ガスコンロ音の後5分以内に、ユーザU4はスマートスピーカー30に対して料理番組を流すよう音声指示する傾向にある」といった、環境音とコンテキストとの相関性を得たとする。 Further, the information processing apparatus 100 instructs the user U3 to play the traffic information of Section K to the smart speaker 30 within 5 minutes after the television sound when an environmental sound indicating the television sound is generated around 18:00. Suppose we obtain a correlation between the environmental sound and the context, such as "there is a tendency to give voice instructions". Further, the information processing apparatus 100 states that "when an environmental sound indicating the sound of a gas stove is generated around 8:00, the user U4 issues a voice instruction to the smart speaker 30 to play a cooking program within five minutes after the sound of the gas stove. Suppose we obtain a correlation between the environmental sound and the context, such as "there is a tendency".

そうすると、情報処理装置100は、ステップS4での分析結果に基づいて、ユーザに所定の情報を出力するタイミングを決定する(ステップS5)。例えば、情報処理装置100は、ユーザのスマートスピーカー30に対して、所定の情報を出力させるタイミングを決定する。例えば、情報処理装置100は、ユーザのコンテキストのうち、環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。時間的傾向とは、上で説明した相関関係のことである。 Then, the information processing apparatus 100 determines the timing of outputting predetermined information to the user based on the analysis result in step S4 (step S5). For example, the information processing device 100 determines the timing to output predetermined information to the user's smart speaker 30 . For example, the information processing apparatus 100 determines the timing of outputting predetermined information to the user based on the context of the user's context that has a relationship indicating a temporal tendency to the environmental sound. Temporal trends are the correlations described above.

図1の例では、情報処理装置100は、環境音と相関関係にあるコンテキストの発生時刻と、この環境音の発生時刻との間での時間間隔に基づいて、出力タイミングを決定する。ルームR1の例では、情報処理装置100は、7時台におけるカーテン音と、7時台におけるユーザU1のコンテキスト(ニュースを流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではカーテン音発生から5分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「5分もしくはそれ以下」である。 In the example of FIG. 1, the information processing apparatus 100 determines the output timing based on the time interval between the occurrence time of the context correlated with the environmental sound and the occurrence time of this environmental sound. In the example of room R1, the information processing apparatus 100 obtains an analysis result that there is a correlation between the curtain sound at around 7:00 and the context of user U1 at around 7:00 (audio instruction to broadcast news). , within this correlation, the context occurs within 5 minutes from the occurrence of the curtain sound. That is, in this example, the time interval between the time indicated by the context and the time when the environmental sound was generated is "5 minutes or less".

したがって、情報処理装置100は、ルームR1において7時台にカーテン音が検知された場合には、そのカーテン音が検知された時刻から5分以内の時刻を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日7時05分10秒」を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。 Therefore, when the curtain sound is detected around 7:00 in the room R1, the information processing apparatus 100 transmits the time within 5 minutes from the time when the curtain sound is detected from the smart speaker 30 to the user U1. This is determined as the timing for outputting news. For example, assume that the smart speaker 30 detects the curtain sound at "July 2, 2018, 7:05:00". In this case, the information processing apparatus 100 determines “July 2, 2018, 7:05:10” as the timing for outputting the news from the smart speaker 30 to the user U1.

次に、ルームR2の例では、情報処理装置100は、7時台におけるコーヒーメーカー音と、7時台におけるユーザU2のコンテキスト(ラジオショッピングを流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではコーヒーメーカー音発生から3分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「3分もしくはそれ以下」である。 Next, in the example of room R2, the information processing device 100 analyzes that there is a correlation between the sound of the coffee maker between 7:00 and the context of the user U2 between 7:00 (voice instruction for radio shopping). We have obtained results, and in this correlation context occurs within 3 minutes of the coffee maker sound. That is, in this example, the time interval between the time indicated by the context and the time when the environmental sound was generated is "3 minutes or less".

したがって、情報処理装置100は、ルームR2において7時台にコーヒーメーカー音が検知された場合には、そのコーヒーメーカー音が検知された時刻から3分以内の時刻を、ユーザU2に向けてスマートスピーカー30からラジオショッピングを出力させるタイミングとして決定する。例えば、「2018年7月2日7時06分00秒」にスマートスピーカー30によってコーヒーメーカー音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日7時06分10秒」を、ユーザU2に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。 Therefore, when the sound of the coffee maker is detected around 7:00 in the room R2, the information processing apparatus 100 transmits the time within 3 minutes from the time when the sound of the coffee maker is detected to the user U2 through the smart speaker. 30 is determined as the timing for outputting radio shopping. For example, assume that the sound of a coffee maker is detected by the smart speaker 30 at “July 2, 2018, 7:06:00”. In this case, the information processing apparatus 100 determines “July 2, 2018, 7:06:10” as the timing for outputting news from the smart speaker 30 to the user U2.

次に、ルームR3の例では、情報処理装置100は、18時台におけるテレビ音と、18時台におけるユーザU3のコンテキスト(K区の交通情報を流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではテレビ音発生から4分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「4分もしくはそれ以下」である。 Next, in the example of room R3, the information processing device 100 determines that there is a correlation between the TV sound between 18:00 and the context of the user U3 between 18:00 (voice instruction to play the traffic information of Section K). , and in this correlation, the context occurs within 4 minutes from the TV sound generation. That is, in this example, the time interval between the time indicated by the context and the time when the environmental sound is generated is "four minutes or less".

したがって、情報処理装置100は、ルームR3において18時台にテレビ音が検知された場合には、そのテレビ音が検知された時刻から4分以内の時刻を、ユーザU3に向けてスマートスピーカー30から交通情報を出力させるタイミングとして決定する。例えば、「2018年7月2日18時07分00秒」にスマートスピーカー30によってテレビ音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日18時07分10秒」を、ユーザU3に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。 Therefore, when the TV sound is detected in the room R3 around 18:00, the information processing device 100 transmits the time within 4 minutes from the time when the TV sound is detected from the smart speaker 30 to the user U3. This is determined as the timing for outputting traffic information. For example, assume that the smart speaker 30 detects TV sound at “18:07:00 on July 2, 2018”. In this case, the information processing apparatus 100 determines “July 2, 2018, 18:07:10” as the timing for outputting the news from the smart speaker 30 to the user U3.

次に、ルームR4の例では、情報処理装置100は、8時台におけるガスコンロ音と、8時台におけるユーザU4のコンテキスト(料理番組を流させる音声指示)とは相関関係にあるとの分析結果を得ており、この相関関係の中ではガスコンロ音発生から5分以内にかかるコンテキストは発生している。つまり、かかる例では、コンテキストが示す時刻と、環境音の発生時刻との間での時間間隔は「5分もしくはそれ以下」である。 Next, in the example of room R4, the information processing apparatus 100 analyzes that there is a correlation between the sound of the gas stove at around 8:00 and the context of user U4 at around 8:00 (voice instruction to play a cooking program). In this correlation, the context occurs within 5 minutes after the sound of the gas stove. That is, in this example, the time interval between the time indicated by the context and the time when the environmental sound was generated is "5 minutes or less".

したがって、情報処理装置100は、ルームR4において8時台にテレビ音が検知された場合には、そのテレビ音が検知された時刻から5分以内の時刻を、ユーザU4に向けてスマートスピーカー30から料理番組を出力させるタイミングとして決定する。例えば、「2018年7月2日8時08分00秒」にスマートスピーカー30によってガスコンロ音が検知されたとする。この場合、情報処理装置100は、「2018年7月2日8時08分10秒」を、ユーザU4に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。 Therefore, when the TV sound is detected around 8:00 in the room R4, the information processing device 100 transmits the time within 5 minutes from the time when the TV sound is detected from the smart speaker 30 to the user U4. This is determined as the timing for outputting the cooking program. For example, assume that the smart speaker 30 detects the sound of a gas stove at “8:08:00 on July 2, 2018”. In this case, the information processing apparatus 100 determines “July 2, 2018, 8:08:10” as the timing for outputting news from the smart speaker 30 to the user U4.

さて、これまで説明してきたように、実施形態にかかる情報処理装置100は、ユーザの周辺環境の環境音を取得し、取得した環境音に対して時間的傾向に基づく関係(相関関係)性にあるコンテキストに基づいて、ユーザに対して情報出力するタイミングを決定する。これにより、情報処理装置100は、例えば、特定の時間帯において特定の環境音が発生した場合には、その後(例えば、数秒後や数分後)のユーザの行動(コンテキスト)はこうなると予測することができるため、ユーザがその行動を行う前にユーザがその行動を行う必要のないよう先回りした動作を実行することができる。このため、情報処理装置100は、ユーザの行動を手助けすることができる。 Now, as explained so far, the information processing apparatus 100 according to the embodiment acquires the environmental sounds of the user's surrounding environment, and determines the relationship (correlation) with respect to the acquired environmental sounds based on the temporal tendency. The timing for outputting information to the user is determined based on a certain context. Thereby, for example, when a specific environmental sound is generated in a specific time period, the information processing apparatus 100 predicts that the behavior (context) of the user after that (for example, several seconds or several minutes later) will be as follows. Therefore, it is possible to perform preemptive actions so that the user does not have to perform the action before the user performs the action. Therefore, the information processing apparatus 100 can help the user's actions.

なお、図1の例では、情報処理装置100は、コンテキストが示す状況が起こるよりも前の5分以内に発生した環境音の環境音データを取得する例を示した。しかし、情報処理装置100は、コンテキストが示す状況が起こる直前(例えば、10秒以内)に発生した環境音を取得してもよい。なぜなら、例えば、ユーザU1であれば、行動がパターン化されている場合、カーテンを開けるといった行動に連動して、そのあと直ぐ(例えば、10秒以内)にニュースを流すよう指示することが多いと考えられるためである。また、こうした場合、情報処理装置100は、上記の様に傾向が取得できれば、ある日、カーテン音が検出された場合には、検出された直後(例えば、3秒後)の時刻を情報提供のタイミングとして決定する。 In the example of FIG. 1, the information processing apparatus 100 acquires environmental sound data of environmental sounds that occurred within five minutes before the situation indicated by the context occurred. However, the information processing apparatus 100 may acquire the environmental sound that occurred immediately before the situation indicated by the context occurred (for example, within 10 seconds). This is because, for example, in the case of user U1, when there is a pattern of behavior, it is often instructed to broadcast the news immediately (for example, within 10 seconds) in conjunction with the behavior of opening the curtain. This is because it is conceivable. In such a case, if the tendency can be acquired as described above, the information processing apparatus 100 can provide information on the time immediately after the detection (for example, 3 seconds) when the curtain sound is detected on a certain day. Decide on timing.

〔2.情報処理装置の構成〕
次に、図3を用いて、実施形態にかかる情報処理装置100について説明する。図3は、実施形態にかかる情報処理装置100の構成例を示す図である。図3に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。例えば、情報処理装置100は、図1で説明した情報処理を行うサーバ装置である。
[2. Configuration of Information Processing Device]
Next, the information processing apparatus 100 according to the embodiment will be described using FIG. FIG. 3 is a diagram illustrating a configuration example of the information processing apparatus 100 according to the embodiment. As shown in FIG. 3, the information processing apparatus 100 has a communication section 110, a storage section 120, and a control section . For example, the information processing device 100 is a server device that performs the information processing described with reference to FIG.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、出力装置30との間で情報の送受信を行う。
(Regarding communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits/receives information to/from the output device 30, for example.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、環境音情報記憶部121と、コンテキスト情報記憶部122と、対象情報記憶部123とを有する。
(Regarding storage unit 120)
The storage unit 120 is realized by, for example, a RAM (Random Access Memory), a semiconductor memory device such as a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 has an environmental sound information storage unit 121 , a context information storage unit 122 and a target information storage unit 123 .

(環境音情報記憶部121について)
環境音情報記憶部121は、スマートスピーカー30によって検知された環境音に関する情報を記憶する。ここで、図4に実施形態にかかる環境音情報記憶部121の一例を示す。図4の例では、環境音情報記憶部121は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。環境音情報記憶部121については、図1で既に説明しているため、ここでの詳細な説明は省略する。なお、環境音情報記憶部121は、図4に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。
(Regarding the environmental sound information storage unit 121)
The environmental sound information storage unit 121 stores information about environmental sounds detected by the smart speaker 30 . Here, FIG. 4 shows an example of the environmental sound information storage unit 121 according to the embodiment. In the example of FIG. 4, the environmental sound information storage unit 121 has items such as "user ID", "date and time", and "environmental sound data". Since the environmental sound information storage unit 121 has already been described in FIG. 1, detailed description thereof will be omitted here. In addition to the items shown in FIG. 4 , the environmental sound information storage unit 121 stores the “day of the week” when the environmental sound was detected by the smart speaker 30, the “weather” when the environmental sound was detected by the smart speaker 30, the smart The user's “physical condition” when the environmental sound is detected by the speaker 30 may be included.

例えば、情報処理装置100は、スマートスピーカー30によって環境音が検知されたときの「天候」情報を所定の外部のサーバ装置から取得することができる。また、ユーザが例えば、各種センサを備えたウェアラブル端末を装着している場合には、情報処理装置100は、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」情報をウェアラブル端末から取得することができる。また、情報処理装置100は、スマートスピーカー30によって環境音が検知された前後において、ユーザが自身の体調に関して発話していた場合には、その発話情報が示す体調を、現在のユーザの体調として取得してもよい。 For example, the information processing device 100 can acquire “weather” information from a predetermined external server device when the smart speaker 30 detects the environmental sound. Further, for example, when the user wears a wearable terminal equipped with various sensors, the information processing apparatus 100 receives the user's "physical condition" information from the wearable terminal when the environmental sound is detected by the smart speaker 30. can be obtained. In addition, when the user speaks about his or her physical condition before and after the smart speaker 30 detects the environmental sound, the information processing apparatus 100 acquires the physical condition indicated by the speech information as the current physical condition of the user. You may

(コンテキスト情報記憶部122について)
コンテキスト情報記憶部122は、スマートスピーカー30によって検知されたユーザのコンテキストに関する情報を記憶する。ここで、図5に実施形態にかかるコンテキスト情報記憶部122の一例を示す。図5の例では、コンテキスト情報記憶部122は、「ユーザID」、「日時」、「環境音データ」といった項目を有する。コンテキスト情報記憶部122については、図1で既に説明しているため、ここでの詳細な説明は省略する。なお、コンテキスト情報記憶部122は、図5に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。
(Regarding the context information storage unit 122)
The context information storage unit 122 stores information about the user's context sensed by the smart speaker 30 . Here, FIG. 5 shows an example of the context information storage unit 122 according to the embodiment. In the example of FIG. 5, the context information storage unit 122 has items such as "user ID", "date and time", and "environmental sound data". Since the context information storage unit 122 has already been described in FIG. 1, detailed description thereof will be omitted here. In addition to the items shown in FIG. 5, the context information storage unit 122 stores the “day of the week” when the environmental sound was detected by the smart speaker 30, the “weather” when the environmental sound was detected by the smart speaker 30, the smart speaker The "physical condition" of the user when the environmental sound was detected by 30 may be included.

(対象情報記憶部123について)
対象情報記憶部123は、機械学習(相関分析)に用いられる情報を記憶する。例えば、対象情報記憶部123は、環境音情報記憶部121から取得された環境音データと、コンテキスト情報記憶部122から取得されたコンテキストデータとを対応付けて記憶する。また、ここで対応付けられる環境音データとコンテキストデータとは、例えば、「カーテンを開けた直後に、音声指示する」といったユーザの一連の行動の中で関連性を有するものである。
(Regarding the target information storage unit 123)
The target information storage unit 123 stores information used for machine learning (correlation analysis). For example, the target information storage unit 123 associates and stores the environmental sound data acquired from the environmental sound information storage unit 121 and the context data acquired from the context information storage unit 122 . Also, the environmental sound data and the context data that are associated here have relevance in a series of actions of the user, for example, "Immediately after opening the curtain, give a voice instruction."

ここで、図6に実施形態にかかる対象情報記憶部123の一例を示す。図6の例では、対象情報記憶部123は、「ユーザID」、「日付」、「時間帯」、「コンテキストデータ」、「環境音データ」といった項目を有する。対象情報記憶部123については、図1で既に説明しているため、ここでの詳細な説明は省略する。なお、対象情報記憶部123は、図6に示す項目以外にも、スマートスピーカー30によって環境音が検知された「曜日」、スマートスピーカー30によって環境音が検知されたときの「天候」、スマートスピーカー30によって環境音が検知されたときのユーザの「体調」等が含まれてもよい。 Here, FIG. 6 shows an example of the target information storage unit 123 according to the embodiment. In the example of FIG. 6, the target information storage unit 123 has items such as "user ID", "date", "time zone", "context data", and "environmental sound data". Since the target information storage unit 123 has already been described in FIG. 1, detailed description thereof will be omitted here. Note that the target information storage unit 123 stores, in addition to the items shown in FIG. The "physical condition" of the user when the environmental sound was detected by 30 may be included.

図1では、情報処理装置100は、各ユーザについて、「時間帯」毎に環境音とコンテキストとの関係性を分析(学習)することで、ある時間帯においては、どのような環境音の後にはユーザはどのようなコンテキストの傾向にあるかといった、「時間帯」での傾向を捉えることができる例を示した。 In FIG. 1 , the information processing apparatus 100 analyzes (learns) the relationship between the environmental sound and the context for each “time period” for each user. showed an example that can capture trends in "time zones", such as what kind of context users tend to have.

しかし、情報処理装置100は、対象情報記憶部123が項目「曜日」を有することで、「天候」毎に「時間帯」での傾向を捉えることができる。また、情報処理装置100は、対象情報記憶部123が項目「天候」を有することで、「天候」毎に「時間帯」での傾向を捉えることができる。また、情報処理装置100は、対象情報記憶部123が項目「体調」を有することで、「体調」毎に「時間帯」での傾向を捉えることができる。 However, since the target information storage unit 123 has the item "day of the week", the information processing apparatus 100 can grasp the tendency in the "time zone" for each "weather". In addition, the information processing apparatus 100 can grasp the trend in the "time period" for each "weather" because the target information storage unit 123 has the item "weather". In addition, the information processing apparatus 100 can grasp the tendency in the "time period" for each "physical condition" because the target information storage unit 123 has the item "physical condition".

図3に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、決定装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。 Returning to FIG. 3, the control unit 130 executes various programs stored in a storage device inside the determination device 100 using a RAM as a work area by a CPU (Central Processing Unit), MPU (Micro Processing Unit), or the like. It is realized by Also, the control unit 130 is implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図3に示すように、制御部130は、受信部131と、取得部132と、分析部133と、決定部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 3, the control unit 130 has a receiving unit 131, an acquiring unit 132, an analyzing unit 133, and a determining unit 134, and implements or executes information processing functions and actions described below. . Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it performs information processing described later. Moreover, the connection relationship between the processing units of the control unit 130 is not limited to the connection relationship shown in FIG. 3, and may be another connection relationship.

(受信部131について)
受信部131は、スマートスピーカー30から送信された情報を受信する。例えば、受信部131は、スマートスピーカー30によって検知された環境音の環境音データ、および、スマートスピーカー30によって検知されたコンテキストのコンテキストデータを、スマートスピーカー30から受信(取得)する。
(Regarding the receiving unit 131)
The receiving unit 131 receives information transmitted from the smart speaker 30 . For example, the receiving unit 131 receives (acquires) environmental sound data of environmental sounds detected by the smart speaker 30 and context data of contexts detected by the smart speaker 30 from the smart speaker 30 .

(取得部132について)
取得部132は、ユーザの周辺環境の環境音を取得する。例えば、取得部132は、ユーザの周辺環境の環境音をユーザ毎に取得する。例えば、取得部132は、ユーザの周辺環境の環境音として、ユーザの生活空間内での環境音を取得する。また、取得部132は、ユーザの周辺環境の環境音として、ユーザのコンテキストが示す状況が起こるよりも前に発生した環境音を取得する。また、取得部132は、ユーザのコンテキストが示す状況よりも前に発生した環境音として、ユーザのコンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する。また、取得部132は、環境音として、スマートスピーカー30により検知された環境音のデータ(環境音データ)を取得する。
(Regarding the acquisition unit 132)
The acquisition unit 132 acquires environmental sounds of the user's surrounding environment. For example, the acquisition unit 132 acquires environmental sounds of the user's surrounding environment for each user. For example, the acquisition unit 132 acquires the environmental sounds in the living space of the user as the environmental sounds of the user's surrounding environment. In addition, the acquisition unit 132 acquires, as the environmental sound of the user's surrounding environment, the environmental sound that occurred before the situation indicated by the user's context occurred. In addition, the acquisition unit 132 acquires environmental sounds that occurred within a predetermined period of time before the situation indicated by the user's context occurred, as environmental sounds that occurred before the situation indicated by the user's context. In addition, the acquisition unit 132 acquires environmental sound data (environmental sound data) detected by the smart speaker 30 as the environmental sound.

図1の例では、ユーザU1ついて「2018年7月1日の7時台」では、コンテキストデータDA11-2が示す状況が起こるよりも前の5分以内に、環境音データDA11-1が示す環境音(カーテンの音)が発生している。したがって、かかる例では、取得部132は、「2018年7月1日の7時台」に合わせて、環境音情報記憶部121から環境音データDA11-1を取得する。また、取得部132は、「2018年7月1日の7時台」に合わせて、コンテキスト情報記憶部122からコンテキストデータDA11-2を取得する。 In the example of FIG. 1, for the user U1, at “7:00 on July 1, 2018”, within 5 minutes before the situation indicated by the context data DA11-2 occurs, the environmental sound data DA11-1 indicates Environmental sound (curtain sound) is being generated. Therefore, in this example, the acquisition unit 132 acquires the environmental sound data DA11-1 from the environmental sound information storage unit 121 at the time of "7:00 on July 1, 2018". Further, the acquisition unit 132 acquires the context data DA11-2 from the context information storage unit 122 at the time of “7:00 on July 1, 2018”.

そして、情報処理装置100は、取得したデータを対象情報記憶部123に格納する。ユーザU1以外のユーザU2~U4についても、取得部132は、同様にして環境音データを取得するが、図1の説明の通りであるため省略する。 The information processing apparatus 100 then stores the acquired data in the target information storage unit 123 . For users U2 to U4 other than user U1, the acquisition unit 132 similarly acquires the environmental sound data, but the description is omitted since it is as described with reference to FIG.

(分析部133について)
分析部132は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析(学習)する。例えば、分析部132は、環境音から抽出される特徴情報であって、ユーザの特徴を示す特徴情報と、前記ユーザのコンテキストとの関係性を分析する。また、分析部133は、学習部133と言い換えることができる。例えば、分析部132は、対象情報記憶部123に格納されている各項目をユーザの特徴情報として、環境音とコンテキストとの関係性を分析する。
(Regarding the analysis unit 133)
The analysis unit 132 analyzes (learns) the relationship between the environmental sounds acquired by the acquisition unit 132 and the user's context. For example, the analysis unit 132 analyzes the relationship between the feature information, which is feature information extracted from the environmental sound and indicates the features of the user, and the context of the user. Also, the analysis unit 133 can be rephrased as the learning unit 133 . For example, the analysis unit 132 analyzes the relationship between the environmental sound and the context using each item stored in the target information storage unit 123 as user feature information.

例えば、分析部133は、相関分析(教師なし学習)を行うことができる。例えば、分析部133は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、相関分析を行う。ユーザU1を例に挙げると、分析部133は、対象情報記憶部123に格納に格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、相関分析を行う。これにより、情報処理装置100は、ある時間帯においては、どのような環境音の後(5分以内)には、ユーザU1はどのようなコンテキストの傾向にあるかといった、時間的傾向を捉えることができる。 For example, the analysis unit 133 can perform correlation analysis (unsupervised learning). For example, the analysis unit 133 performs correlation analysis for each user using environmental sound data and context data corresponding to the user. Taking the user U1 as an example, the analysis unit 133 converts the context data corresponding to the item “time zone” among the items stored in the target information storage unit 123 and the environmental sound data into variables (feature data). information), perform a correlation analysis. As a result, the information processing apparatus 100 can capture temporal trends such as what kind of context the user U1 tends to follow after what kind of environmental sound (within 5 minutes) in a certain time period. can be done.

なお、分析部132は、対象情報記憶部123の項目「時間帯」以外にも、「曜日」、「天候」、「体調」に対応するコンテキストデータと、環境音データデータとを変数(特徴情報)として、相関分析を行ってもよい。 Note that the analyzing unit 132 stores the context data corresponding to the “day of the week”, the “weather”, and the “physical condition” and the environmental sound data as variables (feature information) in addition to the item “time period” of the target information storage unit 123 . ), a correlation analysis may be performed.

(決定部134について)
決定部134は、取得部132により取得された環境音に対応するユーザのコンテキストに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。例えば、決定部134は、ユーザのコンテキストとして、所定の出力装置(例えば、スマートスピーカー30)に対する操作を示すコンテキストに基づいて、所定の情報を出力するタイミングを決定する。具体的には、決定部134は、所定の出力装置に対する操作として、所定の出力装置に対する音声操作を示すコンテキストに基づいて、所定の情報を出力するタイミングを決定する。
(About decision unit 134)
The determination unit 134 determines the timing of outputting predetermined information to the user based on the user's context corresponding to the environmental sound acquired by the acquisition unit 132 . For example, the determination unit 134 determines the timing of outputting predetermined information based on the user's context, which is a context indicating an operation on a predetermined output device (for example, the smart speaker 30). Specifically, the determination unit 134 determines the timing of outputting the predetermined information based on the context indicating the voice operation on the predetermined output device as the operation on the predetermined output device.

また、例えば、決定部134は、所定の情報として、コンテキストが示す情報であって、ユーザがコンテキストの中で要求している情報を出力するタイミングを決定する。図1の例では、ユーザU1がスマートスピーカー30に対してニュースの出力を要求している。このような要求が、ユーザがコンテキストの中で要求している情報に対応する。 Also, for example, the determining unit 134 determines the timing of outputting the information indicated by the context, which is requested by the user in the context, as the predetermined information. In the example of FIG. 1, the user U1 requests the smart speaker 30 to output news. Such requests correspond to information the user is requesting in context.

また、決定部134は、取得部132により取得された環境音が発生した発生時刻と、当該環境音に対応するコンテキストが示す時刻とに基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。具体的には、決定部134は、分析部133による分析結果に基づき環境音と所定の関係性(時間的傾向の関係)にあるコンテキストが示す発生時刻と、環境音の発生時刻との間での時間間隔に基づいて、ユーザに対して所定の情報を出力するタイミングを決定する。 Further, the determining unit 134 determines the timing of outputting predetermined information to the user based on the occurrence time of the environmental sound acquired by the acquiring unit 132 and the time indicated by the context corresponding to the environmental sound. decide. Specifically, the determination unit 134 determines the time between the occurrence time indicated by the context having a predetermined relationship (temporal tendency relationship) with the environmental sound based on the analysis result of the analysis unit 133 and the occurrence time of the environmental sound. , the timing for outputting predetermined information to the user is determined.

一例を示すと、決定部134は、上記発生時刻に対応する時間帯において、コンテキストと所定の関係性にある環境音が検知された場合には、当該環境音が検知された時刻から時間間隔以内の時刻を、所定の情報を出力するタイミングとして決定する。 As an example, if an environmental sound having a predetermined relationship with the context is detected in the time period corresponding to the time of occurrence, the determination unit 134 determines whether the environmental sound is detected within a time interval from the time when the environmental sound was detected. is determined as the timing for outputting the predetermined information.

図1の例では、分析部133は、7時台におけるカーテン音と、7時台におけるユーザU1のコンテキスト(ニュースを流させる音声指示)とは相関関係(時間的傾向の関係)にあるとの分析結果を得ている。したがって、決定部134は、ルームR1において7時台にカーテン音が検知された場合には、そのカーテン音が検知された時刻から5分以内の時刻を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、決定部134は、「2018年7月2日7時05分10秒」(10秒後)を、ユーザU1に向けてスマートスピーカー30からニュースを出力させるタイミングとして決定する。 In the example of FIG. 1, the analysis unit 133 determines that there is a correlation (temporal tendency relationship) between the curtain sound at around 7:00 and the context of the user U1 at around 7:00 (audio instruction to broadcast news). I have the results of the analysis. Therefore, when the curtain sound is detected around 7:00 in the room R1, the determination unit 134 notifies the user U1 of the time within 5 minutes from the time when the curtain sound is detected from the smart speaker 30. is determined as the output timing. For example, assume that the smart speaker 30 detects the curtain sound at "July 2, 2018, 7:05:00". In this case, the determination unit 134 determines “July 2, 2018, 7:05:10” (10 seconds later) as the timing for outputting news from the smart speaker 30 to the user U1.

〔3.処理手順〕
次に、図7を用いて、実施形態にかかる情報処理の手順について説明する。図7は、実施形態にかかる情報処理手順を示すフローチャートである。
[3. Processing procedure]
Next, the procedure of information processing according to the embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an information processing procedure according to the embodiment;

まず、受信部131は、スマートスピーカー30から、スマートスピーカー30を使用するユーザの周辺環境の環境音を示す環境音データと、このユーザのコンテキストを示すコンテキストデータとを受信したか否かを判定する(ステップS101)。受信部131は、データを受信していないと判定した場合には(ステップS101;No)、データを受信するまで待機する。 First, the receiving unit 131 determines whether or not environmental sound data indicating environmental sounds in the surrounding environment of the user using the smart speaker 30 and context data indicating the user's context have been received from the smart speaker 30 . (Step S101). If the receiving unit 131 determines that data has not been received (step S101; No), it waits until data is received.

一方、取得部132は、受信部131によりデータを受信したと判定された場合には(ステップS101;Yes)、ユーザのコンテキストが起こった時刻よりも前(例えば、30秒前)に発生した環境音を示す環境音データを取得する(ステップS102)。受信部131は、環境音データを受信する度に、受信した環境音データを環境音情報記憶部121に格納する。また、受信部131は、コンテキストデータを受信する度に、受信したコンテキストデータをコンテキスト情報記憶部122に格納する。したがって、取得部132は、これらの記憶部内の格納データを比較することで、ユーザのコンテキストが起こった時刻よりも前(例えば、30秒前)に発生した環境音を示す環境音データを環境音情報記憶部121から取得する。 On the other hand, when the receiving unit 131 determines that the data has been received (step S101; Yes), the acquiring unit 132 acquires the environment that occurred before the time when the user's context occurred (for example, 30 seconds ago). Acquire environmental sound data representing sound (step S102). The receiving unit 131 stores the received environmental sound data in the environmental sound information storage unit 121 each time it receives the environmental sound data. Also, the receiving unit 131 stores the received context data in the context information storage unit 122 every time it receives context data. Therefore, the acquisition unit 132 compares the data stored in these storage units to obtain the environmental sound data representing the environmental sound that occurred before (for example, 30 seconds) before the time when the user's context occurred. Acquired from the information storage unit 121 .

また、取得部132は、取得した環境音データに対応するコンテキストデータも同時に取得する。例えば、取得部132は、かかるコンテキストデータをコンテキスト情報記憶部122から取得する。そして、取得部132は、取得した環境音データとコンテキストデータとの組合せを時間帯に対応付けて対象情報記憶部123に格納する。 The acquisition unit 132 also acquires context data corresponding to the acquired environmental sound data at the same time. For example, the acquisition unit 132 acquires such context data from the context information storage unit 122 . Then, the acquisition unit 132 stores the combination of the acquired environmental sound data and the context data in the target information storage unit 123 in association with the time zone.

次に、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストを用いて、環境音とコンテキストとの関係性を分析(学習)する(ステップS103)。例えば、分析部133は、ユーザ毎に、当該ユーザに対応する環境音データおよびコンテキストデータを用いて、環境音とコンテキストとの関係性を分析する。例えば、分析部133は、対象情報記憶部123に格納に格納されている各項目のうち、項目「時間帯」に対応するコンテキストデータと、環境音データとを変数(特徴情報)として、各時間帯について相関分析を行う。 Next, the analysis unit 133 analyzes (learns) the relationship between the environmental sound and the context using the environmental sound acquired by the acquisition unit 132 and the context of the user (step S103). For example, the analysis unit 133 analyzes the relationship between the environmental sound and the context for each user using the environmental sound data and the context data corresponding to the user. For example, the analysis unit 133 uses the context data corresponding to the item “time zone” among the items stored in the target information storage unit 123 and the environmental sound data as variables (feature information) for each time. Correlation analysis is performed on the bands.

次に、決定部134は、分析部133による分析結果に基づいて、スマートスピーカー30に対して、ユーザがコンテキストの中で要求している情報を出力させる出力タイミングを決定する(ステップS104)。例えば、決定部134は、分析部133による分析結果に基づき環境音と所定の関係性(時間的傾向の関係)にあるコンテキストが示す発生時刻と、この環境音の発生時刻との間での時間間隔に基づいて、出力タイミングを決定する。例えば、決定部134は、ある日において、この環境音が検知された場合には、その後ユーザがパターン化していると考えられる行動(コンテキスト)に移行すると考えられる時刻よりも早い時刻を、このコンテキストで要求されている情報の出力タイミングとして決定する。 Next, the determination unit 134 determines the output timing for outputting the information requested by the user in the context to the smart speaker 30 based on the analysis result by the analysis unit 133 (step S104). For example, the determination unit 134 determines the time between the occurrence time indicated by the context having a predetermined relationship (temporal tendency relationship) with the environmental sound based on the analysis result of the analysis unit 133 and the occurrence time of the environmental sound. Based on the interval, determine the output timing. For example, when this environmental sound is detected on a certain day, the determination unit 134 determines a time earlier than the time at which it is thought that the behavior (context) that is considered to be a pattern of the user after that is shifted to this context. is determined as the output timing of the information requested in .

また、決定部134は、決定したタイミングでスマートスピーカー30が情報出力するようスマートスピーカー30に対して出力制御する。スマートスピーカー30は、決定部134による出力制御に応じて情報を出力する。 Further, the determination unit 134 controls the output of the smart speaker 30 so that the smart speaker 30 outputs information at the determined timing. The smart speaker 30 outputs information according to output control by the determination unit 134 .

〔4.変形例〕
上記実施形態にかかる情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[4. Modification]
The information processing apparatus 100 according to the above embodiment may be implemented in various different forms other than the above embodiment. Therefore, other embodiments of the information processing apparatus 100 will be described below.

〔4-1.関係性分析について(1)〕
上記実施形態では、分析部133が、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析する一例として、相関分析を行う例を示した。しかし、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、環境音に対するコンテキストの傾向を示すモデルを生成してもよい。より具体的には、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、検知された環境音とこの環境音の発生時刻とを入力すると、この環境音と相関関係にあるコンテキストに基づく情報を出力するタイミングを決定(出力)するモデルを生成してもよい。これにより、情報処理装置100は、ある環境音が検知された場合、どんな情報をどのタイミングで出力させれば位よいかを捉えることができる。
[4-1. Regarding relationship analysis (1)]
In the above embodiment, the analysis unit 133 performs correlation analysis as an example of analyzing the relationship between the environmental sound acquired by the acquisition unit 132 and the user's context. However, the analysis unit 133 may generate a model indicating the tendency of the context with respect to the environmental sound by learning the relationship between the environmental sound acquired by the acquisition unit 132 and the user's context. More specifically, the analysis unit 133 learns the relationship between the environmental sound acquired by the acquisition unit 132 and the context of the user, thereby inputting the detected environmental sound and the occurrence time of the environmental sound. Then, a model may be generated that determines (outputs) the timing of outputting context-based information correlated with the environmental sound. Accordingly, the information processing apparatus 100 can grasp what kind of information should be output at what timing when a certain environmental sound is detected.

かかる場合、図1の例では、コンテキスト情報記憶部122に格納される「日時」と「コンテキストデータ」との組合せが、分析部133が生成するモデルの目的変数となる。また、環境音情報記憶部121に格納される「日時」と「環境音データ」との組合せが、説明変数となる。なお、説明変数(特徴情報)には、さらに「曜日」、「天候」、「体調」等が用いられてもよい。 In such a case, in the example of FIG. 1, the combination of the “date and time” and the “context data” stored in the context information storage unit 122 becomes the objective variable of the model generated by the analysis unit 133 . Also, the combination of the "date and time" and the "environmental sound data" stored in the environmental sound information storage unit 121 becomes an explanatory variable. In addition, "day of the week", "weather", "physical condition", etc. may be used as explanatory variables (feature information).

なお、分析部133が生成するモデルに関する学習手法は、下記の例に限らず、種々の既知の機械学習の手法が採用されてもよい。 Note that the learning method for the model generated by the analysis unit 133 is not limited to the example below, and various known machine learning methods may be employed.

例えば、分析部133は、カーテン音を示す環境音データから抽出される個々の特徴情報が、例えば「ユーザU1がカーテン音が発生した後の5分以内にスマートスピーカー30に対してニュースを流すよう音声指示する」という事象に対して、どのような重みを有するかを算出する。これにより、分析部133は、「ユーザU1がカーテン音が発生した後の5分以内にスマートスピーカー30に対してニュースを流すよう音声指示する」という事象に対して、個々の特徴情報がどのくらい寄与するのかといった情報を得ることができる。そして、分析部133は、算出した情報を用いて、傾向を示すモデルを生成する。 For example, the analysis unit 133 determines that the individual feature information extracted from the environmental sound data indicating the curtain sound is, for example, "user U1 should broadcast news to the smart speaker 30 within 5 minutes after the curtain sound is generated." It calculates what kind of weight is given to the event "to give a voice instruction". As a result, the analysis unit 133 determines how much the individual feature information contributes to the phenomenon that "the user U1 issues a voice instruction to the smart speaker 30 to play news within five minutes after the curtain sound is generated". You can get information about what to do. Then, the analysis unit 133 uses the calculated information to generate a model indicating a tendency.

また、決定部134は、分析部133により生成されたモデルを用いて、出力タイミングを決定する。例えば、「2018年7月2日7時05分00秒」にスマートスピーカー30によってカーテン音が検知されたとする。この場合、決定部134は、「2018年7月2日7時05分00秒」と、カーテン音を示す環境音データとを、上記生成されたモデルに入力する。例えば、このときの出力結果が「2018年7月2日7時05分10秒において、ニュースを出力させる」ことであるとすると、決定部134は、「2018年7月2日7時05分10秒」を出力タイミングとして決定する。 Also, the determination unit 134 determines the output timing using the model generated by the analysis unit 133 . For example, assume that the smart speaker 30 detects the curtain sound at "July 2, 2018, 7:05:00". In this case, the determining unit 134 inputs “July 2, 2018, 7:05:00” and the environmental sound data indicating the curtain sound to the generated model. For example, if the output result at this time is "to output news at 7:05:10 on July 2, 2018", the determining unit 134 outputs "at 7:05 on July 2, 2018". 10 seconds” as the output timing.

〔4-2.関係性分析について(2)〕
上記実施形態では、分析部133が、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を分析する一例として、相関分析を行う例を示した。しかし、分析部133は、取得部132により取得された環境音と、ユーザのコンテキストとの関係性を学習することにより、取得部132により取得された環境音が発生した後の所定時間内におけるユーザのコンテキストの傾向を示すモデルを生成してもよい。かかるモデルは、検知された環境音とこの環境音の発生時刻とを入力すると、この環境音と相関関係にあるコンテキストに基づく情報を出力するタイミングを決定(出力)するモデルと言い換えることができる。これにより、情報処理装置100は、ある環境音が検知された場合、どんな情報をどのタイミングで出力させれば位よいかを捉えることができる。
[4-2. Regarding relationship analysis (2)]
In the above embodiment, the analysis unit 133 performs correlation analysis as an example of analyzing the relationship between the environmental sound acquired by the acquisition unit 132 and the user's context. However, the analysis unit 133 learns the relationship between the environmental sound acquired by the acquisition unit 132 and the context of the user, and thus the analysis unit 133 learns the user's may generate models that show trends in the context of Such a model can be rephrased as a model that determines (outputs) the timing of outputting information based on the context correlated with the environmental sound when the detected environmental sound and the occurrence time of the environmental sound are input. Accordingly, the information processing apparatus 100 can grasp what kind of information should be output at what timing when a certain environmental sound is detected.

また、分析部133は、取得部132により取得された環境音であってユーザ毎に取得された環境音と、当該ユーザのコンテキストとの関係性を学習することにより、ユーザ毎にモデルを生成する。一方で、分析部133は、取得部132により取得された環境音であって所定の複数のユーザについて取得された環境音と、当該所定の複数のユーザのコンテキストとの関係性を学習することにより、当該所定の複数のユーザに対応するモデルを生成してもよい。かかる場合、分析部133は、所定の複数のユーザのコンテキストを、所定の複数のユーザのコンテキストを平均した平均コンテキストとして、モデルを生成することができる。 In addition, the analysis unit 133 generates a model for each user by learning the relationship between the environmental sound acquired by the acquisition unit 132 and acquired for each user and the context of the user. . On the other hand, the analysis unit 133 learns the relationship between the environmental sounds acquired by the acquisition unit 132 for a plurality of predetermined users and the contexts of the plurality of predetermined users. , may generate a model corresponding to the predetermined plurality of users. In such a case, the analysis unit 133 can generate a model using the contexts of a plurality of predetermined users as an average context obtained by averaging the contexts of a plurality of predetermined users.

また、決定部134は、所定の情報を出力する出力対象のユーザ以外のユーザである他ユーザのモデルに基づいて、出力対象のユーザに対して所定の情報を出力するタイミングを決定してもよい。ここで、分析部134が、出力対象のユーザ(例えば、ユーザU1)のモデルを生成する場合、ユーザU1について所定期間分のコンテキスト情報が蓄積されている必要がある。コンテキスト情報が十分な数蓄積されていないと、精度の高いモデルを生成できない場合があることも、背景の一つである。したがって、決定部134は、ユーザU1のコンテキスト情報が不足しているため分析部133によりユーザU1に対応するモデルが生成されていない場合には、例えば、十分な数のコンテキスト情報に基づき既にモデルが生成されている他ユーザ(例えば、ユーザU2)のモデルに基づいて、ユーザU1に所定の情報を出力するタイミングを決定する。 Further, the determining unit 134 may determine the timing of outputting the predetermined information to the output target user based on the model of the other user who is the user other than the output target user who outputs the predetermined information. . Here, when the analysis unit 134 generates a model of an output target user (for example, user U1), it is necessary to accumulate context information for a predetermined period of time for user U1. One of the backgrounds is that a highly accurate model may not be generated unless a sufficient amount of context information is accumulated. Therefore, if the analysis unit 133 has not generated a model corresponding to the user U1 because the context information of the user U1 is insufficient, the determination unit 134 determines that the model has already been generated based on a sufficient number of context information, for example. Based on the generated model of another user (for example, user U2), the timing of outputting predetermined information to user U1 is determined.

なお、決定部134は、必ずしも、分析部133によりユーザU1に対応するモデルが生成されていない場合に限って、他ユーザ(例えば、ユーザU2)のモデルに基づいて、ユーザU1に所定の情報を出力するタイミングを決定する必要はない。 Note that the determination unit 134 provides predetermined information to the user U1 based on the model of another user (for example, the user U2) only when the model corresponding to the user U1 is not generated by the analysis unit 133. It is not necessary to decide when to output.

〔4-3.環境音について〕
上記実施形態では、情報処理装置100による情報処理に用いられる対象の環境音は、ユーザの周辺環境の環境音であり、これらは人物が物体に触れることにより発生する環境音であったり、機器から出力される機械音である例を示した。しかし、ユーザの周辺環境の環境音は、これらに限定される必要はなく、例えば、人物の話し声等であってもよい。例えば、複数の人物が会話していることによる、会話の雑音(ガヤガヤ音)が挙げられる。例えば、例えば、ホームHP1のあるルームR1では、頻繁に20時台にパーティーが行われ、このときユーザU1の音声指示により、スマートスピーカーからいつも特定の音楽(BGM)が流されるものとする。
[4-3. About environmental sounds]
In the above embodiment, the environmental sounds to be used for information processing by the information processing apparatus 100 are the environmental sounds of the surrounding environment of the user. An example of output mechanical sound is shown. However, the environmental sounds of the user's surrounding environment need not be limited to these, and may be, for example, human speech. For example, conversational noise (chattering noise) due to a plurality of people having a conversation can be mentioned. For example, in room R1 where home HP1 is located, parties are frequently held around 20:00, and specific music (BGM) is always played from the smart speaker according to voice instructions from user U1.

かかる場合、情報処理装置100は、20時台において会話の雑音が検知されると、ユーザU1は特定のBGMを流すとの傾向を学習結果により得ることができる。そうすると、これまで説明したきたように、例えば、情報処理装置100は、次回のパーティーにて、20時台において会話の雑音が検知されると、ユーザU1よる操作よりも先に、スマートスピーカー30からBGMを出力させることができる。 In such a case, the information processing apparatus 100 can obtain from the learning result the tendency of the user U1 to play specific BGM when conversation noise is detected between 20:00 and 20:00. Then, as described above, for example, when conversation noise is detected around 20:00 at the next party, the information processing device 100 detects noise from the smart speaker 30 prior to the operation by the user U1. BGM can be output.

〔4-4.スタンドアロン形式〕
上記実施形態では、情報処理装置100が、スマートスピーカー30と連携することにより、実施形態にかかる情報処理を行う例をしました。しかしながら、情報処理装置100が行うものとして説明した情報処理は、スマートスピーカー30側で単独(スタンドアロン)で行われてもよい。また、かかる場合、実施形態にかかる情報処理システム1には、情報処理装置100は含まれず、また、スマートスピーカー30は、情報処理装置100を含め、他の外部装置に対して、検知した環境音やコンテキストのデータを送信することもない。また、そうすると、スマートスピーカー30は、図3で説明した受信部131を有していなくともよい。
[4-4. Standalone format]
In the above embodiment, the information processing device 100 cooperates with the smart speaker 30 to perform information processing according to the embodiment. However, the information processing described as being performed by the information processing device 100 may be performed independently (standalone) on the smart speaker 30 side. In such a case, the information processing apparatus 100 is not included in the information processing system 1 according to the embodiment, and the smart speaker 30, including the information processing apparatus 100, communicates the detected environmental sound to other external devices. or send any context data. Also, in that case, the smart speaker 30 does not need to have the receiving unit 131 described with reference to FIG. 3 .

〔4-5.タイミングについて〕
上記実施形態では、決定部134が、スマートスピーカー30から情報出力(音声出力)させる例を示した。しかし、決定部134が情報出力させる対象の機器は、スマートスピーカー30に限定されない。例えば、決定部134は、ユーザの端末装置10からコンテンツを出力(表示)させるタイミングを決定してもよい。
[4-5. About timing]
In the above embodiment, an example in which the determination unit 134 causes the smart speaker 30 to output information (audio output) has been described. However, the device to which the determining unit 134 outputs information is not limited to the smart speaker 30 . For example, the determination unit 134 may determine the timing of outputting (displaying) content from the terminal device 10 of the user.

例えば、ユーザU1は毎朝7時に起床すると、端末装置10を手に取り端末装置10を起動させてから、端末装置10で天気予報サイトを閲覧することがパターン化されているとする。端末装置10を手に取る場合や、端末装置10を起動させる場合には、環境音が発生する。そうすると、情報処理装置100は、例えば、この環境音とコンテキスト(端末装置10で天気予報サイトを閲覧する)との間に傾向を示す関係性があるとの学習結果を得られる場合がある。 For example, assume that user U1 wakes up at 7:00 every morning, picks up the terminal device 10, activates the terminal device 10, and then browses the weather forecast site on the terminal device 10. Environmental sounds are generated when the terminal device 10 is picked up or when the terminal device 10 is activated. Then, the information processing apparatus 100 may obtain a learning result that, for example, there is a relationship indicating a tendency between the environmental sound and the context (browsing the weather forecast site with the terminal device 10).

これにより、情報処理装置100は、例えば、ユーザU1が起床して端末装置10を起動させるとすぐに、動的に天気予報サイトを表示させることができる。あるいは、情報処理装置100は、ユーザU1が天気予報サイトでどの地域の天気を調べる傾向にあるのかまで特定できている場合には、その地域の天気情報をプッシュ通知させてもよい。 Accordingly, the information processing device 100 can dynamically display the weather forecast site immediately after the user U1 wakes up and activates the terminal device 10, for example. Alternatively, if the user U1 can specify which region the user U1 tends to check the weather on the weather forecast site, the information processing apparatus 100 may push the weather information for that region.

〔5.ハードウェア構成〕
また、上記実施形態にかかるスマートスピーカー30および情報処理装置100は、例えば図8に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図8は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
Also, the smart speaker 30 and the information processing device 100 according to the above embodiment are implemented by a computer 1000 configured as shown in FIG. 8, for example. The information processing apparatus 100 will be described below as an example. FIG. 8 is a hardware configuration diagram showing an example of a computer 1000 that implements the functions of the information processing apparatus 100. As shown in FIG. Computer 1000 has CPU 1100 , RAM 1200 , ROM 1300 , HDD 1400 , communication interface (I/F) 1500 , input/output interface (I/F) 1600 and media interface (I/F) 1700 .

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。 HDD 1400 stores programs executed by CPU 1100 and data used by these programs. Communication interface 1500 receives data from other devices via communication network 50 and sends the data to CPU 1100 , and transmits data generated by CPU 1100 to other devices via communication network 50 .

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the information processing apparatus 100 according to the embodiment, the CPU 1100 of the computer 1000 implements the functions of the control unit 130 by executing programs loaded on the RAM 1200 . In addition, data in storage unit 120 is stored in HDD 1400 . CPU 1100 of computer 1000 reads these programs from recording medium 1800 and executes them, but as another example, these programs may be obtained from another device via communication network 50 .

また、例えば、コンピュータ1000が実施形態にかかるスマートスピーカー30として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部13の機能を実現する。 Also, for example, when the computer 1000 functions as the smart speaker 30 according to the embodiment, the CPU 1100 of the computer 1000 implements the functions of the control unit 13 by executing programs loaded on the RAM 1200 .

〔6.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[6. others〕
Of the processes described in each of the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or all of the processes described as being performed manually Alternatively, some can be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, the embodiments of the present application have been described in detail based on several drawings, but these are examples, and various modifications and It is possible to carry out the invention in other forms with modifications.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

1 情報処理システム
10 端末装置
30 出力装置
100 情報処理装置
120 記憶部
121 環境音情報記憶部
122 コンテキスト情報記憶部
123 対象情報記憶部
130 制御部
131 受信部
132 取得部
133 分析部
134 決定部
1 information processing system 10 terminal device 30 output device 100 information processing device 120 storage unit 121 environmental sound information storage unit 122 context information storage unit 123 target information storage unit 130 control unit 131 reception unit 132 acquisition unit 133 analysis unit 134 determination unit

Claims (16)

ユーザの周辺環境の環境音を取得する取得部と、
前記取得部により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析部と、
記ユーザのコンテキストのうち、前記分析部による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定部と
を有し、
前記決定部は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
ことを特徴とする情報処理装置。
an acquisition unit that acquires environmental sounds of the user's surrounding environment;
an analysis unit that analyzes the relationship between the environmental sound acquired by the acquisition unit and the context of the user corresponding to the environmental sound;
Predetermined information is provided to the user based on the context of the user, which is indicated by the analysis result of the analysis unit and which has a relationship indicating a temporal tendency with respect to the environmental sound. and a determination unit that determines the output timing ,
The determination unit determines a timing to output information requested by a user in a context having a relationship indicating a temporal tendency to the environmental sound as the predetermined information.
An information processing device characterized by:
前記取得部は、前記ユーザの周辺環境の環境音として、前記ユーザの生活空間内での環境音を取得する
ことを特徴とする請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the acquisition unit acquires environmental sounds in the user's living space as the environmental sounds of the user's surrounding environment.
前記取得部は、前記ユーザの周辺環境の環境音として、前記ユーザのコンテキストが示す状況が起こるよりも前に発生した環境音を取得する
ことを特徴とする請求項1または2に記載の情報処理装置。
The information processing according to claim 1 or 2, wherein the acquisition unit acquires, as the environmental sound of the user's surrounding environment, an environmental sound that occurred before a situation indicated by the user's context occurred. Device.
前記取得部は、前記ユーザのコンテキストが示す状況よりも前に発生した環境音として、前記ユーザのコンテキストが示す状況が起こるよりも前の所定時間内に発生した環境音を取得する
ことを特徴とする請求項3に記載の情報処理装置。
The acquisition unit acquires, as the environmental sound generated before the situation indicated by the user's context, an environmental sound that occurred within a predetermined period of time before the situation indicated by the user's context occurred. The information processing apparatus according to claim 3.
前記決定部は、前記環境音に対して時間的傾向を示す関係性にあるコンテキストとして、所定の出力装置に対する操作を示すコンテキストに基づいて、前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
The determination unit determines the timing of outputting the predetermined information based on a context indicating an operation on a predetermined output device as a context having a relationship indicating a temporal tendency with respect to the environmental sound. The information processing apparatus according to any one of claims 1 to 4.
前記決定部は、前記所定の出力装置に対する操作として、前記所定の出力装置に対する音声操作を示すコンテキストに基づいて、前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項5に記載の情報処理装置。
6. The determining unit determines the timing of outputting the predetermined information based on a context indicating a voice operation on the predetermined output device as the operation on the predetermined output device. information processing equipment.
前記決定部は、前記分析部による分析結果から、前記ユーザのコンテキストのうち、前記環境音に対して時間的傾向を示す関係性にあるコンテキストを特定し、特定したコンテキストに基づいて、前記ユーザに対して前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項1~6のいずれか1つに記載の情報処理装置。
The determination unit identifies, from the analysis results of the analysis unit, contexts of the user that have a relationship indicating a temporal tendency to the environmental sound, and based on the identified context, 7. The information processing apparatus according to any one of claims 1 to 6, wherein timing for outputting the predetermined information is determined.
前記分析部は、前記環境音から抽出される特徴情報であって、前記ユーザの特徴を示す特徴情報と、前記ユーザのコンテキストとの関係性を分析する
ことを特徴とする請求項1~7のいずれか1つに記載の情報処理装置。
The method according to any one of claims 1 to 7, wherein the analysis unit analyzes the relationship between the feature information extracted from the environmental sound and indicating the features of the user and the context of the user. The information processing device according to any one of the above.
前記分析部は、前記取得部により取得された環境音と、前記ユーザのコンテキストとの関係性を学習することにより、前記環境音が発生した後の所定時間内における前記ユーザのコンテキストの傾向を示すモデルを生成し、
前記決定部は、前記分析部により生成されたモデルに基づいて、前記ユーザに対して前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項のいずれか1つに記載の情報処理装置。
The analysis unit learns the relationship between the environmental sound acquired by the acquisition unit and the user's context, thereby indicating the tendency of the user's context within a predetermined time period after the environmental sound is generated. generate the model,
9. The method according to any one of claims 1 to 8 , wherein the determining unit determines timing for outputting the predetermined information to the user based on the model generated by the analyzing unit. information processing equipment.
前記分析部は、前記ユーザ毎に前記モデルを生成し、
前記決定部は、前記ユーザ毎のモデルのうち、出力先のユーザ以外のユーザである他ユーザのモデルに基づいて、前記出力先のユーザに対して前記所定の情報を出力するタイミングを決定する
ことを特徴とする請求項に記載の情報処理装置。
The analysis unit generates the model for each user,
The determination unit determines the timing of outputting the predetermined information to the output destination user based on a model of another user who is a user other than the output destination user among the models for each user. 10. The information processing apparatus according to claim 9 , characterized by:
記分析部は、前記取得部により取得された環境音が発生した発生時刻と、当該環境音に対応するコンテキストが示す時刻とに基づいて、前記環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する
ことを特徴とする請求項1~10のいずれか1つに記載の情報処理装置。
The analysis unit generates the environmental sound and the The information processing apparatus according to any one of claims 1 to 10 , wherein the relationship with the user's context is analyzed .
前記決定部は、前記環境音に対して時間的傾向を示す関係性にあるコンテキストが示す発生時刻と、前記環境音の発生時刻との間での時間間隔に基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する
ことを特徴とする請求項1~11のいずれか1つに記載の情報処理装置。
The determining unit, based on the time interval between the time of occurrence indicated by a context having a relationship indicating a temporal tendency with respect to the environmental sound and the time of occurrence of the environmental sound, to the user The information processing apparatus according to any one of claims 1 to 11 , wherein the timing for outputting predetermined information is determined.
前記決定部は、前記発生時刻に対応する時間帯において、前記コンテキストと時間的傾向を示す関係性にある環境音が検知された場合には、当該環境音が検知された時刻から前記時間間隔以内の時刻を、前記所定の情報を出力するタイミングとして決定する
ことを特徴とする請求項12に記載の情報処理装置。
When an environmental sound having a relationship indicating a temporal tendency with the context is detected in a time zone corresponding to the time of occurrence, the determination unit determines whether the environmental sound is detected within the time interval from the time when the environmental sound was detected. 13. The information processing apparatus according to claim 12 , wherein the time of is determined as the timing for outputting the predetermined information.
前記決定部は、前記取得部により取得された環境音に対応する前記ユーザ毎のコンテキストに基づいて、前記所定の情報を出力するタイミングを前記ユーザ毎に決定する
ことを特徴とする請求項1~13のいずれか1つに記載の情報処理装置。
The determination unit determines, for each user, the timing of outputting the predetermined information based on the context of each user corresponding to the environmental sound acquired by the acquisition unit. 14. The information processing device according to any one of 13 .
情報処理装置が実行する情報処理方法であって、
ユーザの周辺環境の環境音を取得する取得工程と、
前記取得工程により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析工程と、
記ユーザのコンテキストのうち、前記分析工程による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定工程と
を含み、
前記決定工程は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
とを特徴とする情報処理方法。
An information processing method executed by an information processing device,
an acquisition step of acquiring environmental sounds of the user's surrounding environment;
an analyzing step of analyzing the relationship between the environmental sound acquired by the acquiring step and the context of the user corresponding to the environmental sound;
Predetermined information is provided to the user based on the context of the user, which is the context indicated by the analysis result of the analysis step and which has a relationship indicating a temporal tendency to the environmental sound. and a determining step of determining the output timing ,
The determining step determines timing for outputting, as the predetermined information, information requested by the user in a context having a relationship indicating a temporal tendency to the environmental sound.
An information processing method characterized by:
ユーザの周辺環境の環境音を取得する取得手順と、
前記取得手順により取得された環境音と、前記環境音に対応する前記ユーザのコンテキストとの関係性を分析する分析する分析手順と、
記ユーザのコンテキストのうち、前記分析手順による分析結果が示すコンテキストであって、前記環境音に対して時間的傾向を示す関係性にあるコンテキストに基づいて、前記ユーザに対して所定の情報を出力するタイミングを決定する決定手順と
をコンピュータに実行させ
前記決定手順は、前記所定の情報として、前記環境音に対して時間的傾向を示す関係性にあるコンテキストの中でユーザが要求している情報を出力するタイミングを決定する
ことを特徴とする情報処理プログラム。
an acquisition procedure for acquiring environmental sounds of a user's surrounding environment;
an analysis procedure for analyzing the relationship between the environmental sound acquired by the acquisition procedure and the context of the user corresponding to the environmental sound;
Predetermined information is provided to the user based on the context of the user, which is indicated by the analysis result of the analysis procedure and which has a relationship indicating a temporal tendency with respect to the environmental sound. causing a computer to execute a determination procedure for determining the output timing and
The determination procedure determines the timing of outputting the information requested by the user in a context having a relationship indicating a temporal tendency to the environmental sound as the predetermined information.
An information processing program characterized by:
JP2018154267A 2018-08-20 2018-08-20 Information processing device, information processing method and information processing program Active JP7163103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018154267A JP7163103B2 (en) 2018-08-20 2018-08-20 Information processing device, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018154267A JP7163103B2 (en) 2018-08-20 2018-08-20 Information processing device, information processing method and information processing program

Publications (2)

Publication Number Publication Date
JP2020030489A JP2020030489A (en) 2020-02-27
JP7163103B2 true JP7163103B2 (en) 2022-10-31

Family

ID=69622481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018154267A Active JP7163103B2 (en) 2018-08-20 2018-08-20 Information processing device, information processing method and information processing program

Country Status (1)

Country Link
JP (1) JP7163103B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138530A (en) 2011-01-26 2011-07-14 Olympus Corp Information display system
JP2015138534A (en) 2014-01-24 2015-07-30 株式会社ニコン Electronic device
US20170293727A1 (en) 2016-04-08 2017-10-12 Apple Inc. Intelligent blood pressure monitoring
JP2018005536A (en) 2016-06-30 2018-01-11 東芝デジタルソリューションズ株式会社 Life data integration analysis system, life data integration analysis method and life data integration analysis program
JP2018049321A (en) 2016-09-20 2018-03-29 ヤフー株式会社 Estimation device, estimation method, and estimation program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138530A (en) 2011-01-26 2011-07-14 Olympus Corp Information display system
JP2015138534A (en) 2014-01-24 2015-07-30 株式会社ニコン Electronic device
US20170293727A1 (en) 2016-04-08 2017-10-12 Apple Inc. Intelligent blood pressure monitoring
JP2018005536A (en) 2016-06-30 2018-01-11 東芝デジタルソリューションズ株式会社 Life data integration analysis system, life data integration analysis method and life data integration analysis program
JP2018049321A (en) 2016-09-20 2018-03-29 ヤフー株式会社 Estimation device, estimation method, and estimation program

Also Published As

Publication number Publication date
JP2020030489A (en) 2020-02-27

Similar Documents

Publication Publication Date Title
KR102041063B1 (en) Information processing device, information processing method and program
JP6416752B2 (en) Home appliance control method, home appliance control system, and gateway
US8909636B2 (en) Lifestyle collecting apparatus, user interface device, and lifestyle collecting method
JP6120927B2 (en) Dialog system, method for controlling dialog, and program for causing computer to function as dialog system
EP3613045B1 (en) Methods, systems, and media for providing information relating to detected events
JP6400871B1 (en) Utterance control device, utterance control method, and utterance control program
WO2017141530A1 (en) Information processing device, information processing method and program
JP6543125B2 (en) Control method and refrigerator
JP2009087074A (en) Equipment control system
JP2018087872A (en) Information processing device, information processing system, information processing method, and program
WO2017175442A1 (en) Information processing device and information processing method
JP6557376B1 (en) Output control device, output control method, and output control program
JP7163103B2 (en) Information processing device, information processing method and information processing program
KR20230016013A (en) Inferring semantic label(s) for assistant device(s) based on device-specific signals
WO2020202862A1 (en) Response generation device and response generation method
JP6373709B2 (en) Dialogue device
WO2016117514A1 (en) Robot control device and robot
JP6720983B2 (en) Information processing device, information processing method, and program
US20210224066A1 (en) Information processing device and information processing method
CN106303701A (en) Intelligent television content recommendation method and device
KR20230047434A (en) Inferring assistant action(s) based on ambient sensing of the assistant device(s)
JP7428130B2 (en) Information processing device that determines the degree of macro security risk
JP6787957B2 (en) Utterance control device, utterance control method, and utterance control program
JP6499343B1 (en) Information processing apparatus, information processing method, and information processing program
JP2022180232A (en) Robot and robot system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7163103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350