JP6767322B2 - 出力制御装置、出力制御方法及び出力制御プログラム - Google Patents

出力制御装置、出力制御方法及び出力制御プログラム Download PDF

Info

Publication number
JP6767322B2
JP6767322B2 JP2017157958A JP2017157958A JP6767322B2 JP 6767322 B2 JP6767322 B2 JP 6767322B2 JP 2017157958 A JP2017157958 A JP 2017157958A JP 2017157958 A JP2017157958 A JP 2017157958A JP 6767322 B2 JP6767322 B2 JP 6767322B2
Authority
JP
Japan
Prior art keywords
user
output control
information
output
notification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017157958A
Other languages
English (en)
Other versions
JP2019036201A (ja
Inventor
潔 佐々木
潔 佐々木
玲 田島
玲 田島
篤慎 鎌田
篤慎 鎌田
昭宏 中辻
昭宏 中辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017157958A priority Critical patent/JP6767322B2/ja
Publication of JP2019036201A publication Critical patent/JP2019036201A/ja
Application granted granted Critical
Publication of JP6767322B2 publication Critical patent/JP6767322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、出力制御装置、出力制御方法及び出力制御プログラムに関する。
近年、ネットワークを介して様々なサービスが提供されている。ユーザは、タブレット端末やスマートフォン等の情報処理端末を用いて、提供される様々なサービスを利用する。
ところで、サービス側が、ユーザの状況に適したコンテンツを提供したり、パーソナライズされたコンテンツを提供したりするためには、ユーザの感情を精度よく推定できることが望ましい。このような感情推定に関する技術として、生体情報を利用することで、情報処理端末で出力されるコンテンツに対するユーザの感情を精度よく推定する技術が知られている。
特開2014−222397号公報
しかしながら、上記の従来技術では、様々な状況におけるユーザの感情を推定するとともに、推定した感情を用いた情報処理を行うことは難しい。例えば、上記の従来技術では、ユーザがコンテンツを閲覧した際の感情を推定し、推定された感情情報とコンテンツとを対応付けて記憶するに過ぎない。このため、従来技術では、例えば、実生活での家族間の会話等から感情を推定することや、推定した感情を利用して様々な情報処理を行うこと等は困難であった。
本願は、上記に鑑みてなされたものであって、様々な状況におけるユーザの感情を推定するとともに、推定した感情を用いた情報処理を行うことができる出力制御装置、出力制御方法及び出力制御プログラムを提供することを目的とする。
本願に係る出力制御装置は、センサが検知した情報であって、ユーザが発声した音声に関する情報である音情報を取得する取得部と、前記取得部によって取得された音情報に基づいて、前記音声を発したユーザの感情を推定する推定部と、前記推定部によって推定されたユーザの感情に応じた通知を出力するよう制御する出力制御部と、を備えたことを特徴とする。
実施形態の一態様によれば、様々な状況におけるユーザの感情を推定するとともに、推定した感情を用いた情報処理を行うことができるという効果を奏する。
図1は、実施形態に係る出力制御処理の一例を示す図である。 図2は、実施形態に係る出力制御システムの構成例を示す図である。 図3は、実施形態に係る出力制御装置の構成例を示す図である。 図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。 図5は、実施形態に係る音情報記憶部の一例を示す図である。 図6は、実施形態に係る推定情報記憶部の一例を示す図である。 図7は、実施形態に係る出力情報記憶部の一例を示す図である。 図8は、実施形態に係るスマートスピーカーの構成例を示す図である。 図9は、実施形態に係る処理手順を示すフローチャートである。 図10は、出力制御装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る出力制御装置、出力制御方法及び出力制御プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る出力制御装置、出力制御方法及び出力制御プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.出力制御処理の一例〕
まず、図1を用いて、実施形態に係る出力制御処理の一例について説明する。図1は、実施形態に係る出力制御処理の一例を示す図である。図1では、本願に係る出力制御装置の一例である出力制御装置100によって、実施形態に係る出力制御処理が行われる流れについて説明する。
図1に示す出力制御装置100は、実施形態に係る出力制御処理を実行するサーバ装置である。具体的には、図1では、出力制御装置100によって、ユーザが発声した音声に関する情報である音情報に基づいて、音声を発したユーザの感情を推定する処理と、推定されたユーザの感情に応じた通知を出力するよう制御する出力制御処理が行われる一例を示す。
図1に示すユーザ端末10は、ユーザによって利用される情報処理端末である。図1では、ユーザ端末10は、例えばスマートフォン(Smartphone)である。図1の例では、ユーザ端末10は、ユーザの一例であるユーザU01によって利用される。なお、実施形態では、個々のユーザを区別する必要のない場合は、「ユーザ」と総称する。また、以下では、ユーザをユーザ端末10と読み替える場合がある。例えば、「ユーザU01に情報を送信する」という記載は、実際には、「ユーザU01が利用するユーザ端末10に情報を送信する」という状況を示す場合がある。
図1に示すスマートスピーカー50は、ユーザU01やユーザU02やユーザU03が利用する装置であり、例えば、ユーザU01やユーザU02やユーザU03が居住する自宅H01内に配置される。スマートスピーカー50は、いわゆるIoT(Internet of Things)機器であり、サーバである出力制御装置100と連携して、種々の情報処理を行う。例えば、スマートスピーカー50は、音声解析技術を用いて、ユーザU01が発声した言葉の内容を特定し、特定した内容に応じて、コンテンツの提供や各種電子商店街への注文等を実現する。また、例えば、スマートスピーカー50は、音声出力機能を有し、曲名や作曲者等といった曲を示唆する情報をユーザU01が発声した場合には、かかる情報が示唆する曲をダウンロードして再生する等の情報処理を行う。
また、スマートスピーカー50は、自宅H01内で生じた音を検知したり、自宅H01内の映像(空間情報)を検知したりするための各種センサを有する。実施形態に係るセンサとは、種々の情報を検知するための検知器であり、種々の態様によって実現される。一例として、センサは、音を検知するマイクロフォンや、映像を検知するカメラや、照度を検知する照度センサや、傾きを検知するジャイロセンサ等によって実現される。実施形態では、センサは、自宅H01に設置されるスマートスピーカー50に内蔵されるものとする。なお、実施形態に係るセンサは、ユーザ端末10に内蔵されてもよい。また、実施形態では、センサによって検知され、出力制御装置100による情報処理が可能な信号に変換される音に関する情報を「音情報」と総称する。
実施形態において、出力制御装置100は、スマートスピーカー50によって検知された音情報を取得し、取得した音情報に含まれる音声を発したユーザの感情を推定する。そして、出力制御装置100は、推定したユーザの感情に応じた通知を所定の出力部から出力させる。例えば、出力制御装置100は、出力部の一例である、スマートスピーカー50が有するスピーカーから、所定の通知を出力させる。あるいは、出力制御装置100は、出力部の一例である、ユーザ端末10が有する画面やスピーカーから、所定の通知を出力させる。
通知は、例えば、ユーザの感情を可視化して示したレポートや、色を伴う光等である。出力制御装置100は、例えば、所定の時刻において、自宅H01内で、ユーザU01の子供であるユーザU02やユーザU03が怒りの感情を有していたこと等を示すレポートをユーザU01に送信する。これにより、ユーザU01は、自身が自宅H01に在宅していなくても、自宅H01で起こった出来事を推測することができる。また、出力制御装置100は、ユーザU02やユーザU03が怒りの感情を有していると推定した場合に、通知として、スマートスピーカー50から寒色系(例えば、青色等)の光を出力させるよう制御する。これにより、出力制御装置100は、ユーザU02やユーザU03に怒りの感情を鎮めさせたり、周りの人間に注意喚起したりすることができる。
このように、出力制御装置100は、主として各ユーザの自宅等に設置されるスマートスピーカー50が有するセンサによって検知された音情報からユーザの感情を推定するため、様々な状況におけるユーザの感情を推定することができる。また、出力制御装置100は、推定したユーザの感情に基づいて通知を行うなど、推定したユーザの感情を活用した情報処理を行うことができる。
以下、図1を用いて、実施形態に係る出力制御処理を流れに沿って説明する。なお、出力制御装置100は、音声認識技術や感情推定技術については、どのような技術を採用してもよい。例えば、音声情報に基づく感情推定技術としては、音声情報から抽出される音響的特徴情報をサポートベクタマシン(Support Vector Machine)等に学習させることによって、ユーザの感情を推定する技術が知られている。このような音声認識技術や、音声情報に基づく感情推定技術については、既知の様々な技術を用いることが可能であるため、詳細な説明を省略する。
図1の例において、ユーザU01、ユーザU02及びユーザU03が居住する自宅H01に設置されたスマートスピーカー50は、内蔵したセンサを用いて、各種情報を検知し、センシング(sensing)情報を取得する。一例として、スマートスピーカー50は、自宅H01における音に関する情報を検知する。より具体的には、スマートスピーカー50は、周囲の環境音やユーザの発した音声を検知する(ステップS01)。
実施形態では、環境音とは、ユーザが何らかの意図をもってスマートスピーカー50に入力した音声以外の音をいう。例えば、環境音の一例は、ユーザU01の自宅H01における暗騒音となりうる音や、自宅H01において再生された音楽等の音である。具体的には、環境音は、自宅H01におけるエアコンの稼働音や、テレビが出力する音である。
図1の例では、スマートスピーカー50は、ユーザU02やユーザU03の音声を含む音情報を検知するものとする。例えば、スマートスピーカー50は、ユーザU02とユーザU03が喧嘩して言い争っている音声を含む音情報を検知する。
スマートスピーカー50は、検知した音情報を、ネットワークを介して、出力制御装置100に送信する(ステップS02)。出力制御装置100は、送信された音情報を取得する(ステップS03)。図1の例では、出力制御装置100は、自宅H01においてユーザU02やユーザU03が発した音声に対応する音情報を取得する。
出力制御装置100は、取得した音情報に基づいて、音情報に含まれる音声を発したユーザの感情を推定する(ステップS04)。例えば、出力制御装置100は、ユーザU02やユーザU03が発した音声を認識し、認識した音声を解析する。そして、出力制御装置100は、音声に基づく感情推定処理によって、ユーザU02やユーザU03の感情を推定する。
なお、出力制御装置100は、推定した感情をどのような態様で示してもよい。例えば、出力制御装置100は、「怒り」や「喜び」や「悲しみ」等の各々の感情を数値として算出し、算出した数値をユーザの感情として取り扱ってもよい。また、出力制御装置100は、「怒り」や「喜び」や「悲しみ」等の各々の感情のうち、最も強く表出していると想定される一の感情(例えば、最も数値の高い感情)を、当該ユーザの感情であると推定してもよい。
そして、出力制御装置100は、推定した感情に応じた通知を決定する(ステップS05)。例えば、出力制御装置100が、ユーザU02やユーザU03の現時点の感情が「怒り」であると推定したとする。この場合、出力制御装置100は、推定した「怒り」という感情に応じた通知を決定する。
一例として、出力制御装置100は、ユーザU02やユーザU03の周辺に設置されていると想定されるスマートスピーカー50に出力する通知として、「怒り」という感情を有しているユーザU02やユーザU03を鎮めるための通知を決定する。具体的には、出力制御装置100は、スマートスピーカー50の出力部(例えば、発光素子を有する発光部など)の機能を利用して、通知として、寒色系の光を発するよう出力を制御する(ステップS06)。
なお、出力制御装置100は、スマートスピーカー50に対して、音声による通知を出力するよう制御してもよい。例えば、出力制御装置100は、「怒り」という感情に応じた通知として、「少し落ち着きましょう」といったメッセージを発する音声を決定し、かかる音声をスマートスピーカー50に送信し、出力させてもよい。
また、出力制御装置100は、ユーザ端末10に通知を行ってもよい。この場合、ユーザU01は、予めスマートスピーカー50とユーザ端末10とが連携した処理を行うことができるよう、スマートスピーカー50にユーザ端末10のデバイス情報を登録する等の処理を行っていてもよい。
例えば、出力制御装置100は、ユーザU02やユーザU03が「怒り」の感情を有していると推定した場合には、通知として、かかる推定処理の結果を示したレポートをユーザ端末10に送信する。そして、出力制御装置100は、ユーザ端末10の出力部(例えば、ユーザ端末10の画面)が、送信したレポートを出力する(表示する)よう制御する(ステップS07)。
なお、出力制御装置100は、このような通知のタイミングについて、ユーザU01から設定を受け付けていてもよい。例えば、出力制御装置100は、所定時間ごと(例えば、3時間ごと等)に、自宅H01において観測された感情に応じた通知をユーザ端末10に送信してもよい。あるいは、出力制御装置100は、「怒り」や「驚き」など、トラブルが想定される感情が推定されたことを契機として、感情に応じた通知をユーザ端末10に送信してもよい。これにより、ユーザU01は、自宅H01に在宅していなくても、自宅H01で発生した出来事を推測したり、早めに帰宅したりするなどの対応を行うことができる。
このように、実施形態に係る出力制御装置100は、センサが検知した情報であって、ユーザが発声した音声に関する情報である音情報を取得する。そして、出力制御装置100は、取得した音情報に基づいて、音声を発したユーザの感情を推定する。さらに、出力制御装置100は、推定したユーザの感情に応じた通知を出力部から出力するよう制御する。
すなわち、出力制御装置100は、主として自宅等の拠点に設置されるスマートスピーカー50が検知する情報に基づいてユーザの感情を推定するとともに、推定した感情に応じた通知を出力するなどの情報処理を行う。例えば、出力制御装置100は、自宅H01における何気ない会話や、家族間の会話等に含まれる音声等に基づいて、ユーザの感情を推定することができる。このため、出力制御装置100は、様々な状況におけるユーザの感情を推定することができる。
また、出力制御装置100によれば、推定した感情に基づいて通知を行うことにより、個々のユーザの状況に合わせた通知を行うことができる。また、出力制御装置100によれば、自宅H01におけるユーザU02やユーザU03の感情等をユーザ端末10にレポートすることもできるため、ユーザ端末10を利用するユーザU01に有用な情報を提供することができる。また、出力制御装置100は、例えば、ユーザの感情に応じた通知として、広告やレコメンド等を出力する処理を行ってもよい。これにより、出力制御装置100は、ユーザが喜んでいる状況や楽しんでいる状況が観測されたタイミングに合わせて広告やレコメンドを出力することができるため、出力する広告やレコメンドの訴求効果を向上させることが期待できる。
上述のように、出力制御装置100は、センサを用いて検知された音情報に基づいて感情を推定し、推定した感情に用いた情報処理を行う等、種々の有用な処理を行うことができる。以下、上述した出力制御処理を実行する出力制御装置100及び出力制御装置100を含む出力制御システム1について詳細に説明する。
〔2.出力制御システムの構成〕
次に、図2を用いて、実施形態に係る出力制御装置100が含まれる出力制御システム1の構成について説明する。図2は、実施形態に係る出力制御システム1の構成例を示す図である。図2に例示するように、実施形態に係る出力制御システム1には、ユーザ端末10と、スマートスピーカー50と、出力制御装置100とが含まれる。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。また、出力制御システム1に含まれる各装置の数は、図示した数に限られない。例えば、出力制御システム1には、複数のユーザ端末10や、複数のスマートスピーカー50が含まれてもよい。
ユーザ端末10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、スマートフォンを含む携帯電話機、PDA(Personal Digital Assistant)等の情報処理端末である。また、ユーザ端末10には、眼鏡型や時計型の情報処理端末であるウェアラブルデバイス(wearable device)も含まれる。さらに、ユーザ端末10には、情報処理機能を有する種々のスマート機器が含まれてもよい。例えば、ユーザ端末10には、TV(Television)や冷蔵庫、掃除機などのスマート家電や、自動車などのスマートビークル(Smart vehicle)や、ドローン(drone)、家庭用ロボットなどが含まれてもよい。
スマートスピーカー50は、いわゆるIoT機器であり、通信機能と各種情報を検知するセンサとを有するスピーカーである。スマートスピーカー50は、例えば、ユーザの自宅や会社等の拠点に設置される。スマートスピーカー50は、例えば、マイクロフォンを用いてユーザからの音声入力を検知したり、カメラを用いて空間情報を検知したりする。なお、スマートスピーカー50は、マイクロフォン等のセンサを内蔵するのではなく、センサと有線又は無線の通信で接続されたり、音情報をデータとして入力されたりすることによって、音情報や映像情報を検知(取得)してもよい。また、スマートスピーカー50は、出力制御装置100から送信される通知を音声や映像(光)の態様で出力する機能を有する。
また、スマートスピーカー50は、ユーザから所定の情報の登録を受け付けてもよい。例えば、スマートスピーカー50は、利用するユーザの属性情報(年齢や性別等)の登録を受け付けてもよい。また、スマートスピーカー50は、音声認識技術や顔認識技術を用いてユーザの属性情報を推定し、推定した情報を登録してもよい。また、スマートスピーカー50は、ユーザの自宅の位置情報(例えば住所等)の登録を受け付けてもよい。なお、スマートスピーカー50は、GPS(Global Positioning System)等の位置情報検知機能を用いて設置される位置を推定し、推定した情報を登録してもよい。
出力制御装置100は、上述のように、センサが検知した情報である音情報を取得し、取得した音情報に基づいて音声を発したユーザの感情を推定し、推定したユーザの感情に応じた通知を出力部から出力するよう制御するサーバ装置である。例えば、出力制御装置100は、クラウド上で利用されるクラウドサーバである。
〔3.出力制御装置の構成〕
次に、図3を用いて、実施形態に係る出力制御装置100の構成について説明する。図3は、実施形態に係る出力制御装置100の構成例を示す図である。図3に示すように、出力制御装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、出力制御装置100は、出力制御装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。かかる通信部110は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、ユーザ端末10やスマートスピーカー50との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、ユーザ情報記憶部121と、音情報記憶部122と、推定情報記憶部123と、出力情報記憶部124とを有する。以下、記憶部120に含まれる各記憶部について順に説明する。
(ユーザ情報記憶部121について)
ユーザ情報記憶部121は、ユーザに関する情報を記憶する。例えば、ユーザ情報は、スマートスピーカー50に対してユーザが登録した情報を、スマートスピーカー50が出力制御装置100に送信することにより、出力制御装置100に取得される。ここで、図4に、実施形態に係るユーザ情報記憶部121の一例を示す。図4は、実施形態に係るユーザ情報記憶部121の一例を示す図である。図4に示した例では、ユーザ情報記憶部121は、「スマートスピーカーID」、「位置情報」、「出力態様」、「登録情報」といった項目を有する。また、「登録情報」は、「ユーザID」、「年齢」、「性別」、「続柄」、「居住地」、「端末ID」、「通知設定」といった小項目を有する。
「スマートスピーカーID」は、スマートスピーカー50を識別する識別情報を示す。「位置情報」は、スマートスピーカー50が所在する位置に関する情報を示す。なお、図4では、「位置情報」の項目に記憶される情報として、「G01」といった概念的な情報を示しているが、実際には、位置情報の項目には、位置を示すための緯度や経度等の具体的な数値や、登録された住所等の情報が記憶される。
「出力態様」は、スマートスピーカー50が所定の情報を出力することの可能な態様を示す。例えば、出力態様「音声」とは、スマートスピーカー50が音声を出力する機能を有していることを示す。また、出力態様「光」とは、スマートスピーカー50が光を出力する機能を有していることを示す。
「登録情報」は、ユーザがスマートスピーカー50に登録したユーザに関する情報を示す。「ユーザID」は、ユーザを識別する識別情報を示す。「年齢」は、ユーザの年齢を示す。「性別」は、ユーザの性別を示す。「続柄」は、家族構成におけるユーザの続柄を示す。「居住地」は、ユーザの居住地を示す。居住地は、例えば、スマートスピーカー50の位置情報と一致する。「端末ID」は、個々のユーザが利用するユーザ端末10を識別する識別情報を示す。「通知設定」は、ユーザ端末10に対して通知を送信するか否かの設定を示す。例えば、通知設定が「有り」と設定されたユーザ端末10には、出力制御装置100から通知が送信され、通知設定が「無し」と設定されたユーザ端末10には、出力制御装置100から通知が送信されない。
すなわち、図4では、ユーザ情報記憶部121が記憶する情報の一例として、スマートスピーカーID「N01」で識別されるスマートスピーカー50は、位置情報「G01」に所在するものであり、出力態様は「音声、光」であることを示している。また、図4では、スマートスピーカーID「N01」で識別されるスマートスピーカー50を利用するユーザの情報として登録された情報は、例えば、ユーザIDが「U01」で識別されるユーザU01の年齢が「40」歳であり、性別が「男性」であり、続柄が「登録ユーザ(本人)」であり、居住地が「G01」であり、端末ID「B01」で識別されるユーザ端末10を使用しており、かかるユーザ端末10の通知設定は「有り」であることを示している。
(音情報記憶部122について)
音情報記憶部122は、音に関する情報を記憶する。ここで、図5に、実施形態に係る音情報記憶部122の一例を示す。図5は、実施形態に係る音情報記憶部122の一例を示す図である。図5に示した例では、音情報記憶部122は、「音情報ID」、「取得日時」、「音情報」といった項目を有する。また、「音情報」は、「ユーザID」、「属性情報」、「取得データ」といった小項目を有する。
「音情報ID」は、音情報を識別する識別情報を示す。「取得日時」は、音情報が取得された日時を示す。「音情報」は、取得された音情報の具体的な内容を示す。「ユーザID」は、音情報の発信源(発声元)であるユーザを識別する識別情報を示し、図4に示した同一の項目と共通した情報を示す。なお、音情報の発信源の特定は、例えば、予めスマートスピーカー50に登録されているユーザの声紋との照合によって行われてもよいし、音声の解析によって発声者を推定することにより行われてもよい。「属性情報」は、ユーザの属性を示す。属性情報は、例えば、取得された音声から推定されてもよいし、予め登録されたユーザ情報に基づいて推定されてもよい。「取得データ」は、スマートスピーカー50によって検知された具体的なデータを示す。例えば、取得データの一例は、音声の周波数や波形や音圧等が信号として記憶されたものである。
なお、図5に示す例では、「取得日時」や「属性情報」や「取得データ」の項目に記憶される情報として、「時間#1」や「属性#1」や「音声データ#1」といった概念的な情報を示しているが、実際には、各々の項目には、日時を示す具体的な情報(年月日、時刻等)や、属性を示す具体的な情報(年齢、性別、居住地等)や、音声信号の具体的なデータ等が記憶される。
すなわち、図5では、音情報記憶部122が記憶する情報の一例として、音情報ID「A01」で識別される音情報A01は、取得日時「時間#1」に取得(検知)された音情報であり、その音声の発声元は「ユーザU02」であり、ユーザU02の属性情報は「属性#1」であり、その取得データは「音声データ#1」であることを示している。
なお、図5の例では、音情報が、ユーザが発した一つの音声の区切りごとに記憶される例を示したが、音情報は、一定の時間ごと(例えば10秒ごと)に区切られて取得されてもよい。
(推定情報記憶部123について)
推定情報記憶部123は、実施形態に係る推定処理によって推定されたユーザの感情に関する情報を記憶する。ここで、図6に、実施形態に係る推定情報記憶部123の一例を示す。図6は、実施形態に係る推定情報記憶部123の一例を示す図である。図6に示した例では、推定情報記憶部123は、「音情報ID」、「取得日時」、「推定情報」といった項目を有する。また、「推定情報」の項目は、「ユーザID」、「感情」といった小項目を有する。
「音情報ID」、「取得日時」、「ユーザID」の各項目は、図5で示した同一の項目に対応する。「推定情報」は、実施形態に係る推定処理によって推定されたユーザの感情に関する情報を示す。「感情」は、ユーザの感情を示す。
なお、図6に示す例では、「感情」の項目に記憶される情報として、「感情#1」といった概念的な情報を示しているが、実際には、感情の項目には、「怒り」や「悲しみ」といった感情を示す情報や、「怒り」や「悲しみ」といった複数の感情に対応する各々の指標値(数値)によって示される情報等が記憶される。
すなわち、図6では、推定情報記憶部123が記憶する情報の一例として、音情報ID「A01」で識別される音情報A01は、取得日時「時間#1」に取得(検知)された音情報であり、その音声の発声元は「ユーザU02」であり、ユーザU02に対して推定される感情は「感情#1」であることを示している。
なお、図6では、音情報ごとにユーザの感情が推定される例を示したが、ユーザの感情は、所定時間ごと(例えば、10分ごと等)に推定されてもよい。この場合、出力制御装置100は、所定時間に取得された音情報において推定されたユーザの感情を総合して、所定時間におけるユーザの感情を推定する。例えば、出力制御装置100は、ユーザの感情を数値化した場合には、各々の音情報において推定された数値を合算することにより、所定時間におけるユーザの感情を推定してもよい。
(出力情報記憶部124について)
出力情報記憶部124は、出力する情報(通知)に関する情報を記憶する。ここで、図7に、実施形態に係る出力情報記憶部124の一例を示す。図7は、実施形態に係る出力情報記憶部124の一例を示す図である。図7に示した例では、出力情報記憶部124は、「感情」、「出力情報」といった項目を有する。また、「出力情報」は、「光」、「音声」といった小項目を有する。
「感情」は、図6に示した同一の項目に対応する。「出力情報」は、ユーザ端末10やスマートスピーカー50において出力される具体的な情報を示す。「光」は、出力される光に関する情報を示す。「音声」は、出力される音声に関する情報を示す。なお、図7に示す例では、「音声」の項目に記憶される情報として、「メッセージ#1」といった概念的な情報を示しているが、実際には、音声の項目には、具体的に再生されるメッセージの音声情報(例えば音声ファイル)等が記憶される。
すなわち、図7では、出力情報記憶部124が記憶する情報の一例として、感情「感情#1」が推定されたユーザに対して出力される情報(通知)は、光であれば「寒色系」であり、音声であれば「メッセージ#1」であることを示している。
なお、図7での図示を省略したが、出力情報記憶部124は、例えば、属性別に異なる出力情報を記憶していてもよい。例えば、出力情報記憶部124は、同一の感情に対しても、子供に対して出力される内容と大人に対して出力される内容とで異なる内容の出力情報を記憶していてもよい。また、出力情報記憶部124には、感情をユーザにレポートするためのひな形となるフォーマットや、テキストデータ等を記憶していてもよい。
(制御部130について)
図3に戻って説明を続ける。制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、出力制御装置100内部の記憶装置に記憶されている各種プログラム(例えば、出力制御プログラム)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、推定部132と、決定部133と、出力制御部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。また、制御部130が有する各処理部は、本願に係る出力制御プログラムによって実行される各手順に対応する。例えば、取得部131が実行する処理は、出力制御プログラムが出力制御装置100に実行させる取得手順に対応する。同様に、推定部132が実行する処理は、出力制御プログラムが出力制御装置100に実行させる判定手順に対応し、決定部133が実行する処理は、出力制御プログラムが出力制御装置100に実行させる選択手順に対応し、出力制御部134が実行する処理は、出力制御プログラムが出力制御装置100に実行させる出力制御手順に対応する。
(取得部131について)
取得部131は、各種情報を取得する。例えば、取得部131は、センサが検知した情報であるセンシング情報を取得する。具体的には、取得部131は、スマートスピーカー50が有するセンサによって検知されたセンシング情報を、ネットワークNを介してスマートスピーカー50から取得する。
例えば、取得部131は、センサが検知した情報であって、ユーザが発声した音声に関する情報である音情報を取得する。また、取得部131は、ユーザが発した音声に関する音情報とともに、当該ユーザの属性情報を取得してもよい。例えば、取得部131は、スマートスピーカー50にユーザの属性情報が登録されており、音情報とともに、当該音情報を発声したユーザの属性情報がスマートスピーカー50によって特定されている場合には、属性情報をスマートスピーカー50から取得する。また、取得部131は、取得した音情報から属性情報が推定可能な場合には、所定の推定処理を実行し、音情報に対応する属性情報を取得してもよい。例えば、取得部131は、ユーザが発した音声から属性(性別や年齢)を推定するための既存の学習モデルを利用し、取得した音情報に対応する属性情報を推定してもよい。
なお、取得部131は、属性情報として、ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つを取得する。例えば、取得部131は、スマートスピーカー50に登録された居住地や、スマートスピーカー50が検知した位置情報に基づいて、ユーザの居住地を取得する。また、取得部131は、例えば、スマートスピーカー50に登録された家族構成における続柄に基づいて、ユーザの家族構成における続柄を取得する。
また、取得部131は、音情報として、スマートスピーカー50に対して音が発せられた方向、音源までの距離、音の波形、音の音量(音圧)等を取得してもよい。また、取得部131は、音情報として、音圧レベルや、周波数や、推定される音源の数(音情報を構成していると推定されるユーザや機器の数)等を取得してもよい。これらの音情報の取得について、取得部131は、適宜、既知の解析技術を利用して音情報を取得するようにしてもよい。
さらに、取得部131は、スマートスピーカー50の周囲の温度、湿度情報、環境光の強さを示す光情報等を取得してもよい。また、取得部131は、スマートスピーカー50が備えるカメラで撮影された写真や映像に基づいて、スマートスピーカー50の周囲の環境情報を取得してもよい。例えば、取得部131は、カメラで撮影された画像情報や、画像情報に含まれる位置情報、撮影された日時等に基づいて、スマートスピーカー50の周囲の環境情報を取得する。また、取得部131は、ユーザが発した音声に限らず、例えば、テレビやラジオ等から出力された音声に関する音情報を取得してもよい。
また、取得部131は、ユーザが利用する装置に関する情報を取得してもよい。例えば、取得部131は、ユーザが利用するユーザ端末10やスマートスピーカー50自体の情報を取得する。例えば、取得部131は、スマートスピーカー50自体のデバイス情報として、スマートスピーカー50のCPUや、OS(Operating System)、メモリ等に関する情報、アンテナ等のネットワーク機能、インストールされたソフトウェア、スマートスピーカー50が備える入力手段等の情報を取得してもよい。
また、取得部131は、スマートスピーカー50の動作状況を取得してもよい。例えば、取得部131は、スマートスピーカー50が起動状態にあるか否か、また、起動状態であれば、画面のON/OFFの状態や、スマートスピーカー50が移動/静止している状態か等の情報を取得する。
また、取得部131は、スマートスピーカー50と通信する外部装置に関する情報として、スマートスピーカー50と相互の通信状態にある外部装置を識別する情報や、確立している通信の種類や周波数帯域等を取得してもよい。
また、取得部131は、ユーザの行動に関する情報を取得してもよい。例えば、取得部131は、ユーザがスマートスピーカー50を利用して視聴した音楽(曲)の情報や、検索サービスに送信したクエリの情報等を取得してもよい。
また、取得部131は、音声を発したユーザとは異なるユーザである第2ユーザが利用するユーザ端末10に関する情報を取得してもよい。例えば、取得部131によって取得された情報は、音声を発したユーザとは異なるユーザであって、音声を発したユーザの感情をレポート等によって知得することを所望するユーザへの通知に利用される。例えば、図1に示した例で説明すると、取得部131は、音声を発したユーザU02やユーザU03とは異なるユーザであるユーザU01が利用するユーザ端末10に関する情報を取得する。例えば、取得部131は、スマートスピーカー50に登録されている情報を参照し、現時点で音声を発しているユーザがユーザU02やユーザU03であると判定する。この場合、取得部131は、第2ユーザとして、ユーザU01が利用する端末として設定されているユーザ端末10を特定し、特定したユーザ端末10に関する情報を取得する。後述する出力制御部134は、特定されたユーザU01のユーザ端末10に通知を出力するよう制御する。
なお、取得部131は、スマートスピーカー50から送信される各種情報を取得してもよいし、定期的にスマートスピーカー50をクロール(crawl)することで、スマートスピーカー50内に保持されている各種情報を取得してもよい。
取得部131は、取得した情報を記憶部120内の各記憶部に格納する。また、取得部131は、記憶部120内に既に格納されている情報を適宜取得してもよい。
(推定部132について)
推定部132は、取得部131によって取得された音情報に基づいて、音声を発したユーザの感情を推定する。例えば、推定部132は、取得部131によって取得された音情報から抽出される音響的特徴情報をサポートベクタマシン等に学習させることによって、ユーザの感情を推定する。
また、推定部132は、例えばユーザごとに、所定の学習モデルを生成してもよい。また、推定部132は、推定した感情に関するフィードバックをユーザから受け付け、受け付けた情報を正解データとして、さらに学習を繰り返してもよい。
また、推定部132は、属性情報を利用して感情を推定してもよい。例えば、推定部132は、年齢や性別の共通する複数のユーザから取得したサンプルを学習し、各属性情報に対応したモデルを生成してもよい。
(決定部133について)
決定部133は、推定部132によって推定された感情に基づいて、出力する通知を決定する。具体的には、決定部133は、推定部132によって推定された感情に基づいて、出力先となる装置を決定したり、通知の内容を決定したりする。
例えば、決定部133は、出力先の装置の出力態様に応じて、出力する通知を決定する。具体的には、決定部133は、出力先の装置が光を発する機能を有する場合には、光を発するような通知が出力可能であると判定し、通知の内容を光に決定する。
また、決定部133は、出力先の装置が音声を発する機能を有する場合には、音声を発するような通知が出力可能であると判定し、通知の内容を音声に決定する。なお、決定部133は、通知を光と音声をともに発するような内容に決定してもよい。
また、決定部133は、感情を推定したユーザではなく、当該ユーザとは異なる第2ユーザに通知を行う場合には、例えば、推定した感情の内容を示したレポートを出力させることを決定する。
なお、決定部133は、出力する通知として、広告やレコメンドを有している場合には、推定した感情と、広告やレコメンドに設定されているターゲティング情報等に基づいて、出力する通知を決定してもよい。この場合、決定部133は、例えば、インターネット広告におけるターゲティングの手法を応用して、ユーザに送信する広告やレコメンドを選択してもよい。具体的には、決定部133は、推定部132によって推定された感情やユーザの属性情報と、予め広告やレコメンドに設定されているターゲティング情報(例えば、陽気な感情を有する20歳代男性ユーザに優先的に配信する、といった設定がなされた情報)とマッチングさせる。そして、決定部133は、ユーザへの通知として、マッチングスコアの高い広告やレコメンドを優先的に決定する。
(出力制御部134について)
出力制御部134は、推定部132によって推定されたユーザの感情に応じた通知を出力するよう制御する。具体的には、出力制御部134は、決定部133によって決定された通知の内容や態様に基づいて、ユーザ端末10やスマートスピーカー50から(より具体的には、ユーザ端末10やスマートスピーカー50が有するスピーカー等の出力部から)、ユーザの感情に応じた通知を出力するよう制御する。例えば、出力制御部134は、出力させる装置に対応した態様で通知を出力させるよう制御する。具体的には、出力制御部134は、スマートスピーカー50に対しては、音声の態様で通知を出力する。また、出力制御部134は、ユーザ端末10に対しては、画面表示や音声の態様で通知を出力する。
例えば、出力制御部134は、通知として、ユーザが利用する装置から、所定の色を伴う光を出力するよう制御する。例えば、出力制御部134は、ユーザの感情に応じて、寒色系の色や、あるいは暖色系の色を伴う光を出力するよう制御する。
また、出力制御部134は、通知として、ユーザが利用する装置から、推定部132によって推定されたユーザの感情に応じた文字情報もしくは音情報を出力するよう制御する。例えば、出力制御部134は、推定された感情に応じて予め生成されているメッセージ等をユーザ端末10の画面に表示したり、音声ファイルをユーザ端末10やスマートスピーカー50に再生したりするよう制御する。
また、出力制御部134は、取得部131によって取得されたユーザの属性情報に応じた通知を出力するよう制御してもよい。具体的には、出力制御部134は、ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つの情報に応じた通知を出力するよう制御する。例えば、出力制御部134は、年齢や性別に応じて異なる内容のメッセージが含まれる通知を出力するよう制御する。
また、出力制御部134は、音声を発したユーザとは異なるユーザである第2ユーザが利用するユーザ端末10に関する情報に基づいて、音声を発したユーザに対して推定された感情に応じた通知を、第2ユーザが利用する端末装置に出力するよう制御してもよい。例えば、図1で示した例では、出力制御部134は、自宅H01に所在するユーザU02やユーザU03に対して推定された感情に関する通知(レポート)を、ユーザU01が利用するユーザ端末10に出力するよう制御する。
〔4.スマートスピーカーの構成〕
次に、図8を用いて、実施形態に係るスマートスピーカー50の構成について説明する。図8は、実施形態に係るスマートスピーカー50の構成例を示す図である。図8に示すように、スマートスピーカー50は、通信部11と、入力部12と、出力部13と、検知部14と、記憶部15と、制御部16とを有する。
通信部11は、ネットワークNと有線又は無線で接続され、ユーザ端末10や出力制御装置100との間で情報の送受信を行う。例えば、通信部11は、NIC等によって実現される。
入力部12は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部12は、スマートスピーカー50に備えられた操作キー等によって実現される。
出力部13は、各種情報を表示するための表示装置である。例えば、出力部13は、液晶ディスプレイ等によって実現される。なお、スマートスピーカー50にタッチパネルが採用される場合には、入力部12の一部と出力部13とは一体化される。また、出力部13は、音声出力を行う装置(例えばスピーカー)であってもよい。また、出力部13は、様々な色を表示する発光機能を有するパネル等であってもよい。
なお、スマートスピーカー50は、物理的な入力部12や出力部13を有しなくてもよい。例えば、入力部12は、物理的な操作キーではなく、検知部14によって検知される音声を入力として受け付けるものであってもよい。
検知部14は、スマートスピーカー50に関する各種情報を検知する。具体的には、検知部14は、各種センサであり、ユーザが発する音声や、スマートスピーカー50の周囲の環境音を検知する。例えば、検知部14は、マイクロフォン等の集音手段であり、音が入力された場合に、その音を音情報として取得する。
また、検知部14は、スマートスピーカー50に対するユーザの操作や、スマートスピーカー50の所在する位置情報や、スマートスピーカー50と接続されている機器に関する情報や、スマートスピーカー50における環境等を検知してもよい。
例えば、検知部14は、入力部12に入力された情報に基づいて、ユーザの操作を検知する。すなわち、検知部14は、スマートスピーカー50に触れるというユーザからの操作があったことや、音声の入力があったこと等を検知する。
また、検知部14は、ネットワークNを介して、ユーザ端末10で動作するアプリであって、スマートスピーカー50を動作させるためのアプリによる操作を検知してもよい。かかるアプリがスマートスピーカー50内の撮像機能(例えばカメラ)を動作させるアプリである場合、検知部14は、ユーザによって撮像機能が利用されていることを検知する。
また、検知部14は、スマートスピーカー50内に備えられた加速度センサやジャイロセンサ等で検知されたデータに基づき、スマートスピーカー50自体が動かされているといった操作を検知してもよい。
また、検知部14は、スマートスピーカー50の現在位置を検知してもよい。具体的には、検知部14は、GPS衛星から送出される電波を受信し、受信した電波に基づいてスマートスピーカー50の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。また、位置情報は、スマートスピーカー50が備える光学式センサや、赤外線センサや、磁気センサ等によって取得されてもよい。
また、検知部14は、スマートスピーカー50に接続される外部装置(ユーザ端末10等)を検知してもよい。例えば、検知部14は、外部装置との相互の通信パケットのやり取りなどに基づいて、外部装置を検知する。そして、検知部14は、検知した外部装置をスマートスピーカー50と接続される端末として認識する。また、検知部14は、外部装置との接続の種類を検知してもよい。例えば、検知部14は、外部装置と有線で接続されているか、無線通信で接続されているかを検知する。また、検知部14は、無線通信で用いられている通信方式等を検知してもよい。また、検知部14は、外部装置が発する電波を検知する電波センサや、電磁波を検知する電磁波センサ等によって取得される情報に基づいて、外部装置を検知してもよい。
なお、スマートスピーカー50が外部機器と接続される場合、ユーザからの音声は、外部機器によって検知されてもよい。外部機器とは、例えば、音声アシスト機能を有する家電等であり、スマートスピーカー50や出力制御装置100と通信可能なスマート機器である。
また、検知部14は、スマートスピーカー50における周囲の環境を検知してもよい。検知部14は、スマートスピーカー50に備えられた各種センサや機能を利用し、環境に関する情報を検知する。例えば、検知部14は、スマートスピーカー50の周囲の照度を検知する照度センサや、スマートスピーカー50の物理的な動きを検知する加速度センサ(又は、ジャイロセンサなど)や、スマートスピーカー50の周囲の湿度を検知する湿度センサや、スマートスピーカー50の所在位置における磁場を検知する地磁気センサ等を利用する。そして、検知部14は、各種センサを用いて、種々の情報を検知する。例えば、検知部14は、スマートスピーカー50の周囲における騒音レベルや、スマートスピーカー50の周囲が撮像に適する照度であるか等を検知する。さらに、検知部14は、カメラで撮影された写真や映像に基づいて周囲の環境情報を検知してもよい。
記憶部15は、各種情報を記憶する。記憶部15は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。例えば、記憶部15は、検知部14によって検知された音情報を、各情報が検知された日時と対応付けて記憶する。
制御部16は、コントローラであり、例えば、CPUやMPU等によって、スマートスピーカー50内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部16は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
図8に示すように、制御部16は、取得部161と、送信部162とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部16の内部構成は、図8に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
取得部161は、各種情報を取得する。例えば、取得部161は、検知部14を制御することにより、検知部14によって検知される各種情報を取得する。具体的には、取得部161は、ユーザが発した音声やスマートスピーカー50の周囲の環境音等を含む音情報を取得する。
取得部161は、所定の時間毎に音情報を取得するようにしてもよい。例えば、取得部161は、上述した検知部14を制御することにより、音情報を取得する。取得部161は、例えば、所定時間ごと(3秒ごとや、5秒ごとや、10秒ごと等)の長さの音情報を取得する。あるいは、取得部161は、検知部14によってユーザからの音声入力が継続して検知される場合には、ユーザが発した音声に対応した長さの音情報を取得する。なお、取得部161が取得する音情報の長さは、出力制御装置100によって設定されてもよい。
送信部162は、各種情報を送信する。例えば、送信部162は、出力制御装置100からの要求に応じて、取得部161によって取得された音情報を出力制御装置100に送信する。
〔5.処理手順〕
次に、図9を用いて、実施形態に係る出力制御装置100による処理の手順について説明する。図9は、実施形態に係る処理手順を示すフローチャートである。
図9に示すように、出力制御装置100は、スマートスピーカー50から音情報を取得する(ステップS101)。続けて、出力制御装置100は、音情報から、音情報に含まれる音声を発したユーザの感情を推定する(ステップS102)。
その後、出力制御装置100は、所定の通知がスマートスピーカー50から出力可能であるか否かを判定する(ステップS103)。言い換えれば、出力制御装置100は、スマートスピーカー50から出力が可能である通知の種類(光や音声等の態様)を判定する。
所定の通知がスマートスピーカー50から出力可能である場合(ステップS103;Yes)、出力制御装置100は、スマートスピーカー50へ出力する通知を決定する(ステップS104)。そして、出力制御装置100は、通知を送信するとともに、スマートスピーカー50への出力を制御する(ステップS105)。なお、所定の通知がスマートスピーカー50から出力可能でない場合(ステップS103;No)、出力制御装置100は、スマートスピーカー50から通知を出力させなくてもよい。
また、出力制御装置100は、音声を取得したスマートスピーカー50について、ユーザ端末10への通知設定の登録がなされているか否かを判定する(ステップS106)。
ユーザ端末10への通知設定がなされている場合(ステップS106;Yes)、出力制御装置100は、ユーザ端末10へ出力する通知を決定する(ステップS107)。そして、出力制御装置100は、通知を送信するとともに、ユーザ端末10への出力を制御する(ステップS108)。なお、ユーザ端末10への通知設定がなされていない場合(ステップS106;No)、出力制御装置100は、ユーザ端末10から通知を出力させなくてもよい。
〔6.変形例〕
上述した実施形態に係る処理は、上記実施形態以外にも種々の異なる形態にて実施されてもよい。以下では、出力制御装置100又は出力制御システム1の他の実施形態(変形例)について説明する。
〔6−1.複数のユーザに対する推定処理〕
上述した実施形態では、出力制御装置100が、一の音情報に基づいて、一のユーザの感情を推定する処理を行う例を示した。ここで、出力制御装置100は、複数の音情報に基づいて、複数のユーザが共通して有する感情を推定してもよい。
すなわち、出力制御装置100は、複数のユーザの各々の音情報を取得し、複数のユーザの各々の音情報に基づいて、複数のユーザが共通して有する感情を推定する。そして、出力制御装置100は、推定した複数のユーザが共通して有する感情に応じた通知を出力するよう制御する。
具体的には、出力制御装置100は、取得した各々の音情報において推定されたユーザの感情を総合して、同時に取得された各々の音情報において発声している各ユーザの感情を推定する。例えば、出力制御装置100は、ユーザの感情を数値化して推定処理を行っている場合には、各々の音情報において推定された数値を合算することにより、各々の音情報に対応する複数のユーザが共通して有する感情を推定する。
これにより、出力制御装置100は、個々のユーザの感情のみならず、その場に居合わせた複数のユーザが共通して感じている感情を推定することができる。そして、出力制御装置100は、推定した感情に応じた通知を行う。これにより、出力制御装置100は、複数のユーザが居合わせた場であっても、その場の状況に応じた適切な通知を行うことができる。
〔6−2.動作に関する音情報〕
出力制御装置100は、ユーザの音声に限らず、様々な音に関する情報を取得し、取得した情報に基づいて推定処理を行ってもよい。
例えば、出力制御装置100は、ユーザの行動によって発生した音を含む音情報を取得し、取得した音情報に基づいてユーザの感情を推定してもよい。
具体的には、出力制御装置100は、スマートスピーカー50に登録されたユーザであって、日常の行動から発せられる音が継続的に取得されているユーザに関する行動によって発生する音情報を取得する。より具体的には、出力制御装置100は、ユーザの足音や、ユーザが戸を閉める際に発生させる音や、物を片付ける際に発生させる音等の情報を取得する。そして、出力制御装置100は、それらの音情報と、日常的に観測される音との比較に基づいて、ユーザの感情を推定する。例えば、出力制御装置100は、日常よりも足音が大きかったり、戸を閉める際に発生させる音が大きかったりする場合には、音を発生させたユーザが怒り等の感情を有していると推定してもよい。また、かかる推定処理にも、例えば、足音からユーザを推定する既知の技術等が応用されてもよい。
このように、出力制御装置100は、音声のみならず、ユーザの行動によって発生した音を含む音情報に基づいてユーザの感情を推定してもよい。これにより、出力制御装置100は、感情の推定の精度を向上させることができる。
〔6−3.出力制御装置〕
上記実施形態では、出力制御装置100は、スマートスピーカー50と通信するサーバ装置である例を示した。しかし、出力制御装置100が実行する出力制御処理を行う装置は、スマートスピーカー50やユーザ端末10であってもよい。この場合、スマートスピーカー50やユーザ端末10は、図3に示した各処理部を備える。また、出力制御処理を実行するスマートスピーカー50やユーザ端末10は、ネットワークNを介して、他のスマートスピーカー50が検知した音情報を取得してもよい。
すなわち、実施形態に係る出力制御処理を行う装置は出力制御装置100に限られず、センサが検知した情報である音情報を取得し、音情報の統計に基づいてセンサを有する装置を利用するユーザの感情を推定することが可能な装置であれば、いずれの装置によって実現されてもよい。言い換えれば、実施形態に係る出力制御プログラムは、出力制御装置100に限らず、ユーザ端末10やスマートスピーカー50内部で実行されてもよい。例えば、スマートスピーカー50が実施形態に係る出力制御処理を行う場合、通知は、ユーザが利用するユーザ端末10や、スマートスピーカー50が有する出力部13から出力される。
〔6−4.スマートスピーカーの構成〕
上記実施形態では、スマートスピーカー50の構成例について図8を用いて説明した。しかし、スマートスピーカー50は、図8で例示した全ての処理部を備えることを必ずしも要しない。また、スマートスピーカー50は、2以上の機器に分離されて図8を示す構成が実現されてもよい。例えば、スマートスピーカー50は、少なくとも検知部14を有する音声検知装置と、少なくとも通信部11を有する通信装置とに分離された構成を有する、2台以上の機器により実現されてもよい。なお、ユーザ端末10も、図8で示したスマートスピーカー50と同様の構成を備えていてもよい。
〔6−5.通知の効果測定〕
出力制御装置100は、ユーザに送信した通知の効果を測定してもよい。例えば、出力制御装置100は、ユーザの所定の行動が、通知を視聴したと推定される行動であるか否かに基づいて、ユーザに提供された通知の効果を測定する。具体的には、出力制御装置100は、配信された通知に対して、ユーザが何らかの音声を発したという行動に基づいて、通知の効果を測定する。より具体的には、出力制御装置100は、通知の出力後に、ユーザの感情が変化した等の状況が観測された場合に、当該通知が効果を発揮したと判定してもよい。
また、出力制御装置100は、通知が広告やレコメンドである場合、通知の出力後に、通知に係る商品名や、商品をほめる言葉や、商品に関心を示す言葉等をユーザがつぶやいた場合に、当該通知がユーザに対して効果を発揮したと判定してもよい。
また、出力制御装置100は、ユーザの所定の行動が、通知に関するコンバージョンと成り得るか否かに基づいて、ユーザに対して出力された通知の効果を測定してもよい。コンバージョンは、例えば、ユーザが通知で宣伝された商品を購入したり、申込みを行ったり、資料請求を行ったり、通知の提供主のウェブページにアクセスしたりした行動等が該当する。
そして、出力制御装置100は、ユーザに対して出力された通知の数や、通知に対してツイートやつぶやきがあった割合(ツイート率)や、通知に対してコンバージョンがあった割合(CVR)等を記憶部120に格納してもよい。なお、出力制御装置100は、測定処理の際に、当該ユーザの性別や年齢等の属性に関する情報を取得してもよい。これにより、出力制御装置100は、例えば、通知が特に効果を発揮する年代や性別等に関する情報についても合わせて測定することができる。
〔7.ハードウェア構成〕
上述してきた実施形態に係る出力制御装置100や、ユーザ端末10や、スマートスピーカー50は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、出力制御装置100を例に挙げて説明する。図10は、出力制御装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read only memory)1300、HDD(Hard disk drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を記憶する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(図2に示したネットワークNに対応)を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網500を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に記憶されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る出力制御装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラム(例えば、実施形態に係る出力制御プログラム)を実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが記憶される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。
〔8.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した決定部133と、出力制御部134とは統合されてもよい。また、例えば、記憶部120に記憶される情報は、ネットワークNを介して、外部に備えられた記憶装置に記憶されてもよい。
また、例えば、上記実施形態では、出力制御装置100が、ユーザから音情報を取得する取得処理と、ユーザの感情を推定する推定処理と、通知の出力を制御する出力制御処理とを行う例を示した。しかし、上述した出力制御装置100は、取得処理を行う取得装置と、推定処理を行う推定装置と、出力制御処理を行う出力制御装置とに分離されてもよい。この場合、例えば、実施形態に係る出力制御装置100による処理は、取得装置と、推定装置と、出力制御装置といった各装置を有する出力制御システム1によって実現される。
また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔9.効果〕
上述してきたように、実施形態に係る出力制御装置100は、取得部131と、推定部132と、出力制御部134とを有する。取得部131は、センサが検知した情報であって、ユーザが発声した音声に関する情報である音情報を取得する。推定部132は、取得部131によって取得された音情報に基づいて、音声を発したユーザの感情を推定する。出力制御部134は、推定部132によって推定されたユーザの感情に応じた通知を出力するよう制御する。
このように、実施形態に係る出力制御装置100は、音情報に基づいてユーザの感情を推定するとともに、推定した感情に応じた通知を出力するなどの情報処理を行う。例えば、出力制御装置100は、ユーザの自宅における何気ない会話や、家族間の会話等に含まれる音声等に基づいて、ユーザの感情を推定することができる。このため、出力制御装置100は、様々な状況におけるユーザの感情を推定し、また、推定した情報に基づく情報処理を行うことができる。
また、出力制御部134は、通知として、推定部132によって推定されたユーザの感情に応じた所定の色を伴う光をユーザが利用する装置から出力するよう制御する。
このように、実施形態に係る出力制御装置100は、感情に応じた色を発する光を出力させる。これにより、出力制御装置100は、ユーザの感情に応じた注意喚起等を適切に行うことができる。
また、出力制御部134は、通知として、推定部132によって推定されたユーザの感情に応じた文字情報もしくは音情報をユーザが利用する装置から出力するよう制御する。
このように、実施形態に係る出力制御装置100は、文字情報や音情報等のレポートをユーザ端末10等に出力してもよい。これにより、ユーザは、例えば、自身の過去の発言がどのような感情の元で行われていたかを客観的に判断したり、自身の発言が他者にどのような印象を与えていたかなどの分析を行ったりすることができる。すなわち、出力制御装置100は、ユーザに有用な情報を提供することができる。
また、取得部131は、ユーザが発した音声に関する音情報とともに、当該ユーザの属性情報を取得する。出力制御部134は、取得部131によって取得されたユーザの属性情報に応じた通知を出力するよう制御する。
このように、実施形態に係る出力制御装置100は、属性に応じた通知を出力してもよい。これにより、出力制御装置100は、子供に対しては優しい注意喚起の通知を行い、大人に対しては厳しい注意喚起の通知を行うなど、柔軟な対応を行うことができる。
また、取得部131は、属性情報として、ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つを取得する。出力制御部134は、ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つの情報に応じた通知を出力するよう制御する。
このように、実施形態に係る出力制御装置100は、属性情報として種々の情報を取得する。これにより、出力制御装置100は、各々のユーザに合わせた適切な通知を出力することができる。
また、取得部131は、音声を発したユーザとは異なるユーザである第2ユーザが利用する装置に関する情報を取得する。出力制御部134は、音声を発したユーザに対して推定された感情に応じた通知を、第2ユーザが利用する装置に出力するよう制御する。
このように、実施形態に係る出力制御装置100は、実際に音声を発したユーザ以外の第2ユーザに通知を行ってもよい。これにより、出力制御装置100は、例えば、親が在宅していない間の子供の状況(感情)を親に通知することができるなど、有用な情報を提供することができる。
また、取得部131は、複数のユーザの各々の音情報を取得する。推定部132は、複数のユーザの各々の音情報に基づいて、複数のユーザが共通して有する感情を推定する。出力制御部134は、推定部132によって推定された複数のユーザが共通して有する感情に応じた通知を出力するよう制御する。
このように、実施形態に係る出力制御装置100は、個々のユーザのみならず、複数の音情報から、その場に居合わせた複数のユーザの感情を推定してもよい。これにより、出力制御装置100は、場に適した通知を行うことができる。
また、取得部131は、ユーザの行動によって発生した音を含む音情報を取得する。推定部132は、ユーザの行動によって発生した音を含む音情報に基づいて、当該ユーザの感情を推定する。
このように、実施形態に係る出力制御装置100は、ユーザの発声による音声のみならず、行動によって発生した音に基づいた推定を行ってもよい。これにより、出力制御装置100は、感情の推定処理の精度を向上させることができる。
以上、本願の実施形態を図面に基づいて詳細に説明したが、これは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 出力制御システム
10 ユーザ端末
50 スマートスピーカー
100 出力制御装置
110 通信部
120 記憶部
121 ユーザ情報記憶部
122 音情報記憶部
123 推定情報記憶部
124 出力情報記憶部
130 制御部
131 取得部
132 推定部
133 決定部
134 出力制御部

Claims (11)

  1. 複数のユーザが居住する空間内に設置された装置が有するセンサが検知した当該空間内の情報であって、ユーザが発声した音声に関する情報、及び、ユーザの行動によって発生した音を含む音情報を取得する取得部と、
    前記取得部によって取得された前記ユーザの行動によって発生した音を含む音情報に基づいて、前記音声を発したユーザの感情を推定する推定部と、
    前記推定部によって推定されたユーザの感情に応じた通知を、前記ユーザとは異なるユーザであって、前記空間に居住し、通知先として予め設定されたユーザが利用する装置に出力するよう制御する出力制御部と、
    を備え、
    前記取得部は、
    前記ユーザの日常の行動から発せられる音を継続的に取得し、
    前記推定部は、
    前記ユーザの日常の行動から発せられる音と、当該ユーザの行動によって発生した音を含む音情報との比較に基づいて、当該ユーザの感情を推定する、
    ことを特徴とする出力制御装置。
  2. 複数のユーザが居住する空間内に設置された装置が有するセンサが検知した当該空間内の情報であって、ユーザが発声した音声に関する情報である音情報を取得する取得部と、
    前記取得部によって取得された音情報に基づいて、前記音声を発したユーザの感情を推定する推定部と、
    前記推定部によって推定されたユーザの感情に応じた通知を、前記ユーザとは異なるユーザであって、前記空間に居住し、通知先として予め設定されたユーザが利用する装置に出力するよう制御する出力制御部と、
    を備え、
    前記取得部は、
    前記出力制御部によって通知が出力されたのちにユーザが発生した音声をさらに取得し、
    前記推定部は、
    前記出力制御部によって通知が出力される前にユーザが発生した音声に基づいて推定された感情と、前記出力制御部によって通知が出力されたのちにユーザが発生した音声に基づいて推定された感情との変化に基づいて、当該通知の効果を測定する、
    ことを特徴とする出力制御装置。
  3. 前記出力制御部は、
    前記通知として、前記推定部によって推定されたユーザの感情に応じた所定の色を伴う光を前記ユーザが利用する装置から出力するよう制御する、
    ことを特徴とする請求項1又は2に記載の出力制御装置。
  4. 前記出力制御部は、
    前記通知として、前記推定部によって推定されたユーザの感情に応じた文字情報もしくは音情報を前記ユーザが利用する装置から出力するよう制御する、
    ことを特徴とする請求項1〜3のいずれか一つに記載の出力制御装置。
  5. 前記取得部は、
    前記ユーザが発した音声に関する音情報とともに、当該ユーザの属性情報を取得し、
    前記出力制御部は、
    前記取得部によって取得されたユーザの属性情報に応じた前記通知を出力するよう制御する、
    ことを特徴とする請求項1〜4のいずれか一つに記載の出力制御装置。
  6. 前記取得部は、
    前記属性情報として、前記ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つを取得し、
    前記出力制御部は、
    前記ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つの情報に応じた前記通知を出力するよう制御する、
    ことを特徴とする請求項5に記載の出力制御装置。
  7. 前記取得部は、
    複数のユーザの各々の音情報を取得し、
    前記推定部は、
    前記複数のユーザの各々の音情報に基づいて、前記複数のユーザが共通して有する感情を推定し、
    前記出力制御部は、
    前記推定部によって推定された前記複数のユーザが共通して有する感情に応じた通知を出力するよう制御する、
    ことを特徴とする請求項1〜のいずれか一つに記載の出力制御装置。
  8. コンピュータが実行する出力制御方法であって、
    複数のユーザが居住する空間内に設置された装置が有するセンサが検知した当該空間内の情報であって、ユーザが発声した音声に関する情報、及び、ユーザの行動によって発生した音を含む音情報を取得する取得工程と、
    前記取得工程によって取得された前記ユーザの行動によって発生した音を含む音情報に基づいて、前記音声を発したユーザの感情を推定する推定工程と、
    前記推定工程によって推定されたユーザの感情に応じた通知を、前記ユーザとは異なるユーザであって、前記空間に居住し、通知先として予め設定されたユーザが利用する装置に出力するよう制御する出力制御工程と、
    を含み、
    前記取得工程は、
    前記ユーザの日常の行動から発せられる音を継続的に取得し、
    前記推定工程は、
    前記ユーザの日常の行動から発せられる音と、当該ユーザの行動によって発生した音を含む音情報との比較に基づいて、当該ユーザの感情を推定する、
    ことを特徴とする出力制御方法。
  9. 複数のユーザが居住する空間内に設置された装置が有するセンサが検知した当該空間内の情報であって、ユーザが発声した音声に関する情報、及び、ユーザの行動によって発生した音を含む音情報を取得する取得手順と、
    前記取得手順によって取得された前記ユーザの行動によって発生した音を含む音情報に基づいて、前記音声を発したユーザの感情を推定する推定手順と、
    前記推定手順によって推定されたユーザの感情に応じた通知を、前記ユーザとは異なるユーザであって、前記空間に居住し、通知先として予め設定されたユーザが利用する装置に出力するよう制御する出力制御手順と、
    をコンピュータに実行させ、
    前記取得手順は、
    前記ユーザの日常の行動から発せられる音を継続的に取得し、
    前記推定手順は、
    前記ユーザの日常の行動から発せられる音と、当該ユーザの行動によって発生した音を含む音情報との比較に基づいて、当該ユーザの感情を推定する、
    ことを特徴とする出力制御プログラム。
  10. コンピュータが実行する出力制御方法であって、
    複数のユーザが居住する空間内に設置された装置が有するセンサが検知した当該空間内の情報であって、ユーザが発声した音声に関する情報である音情報を取得する取得工程と、
    前記取得工程によって取得された音情報に基づいて、前記音声を発したユーザの感情を推定する推定工程と、
    前記推定工程によって推定されたユーザの感情に応じた通知を、前記ユーザとは異なるユーザであって、前記空間に居住し、通知先として予め設定されたユーザが利用する装置に出力するよう制御する出力制御工程と、
    を含み、
    前記取得工程は、
    前記出力制御工程によって通知が出力されたのちにユーザが発生した音声をさらに取得し、
    前記推定工程は、
    前記出力制御工程によって通知が出力される前にユーザが発生した音声に基づいて推定された感情と、前記出力制御工程によって通知が出力されたのちにユーザが発生した音声に基づいて推定された感情との変化に基づいて、当該通知の効果を測定する、
    ことを特徴とする出力制御方法。
  11. 複数のユーザが居住する空間内に設置された装置が有するセンサが検知した当該空間内の情報であって、ユーザが発声した音声に関する情報である音情報を取得する取得手順と、
    前記取得手順によって取得された音情報に基づいて、前記音声を発したユーザの感情を推定する推定手順と、
    前記推定手順によって推定されたユーザの感情に応じた通知を、前記ユーザとは異なるユーザであって、前記空間に居住し、通知先として予め設定されたユーザが利用する装置に出力するよう制御する出力制御手順と、
    をコンピュータに実行させ、
    前記取得手順は、
    前記出力制御手順によって通知が出力されたのちにユーザが発生した音声をさらに取得し、
    前記推定手順は、
    前記出力制御手順によって通知が出力される前にユーザが発生した音声に基づいて推定された感情と、前記出力制御手順によって通知が出力されたのちにユーザが発生した音声に基づいて推定された感情との変化に基づいて、当該通知の効果を測定する、
    ことを特徴とする出力制御プログラム。
JP2017157958A 2017-08-18 2017-08-18 出力制御装置、出力制御方法及び出力制御プログラム Active JP6767322B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017157958A JP6767322B2 (ja) 2017-08-18 2017-08-18 出力制御装置、出力制御方法及び出力制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017157958A JP6767322B2 (ja) 2017-08-18 2017-08-18 出力制御装置、出力制御方法及び出力制御プログラム

Publications (2)

Publication Number Publication Date
JP2019036201A JP2019036201A (ja) 2019-03-07
JP6767322B2 true JP6767322B2 (ja) 2020-10-14

Family

ID=65637679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017157958A Active JP6767322B2 (ja) 2017-08-18 2017-08-18 出力制御装置、出力制御方法及び出力制御プログラム

Country Status (1)

Country Link
JP (1) JP6767322B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6642755B1 (ja) * 2019-03-29 2020-02-12 株式会社セガゲームス 音声処理装置
JP7470523B2 (ja) 2020-02-18 2024-04-18 Tis株式会社 制御装置、制御方法及び制御プログラム
KR102400903B1 (ko) 2020-03-13 2022-05-24 주식회사 코클 오디오 데이터 식별장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4627152B2 (ja) * 2004-06-01 2011-02-09 三星電子株式会社 危機監視システム
JP2006060438A (ja) * 2004-08-19 2006-03-02 Brother Ind Ltd 状況通信装置及びサービス提供システム
JP2006136742A (ja) * 2006-01-16 2006-06-01 Sharp Corp 通信装置
JP2009123148A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd 作業担当者選択装置およびその方法
JP4884496B2 (ja) * 2009-04-02 2012-02-29 株式会社エヌ・ティ・ティ・ドコモ 通信端末及び情報表示方法
JP2012222585A (ja) * 2011-04-08 2012-11-12 Hitachi Consumer Electronics Co Ltd コンテンツの推薦装置
US9251406B2 (en) * 2012-06-20 2016-02-02 Yahoo! Inc. Method and system for detecting users' emotions when experiencing a media program
BR112015029324A2 (pt) * 2013-05-30 2017-07-25 Sony Corp dispositivo cliente, método de controle, sistema, e, programa
WO2015107681A1 (ja) * 2014-01-17 2015-07-23 任天堂株式会社 情報処理システム、情報処理サーバ、情報処理プログラム、および情報提供方法
BR112016023982A2 (pt) * 2014-04-21 2017-08-15 Sony Corp sistema de comunicação, método de controle, e, mídia de armazenamento
JP6438674B2 (ja) * 2014-04-28 2018-12-19 エヌ・ティ・ティ・コミュニケーションズ株式会社 応答システム、応答方法及びコンピュータプログラム
US9547471B2 (en) * 2014-07-03 2017-01-17 Microsoft Technology Licensing, Llc Generating computer responses to social conversational inputs
JP6340626B2 (ja) * 2015-02-27 2018-06-13 株式会社国際電気通信基礎技術研究所 通知システム、通知プログラム、通知方法および通知装置

Also Published As

Publication number Publication date
JP2019036201A (ja) 2019-03-07

Similar Documents

Publication Publication Date Title
US11910169B2 (en) Methods, systems, and media for ambient background noise modification based on mood and/or behavior information
CN107250949B (zh) 基于用户环境中的有生命对象推荐计算机化服务的方法、系统和介质
US10380208B1 (en) Methods and systems for providing context-based recommendations
CN108351992A (zh) 根据活动预测的增强型计算机体验
KR20160083760A (ko) 홈 디바이스를 제어하는 방법 및 디바이스
JP6767322B2 (ja) 出力制御装置、出力制御方法及び出力制御プログラム
WO2020195821A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム
US11436265B2 (en) System for presenting tailored content based on user sensibilities
JP2019036191A (ja) 判定装置、判定方法及び判定プログラム
JP6250852B1 (ja) 判定プログラム、判定装置及び判定方法
US20150277683A1 (en) Adaptive user experience
JP2019164709A (ja) 出力制御装置、出力制御方法、および出力制御プログラム
JP2021026261A (ja) 情報処理システム、方法およびプログラム
WO2018173405A1 (ja) 情報処理装置および情報処理方法
US11936718B2 (en) Information processing device and information processing method
JP6355797B1 (ja) 決定装置、決定方法、及び決定プログラム
WO2016052501A1 (ja) ユーザインタフェース装置、プログラム及びコンテンツの通知方法
KR20200006961A (ko) 액티비티 알림 제공 방법 및 이를 위한 디바이스
JPWO2020149031A1 (ja) 応答処理装置及び応答処理方法
JP7154063B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6499343B1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
JP6560321B2 (ja) 判定プログラム、判定装置及び判定方法
US20210110846A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180420

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180420

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190625

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190625

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190703

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190709

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190719

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20190723

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200303

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200414

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20200714

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20200818

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200917

R150 Certificate of patent or registration of utility model

Ref document number: 6767322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350