JP2019036191A - 判定装置、判定方法及び判定プログラム - Google Patents

判定装置、判定方法及び判定プログラム Download PDF

Info

Publication number
JP2019036191A
JP2019036191A JP2017157869A JP2017157869A JP2019036191A JP 2019036191 A JP2019036191 A JP 2019036191A JP 2017157869 A JP2017157869 A JP 2017157869A JP 2017157869 A JP2017157869 A JP 2017157869A JP 2019036191 A JP2019036191 A JP 2019036191A
Authority
JP
Japan
Prior art keywords
information
user
determination
unit
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017157869A
Other languages
English (en)
Inventor
塚本 浩司
Koji Tsukamoto
浩司 塚本
博基 谷口
Hiroki Taniguchi
博基 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017157869A priority Critical patent/JP2019036191A/ja
Publication of JP2019036191A publication Critical patent/JP2019036191A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】様々なユーザの関心を判定する判定装置、判定方法及び判定プログラムを提供する。【解決手段】本判定装置は、取得部と、判定部とを有する。取得部は、センサが検知した情報であるセンシング情報を取得する。判定部は、取得部によって取得されたセンシング情報の統計に基づいて、センサを有する装置を利用するユーザの関心を判定する。例えば、取得部は、センシング情報として、センサが検知した音に関する情報である音情報を取得する。判定部は、取得部によって取得された音情報の統計に基づいて、ユーザの関心を判定する。【選択図】図3

Description

本発明は、判定装置、判定方法及び判定プログラムに関する。
商取引の分野では、ユーザの興味や関心を示す情報がマーケティング等に活用されている。例えば、検索サイトにおいてユーザが検索したクエリに基づいて、当該ユーザの興味関心を判定したり、当該ユーザにレコメンドする商品を選択したりすることが行われている。
このようなユーザの検索行動に関する技術として、短期間で検索率が上昇したクエリ(バーストクエリ)と共起するクエリを集計することにより、バーストクエリのバースト理由を高い精度で推定する技術が知られている。
特開2013−37404号公報
ここで、ユーザの関心を測るための情報処理においては、異なる属性を有する様々なユーザから幅広くデータを取得することが望ましい。しかしながら、上記の従来技術では、処理に用いるデータは、検索サイトを利用したユーザから取得可能なクエリに過ぎない。すなわち、上記の従来技術では、検索サイトを利用しないユーザや、ネットワークを積極的に活用しないようなユーザの関心を測ることは難しい。
本願は、上記に鑑みてなされたものであって、様々なユーザの関心を判定することができる判定装置、判定方法及び判定プログラムを提供することを目的とする。
本願に係る判定装置は、センサが検知した情報であるセンシング情報を取得する取得部と、前記取得部によって取得されたセンシング情報の統計に基づいて、前記センサを有する装置を利用するユーザの関心を判定する判定部と、を備えたことを特徴とする。
実施形態の一態様によれば、様々なユーザの関心を判定することができるという効果を奏する。
図1は、実施形態に係る判定処理の一例を示す図である。 図2は、実施形態に係る判定処理システムの構成例を示す図である。 図3は、実施形態に係る判定装置の構成例を示す図である。 図4は、実施形態に係る音情報記憶部の一例を示す図である。 図5は、実施形態に係る統計情報記憶部の一例を示す図である。 図6は、実施形態に係るコンテンツ記憶部の一例を示す図である。 図7は、実施形態に係るスマートスピーカーの構成例を示す図である。 図8は、実施形態に係る処理手順を示すフローチャートである。 図9は、判定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る判定装置、判定方法及び判定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る判定装置、判定方法及び判定プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.判定処理の一例〕
まず、図1を用いて、実施形態に係る判定処理の一例について説明する。図1は、実施形態に係る判定処理の一例を示す図である。図1では、本願に係る判定装置の一例である判定装置100によって、実施形態に係る判定処理が行われる流れについて説明する。
図1に示す判定装置100は、実施形態に係る判定処理を実行するサーバ装置である。具体的には、図1では、判定装置100によって、所定のセンサによって検知された情報であるセンシング情報の統計に基づいて、当該所定のセンサを有する装置を利用するユーザの関心を判定する処理が行われる一例を示す。
図1に示すユーザ端末10は、ユーザによって利用される情報処理端末である。図1では、ユーザ端末10は、例えばスマートフォン(Smartphone)である。図1の例では、ユーザ端末10は、ユーザの一例であるユーザU01やユーザU02によって利用されるものとする。なお、実施形態では、ユーザU01やユーザU02等を区別する必要のない場合は、「ユーザ」と総称する。また、以下では、ユーザをユーザ端末10と読み替える場合がある。例えば、「ユーザU01が情報を送信する」という記載は、実際には、「ユーザU01が利用するユーザ端末10が情報を送信する」という状況を示す場合がある。
図1に示すスマートスピーカー50は、ユーザU01やユーザU02が利用する装置であり、ユーザU01が居住する自宅H01内に配置される。スマートスピーカー50は、いわゆるIoT(Internet of Things)機器であり、サーバである判定装置100と連携して、種々の情報処理を行う。例えば、スマートスピーカー50は、音声解析技術を用いて、ユーザU01が発声した言葉の内容を特定し、特定した内容に応じて、コンテンツの提供や各種電子商店街への注文等を実現する。また、例えば、スマートスピーカー50は、音声出力機能を有し、曲名や作曲者等といった曲を示唆する情報をユーザU01が発声した場合には、かかる情報が示唆する曲の再生を行ってもよい。
また、スマートスピーカー50は、例えば、自宅H01内で生じた音を検知したり、自宅H01内の映像(空間情報)を検知したりするための各種センサを有する。実施形態に係るセンサとは、種々の情報を検知するための検知器であり、種々の態様によって実現される。一例として、センサは、音を検知するマイクロフォンや、映像を検知するカメラや、照度を検知する照度センサや、傾きを検知するジャイロセンサ等によって実現される。実施形態では、センサは、自宅H01に設置されるスマートスピーカー50に内蔵されるものとする。なお、センサは、ユーザU01やユーザU02が利用するユーザ端末10に内蔵されてもよい。また、実施形態では、センサによって検知され、その後、判定装置100による情報処理が可能な信号に変換された情報を「センシング情報」と総称する。
実施形態において、判定装置100は、ユーザの関心に沿ったコンテンツ(例えば、広告やレコメンド)をスマートスピーカー50に配信したり、配信したコンテンツをスマートスピーカー50から出力させるよう制御したりする。かかる処理において、判定装置100は、コンテンツの訴求効果を高めるため、ユーザがより高い関心を有すると推定されるコンテンツを配信する方が望ましい。
従来、ユーザの関心を測る手法として、ユーザのネットワーク上の行動履歴(検索サービスにおける検索履歴、ウェブページの閲覧履歴やアプリの利用履歴、ショッピングの購買履歴等)を利用する手法がある。しかしながら、かかる手法では、ユーザ端末10等の情報処理端末を利用するユーザの関心を測ることができるに過ぎない。また、ユーザ端末10等は個人で利用される傾向が高いため、かかる手法では、ユーザの家族全体における関心事や、流行している用語等を的確に捉えることが難しい場合がある。
そこで、実施形態に係る判定装置100は、自宅H01に設置されるスマートスピーカー50が有するセンサが検知した情報であるセンシング情報を取得する。そして、判定装置100は、取得したセンシング情報の統計に基づいて、センサを有する装置を利用するユーザの関心を判定する。これにより、判定装置100は、ユーザ端末10を頻繁に利用するユーザ以外のユーザ等、様々なユーザの関心を判定することができる。例えば、判定装置100は、ユーザ端末10を個人で利用するユーザの関心を判定するのみならず、例えば、ユーザが属する家族全体の関心を判定することができる。さらに、判定装置100は、複数のスマートスピーカー50から送信されたセンシング情報を取得することで、例えば、世の中に流行しているキーワードを判定したり、世の中でよく再生されている曲を判定したりすることができる。言い換えれば、判定装置100は、センシング情報に基づいてユーザの関心を判定することで、世の中のトレンドを把握する。以下、図1を用いて、実施形態に係る判定処理を流れに沿って説明する。なお、音声認識については、種々の既知の技術を用いることが可能であるため、説明を省略する。
図1の例において、ユーザU01及びユーザU02の自宅H01に設置されたスマートスピーカー50は、内蔵したセンサを用いて、各種情報を検知し、センシング情報を取得する。一例として、スマートスピーカー50は、自宅H01における音に関する情報(以下、「音情報」と総称する)を検知する。より具体的には、スマートスピーカー50は、周囲の環境音やユーザの発した音声を検知する(ステップS01)。
実施形態では、環境音とは、ユーザが何らかの意図をもってスマートスピーカー50に入力した音声以外の音をいう。例えば、環境音の一例は、ユーザU01の自宅H01における暗騒音となりうる音や、自宅H01において再生された音楽等の音である。具体的には、環境音は、自宅H01におけるエアコンの稼働音や、テレビ70が出力する音である。
ステップS01において、スマートスピーカー50は、例えば、テレビ70が出力する音声を検知する。また、スマートスピーカー50は、ユーザU01が発した「この曲はZZZが歌っているの?」といった音声を検知する。また、スマートスピーカー50は、ユーザU02が発した「そうだよ。ZZZ、いいよね。」といった音声を検知する。なお、図1の例では、「ZZZ」とは、テレビ70から出力された曲を歌っている歌手であり、ZZZは固有名詞であるものとする。
スマートスピーカー50は、これら検知した音情報を、ネットワークを介して、判定装置100に送信する(ステップS02)。判定装置100は、送信された音情報を取得する(ステップS03)。図1の例では、判定装置100は、自宅H01においてテレビ70から出力されている音声や、ユーザU01やユーザU02が発した音声に対応する音情報を取得する。
判定装置100は、取得した音情報に基づいて、ユーザの関心や社会的な流行を判定する(ステップS04)。例えば、判定装置100は、ユーザU01やユーザU02が発した音声を認識し、認識した音声を解析する。例えば、判定装置100は、認識した音声をテキストデータとして認識し、さらにテキストデータを形態素解析することで、音声に含まれるキーワードを抽出する。例えば、判定装置100は、音声に含まれる固有名詞(図1の例では「ZZZ」)をキーワードとして抽出する。
そして、判定装置100は、キーワードの出現回数に基づいて、ユーザU01やユーザU02の関心を判定する。例えば、判定装置100は、所定期間のうちに取得された音情報において、「ZZZ」が出現した回数に基づいて、「ZZZ」がユーザU01やユーザU02の関心事であるか否かを判定する。かかる処理においては、判定装置100は、検索クエリにおけるバーストクエリを検出する処理を応用してもよい。すなわち、判定装置100は、ユーザU01やユーザU02が発した音声に含まれる「ZZZ」を検索クエリとして取り扱い、「ZZZ」が所定期間のうちにどのくらい検索されているか、といった指標を用いて、「ZZZ」がユーザU01やユーザU02の関心事であるか否かを判定してもよい。
また、判定装置100は、自宅H01に限らず、他の場所に設置されたスマートスピーカー50から取得される情報を統計し、社会的な流行を判定してもよい。ここで、社会的な流行とは、ユーザ全体の関心であり、言い換えれば、スマートスピーカー50を利用するユーザの関心であるといえる。例えば、判定装置100は、複数のスマートスピーカー50から音声情報を取得し、取得した情報から、キーワードを抽出する。そして、判定装置100は、キーワードの出現回数や、所定期間における出現回数の増加率に基づいて、ユーザの関心(言い換えれば、社会的な流行となっているようなキーワード)を判定する。
また、判定装置100は、ユーザの関心として、音声に含まれるキーワードのみならず、ユーザから頻繁に聞かれている曲を判定してもよい。例えば、判定装置100は、既知の技術を利用して、音声情報に含まれる曲を判定する。この場合、判定装置100は、適宜、曲情報を蓄積した外部サーバ等へのアクセスを行い、曲に関する情報を取得するようにしてもよい。そして、判定装置100は、音情報に含まれる曲が認識できた場合には、所定期間における曲の再生回数を統計したり、所定期間における曲の再生回数の増加率等を算出したりする。さらに、判定装置100は、曲の再生回数や再生回数の増加率等に基づいて、ユーザの関心(言い換えれば、世の中において当該曲が流行しているか否か)を判定する。
その後、判定装置100は、判定したユーザの関心に基づいて、ユーザ端末10で出力させるコンテンツを選択する。具体的には、判定装置100は、ユーザ端末10の画面に表示させたり、ユーザ端末10から再生させたりするためのコンテンツであるレコメンドや広告を選択する(ステップS05)。
判定装置100は、選択処理において、インターネット広告等の手法を応用してもよい。すなわち、判定装置100は、ユーザU01やユーザU02が発した音声から抽出したキーワードや、スマートスピーカー50が検知した曲を、ユーザU01やユーザU02の関心を表すクエリとして取り扱う。そして、判定装置100は、当該クエリに基づいて、レコメンドや広告に設定されたターゲティング情報とのマッチングを行う。
続けて、判定装置100は、マッチングされたレコメンドや広告をユーザ端末10で出力させるための処理を行う。例えば、判定装置100は、ネットワークを介して、レコメンドや広告をユーザ端末10に送信する(ステップS06)。そして、判定装置100は、送信したレコメンドや広告をユーザ端末10から出力するよう制御する。
なお、判定装置100は、選択したコンテンツをスマートスピーカー50から出力させるよう制御してもよい。例えば、判定装置100は、ユーザU01やユーザU02の関心に応じて選択されたコンテンツであって、音声によるメッセージをスマートスピーカー50に送信する。そして、判定装置100は、スマートスピーカー50から音声を出力させるよう、スマートスピーカー50を制御する。具体的には、判定装置100は、ユーザU01やユーザU02の関心が「ZZZ」であると判定した場合には、「ZZZのCDを注文しますか?」といった、商品購入を促すメッセージがスマートスピーカー50から出力されるように制御する。
このように、実施形態に係る判定装置100は、センサが検知した情報であるセンシング情報を取得する。そして、判定装置100は、取得したセンシング情報の統計に基づいて、センサを有する装置を利用するユーザの関心を判定する。
すなわち、判定装置100は、インターネット上の行動履歴等の情報ではなく、例えば自宅H01等に設置されるスマートスピーカー50が有するセンサによって検知される情報に基づいて、ユーザの関心を判定する。これにより、判定装置100は、検索サービスの利用や、ウェブ閲覧など、ユーザの能動的な行動によって得られた情報のみならず、自宅H01における何気ない会話や、家族間の会話等に含まれるキーワード等に基づいて、ユーザの関心を判定することができる。このため、判定装置100は、様々なユーザの関心を判定することができる。
また、判定装置100によれば、テレビ70等から出力される音声等のセンシング情報に基づいて、流行している曲を判定する。すなわち、判定装置100によれば、単なる曲の売上ではなく、真にユーザから聞かれている曲を流行中の曲と判定することができる。このため、判定装置100によれば、ユーザは、実情に沿ったトレンドを把握することができる。なお、図1の例では、スマートスピーカー50は、テレビ70から出力される音を検知する例を示したが、スマートスピーカー50は、ラジオやパソコン等から出力される音を検知してもよい。また、判定装置100は、判定した関心に基づいてレコメンドや広告をユーザ端末10やスマートスピーカー50から出力させるので、訴求効果の高いレコメンドや広告の提供を行うことができる。
以下、上述した判定処理を実行する判定装置100及び判定装置100を含む判定処理システム1について詳細に説明する。
〔2.判定処理システムの構成〕
次に、図2を用いて、実施形態に係る判定装置100が含まれる判定処理システム1の構成について説明する。図2は、実施形態に係る判定処理システム1の構成例を示す図である。図2に例示するように、実施形態に係る判定処理システム1には、ユーザ端末10と、スマートスピーカー50と、判定装置100とが含まれる。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。また、判定処理システム1に含まれる各装置の数は、図示した数に限られない。例えば、判定処理システム1には、複数のユーザ端末10や、複数のスマートスピーカー50が含まれてもよい。
ユーザ端末10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、スマートフォンを含む携帯電話機、PDA(Personal Digital Assistant)等の情報処理端末である。また、ユーザ端末10には、眼鏡型や時計型の情報処理端末であるウェアラブルデバイス(wearable device)も含まれる。さらに、ユーザ端末10には、情報処理機能を有する種々のスマート機器が含まれてもよい。例えば、ユーザ端末10には、TV(Television)や冷蔵庫、掃除機などのスマート家電や、自動車などのスマートビークル(Smart vehicle)や、ドローン(drone)、家庭用ロボットなどが含まれてもよい。
スマートスピーカー50は、いわゆるIoT機器であり、通信機能と各種情報を検知するセンサとを有するスピーカーである。スマートスピーカー50は、例えば、ユーザの自宅H01や、勤務先の会社等に設置される。スマートスピーカー50は、例えば、マイクロフォンを用いてユーザからの音声入力を検知したり、カメラを用いて空間情報を検知したりする。なお、スマートスピーカー50は、マイクロフォン等のセンサを内蔵するのではなく、センサと有線又は無線の通信で接続されたり、センシング情報をデータとして入力されたりすることによって、音情報や映像情報を検知(取得)してもよい。また、スマートスピーカー50は、判定装置100から送信されるコンテンツを音声や映像の態様で出力する機能を有する。
また、スマートスピーカー50は、ユーザから所定の情報の登録を受け付けてもよい。例えば、スマートスピーカー50は、利用するユーザの属性情報(年齢や性別等)の登録を受け付けてもよい。なお、スマートスピーカー50は、音声認識技術や顔認識技術を用いてユーザの属性情報を推定し、推定した情報を登録してもよい。また、スマートスピーカー50は、ユーザの自宅H01の位置情報(例えば住所等)の登録を受け付けてもよい。なお、スマートスピーカー50は、GPS(Global Positioning System)等の位置情報検知機能を用いて設置される位置を推定し、推定した情報を登録してもよい。
判定装置100は、センサが検知した情報であるセンシング情報を取得し、取得したセンシング情報の統計に基づいて、センサを有する装置を利用するユーザの関心を判定するサーバ装置である。例えば、判定装置100は、クラウド上で利用されるクラウドサーバである。
〔3.判定装置の構成〕
次に、図3を用いて、実施形態に係る判定装置100の構成について説明する。図3は、実施形態に係る判定装置100の構成例を示す図である。図3に示すように、判定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、判定装置100は、判定装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。かかる通信部110は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、ユーザ端末10やスマートスピーカー50との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。図3に示すように、記憶部120は、音情報記憶部121と、統計情報記憶部122と、コンテンツ記憶部123とを有する。以下、記憶部120に含まれる各記憶部について順に説明する。
(音情報記憶部121について)
音情報記憶部121は、音に関する情報を記憶する。ここで、図4に、実施形態に係る音情報記憶部121の一例を示す。図4は、実施形態に係る音情報記憶部121の一例を示す図である。図4に示した例では、音情報記憶部121は、「音情報ID」、「取得日時」、「ユーザID」、「属性情報」、「音情報」といった項目を有する。また、「音情報」は、「入力手段」、「取得データ」、「解析データ」、「抽出内容」といった小項目を有する。
「音情報ID」は、音情報を識別する識別情報を示す。「取得日時」は、音情報が取得された日時を示す。「ユーザID」は、音情報の発信源(発声元)であるユーザを識別する識別情報を示す。なお、音情報の発信源の特定は、例えば、予め登録しておいたユーザの声紋との照合によって行われる。また、発信源がユーザ以外であれば、ユーザIDの項目には、例えば「環境音」のようなラベルが付与される。ただし、判定装置100は、発信源の特定が可能であれば、ユーザIDの項目に「テレビ」や「ラジオ」等、発信源を特定するための情報を記憶してもよい。「属性情報」は、ユーザの属性情報を示す。なお、属性情報は、例えば、音声から推定されてもよいし、登録された情報に基づいて推定されてもよい。なお、環境音等、発信源がユーザでない場合、例えば、属性情報の項目は空欄となる。「音情報」は、取得された音情報の内容を示す。
なお、実施形態では、図4に示すような識別情報を参照符号として用いる場合がある。例えば、ユーザID「U01」によって識別されるユーザを「ユーザU01」と表記する場合がある。また、図4に示す例では、「取得日時」や「属性情報」の項目に記憶される情報として、「時間#1」や「属性#1」といった概念的な情報を示しているが、実際には、日時を示す具体的な情報(年月日、時刻等)や、属性を示す具体的な情報(年齢、性別、居住地等)が記憶される。
「入力手段」は、センシング情報がスマートスピーカー50に検知される際に用いられた入力手段(センサ)を示す。「取得データ」は、スマートスピーカー50に取得された具体的なデータを示す。例えば、取得データの一例は、音声の周波数や波形や音圧等が信号として記憶されたものである。「解析データ」は、取得データを解析した結果の具体的なデータを示す。例えば、解析データの一例は、音声認識によって取得されたテキストデータや、テキストデータを形態素解析した結果である。
「抽出内容」は、判定装置100によって解析データから抽出された内容を示す。抽出される内容は、例えば、音声に含まれるキーワードや、音声に含まれる曲である。
すなわち、図4では、音情報記憶部121が記憶する情報の一例として、音情報ID「A01」で識別される音情報A01は、取得日時「時間#1」に取得(検知)された音情報であり、その音声の発声元は「ユーザU01」であり、ユーザU01の属性情報は「属性#1」であることを示している。また、図4では、音情報A01に含まれる音情報は、入力手段が「マイク」であり、取得データが「音声データ#1」であり、解析データが「解析データ#1」であり、解析データ#1から抽出された内容として、「ZZZ」等が含まれることを示している。
なお、図4の例では、音情報が、ユーザが発した一つの音声の区切りごとに記憶される例を示したが、音情報は、一定の時間ごと(例えば10秒ごと)に区切られて取得されてもよい。
(統計情報記憶部122について)
統計情報記憶部122は、複数のスマートスピーカー50によって検知されたセンシング情報の統計に関する情報を記憶する。ここで、図5に、実施形態に係る統計情報記憶部122の一例を示す。図5は、実施形態に係る統計情報記憶部122の一例を示す図である。図5に示した例では、統計情報記憶部122は、「内容」、「情報種別」、「統計情報」といった項目を有する。また、「統計情報」の項目は、「集計日」、「出現回数」、「ランキング」、「増減率」といった小項目を有する。
「内容」は、センシング情報から抽出されたキーワードや曲の内容(曲であれば、曲名等の識別情報であってもよい)を示す。「情報種別」は、抽出された内容がキーワードであるか、あるいは曲であるかといった、情報の種別を示す。
「集計日」は、統計された情報の集計日を示す。図5では、判定装置100が、所定期間として「1日」ごとにキーワードや曲の出現回数を統計する例を示している。「出現回数」は、集計期間においてキーワードや曲が出現した回数を示す。
「ランキング」は、集計されたキーワードや曲の出現回数が、全てのキーワードや曲のうち、どのくらいの順位に位置するかを示す。ランキングは、例えば、キーワードと曲とで別々に順位付けされる。なお、キーワードや曲は、例えば、所定のカテゴリごとに集計されてもよい。このような集計やカテゴリ分けの手法は、例えば、検索サービスにおける検索クエリを順位付けする手法が応用されてもよい。「増減率」は、出現回数が前回の集計期間(集計日)からどのくらいの増減があったかという割合を示す。
すなわち、図5では、統計情報記憶部122が記憶する情報の一例として、内容が「ZZZ」であり、情報種別が「キーワード」であるキーワード「ZZZ」は、集計日「2017年8月18日」では、出現回数が「10000」回であり、ランキングが「1500」位であり、前回の集計日からの増減率は「100%」であることを示している。また、キーワード「ZZZ」は、集計日「2017年8月19日」では、出現回数が「150000」回であり、ランキングが「40」位であり、前回の集計日からの増減率は「1500%」であることを示している。
また、内容(曲名)が「BBB」であり、情報種別が「曲」である曲「BBB」は、集計日「2017年8月18日」では、出現回数が「5000」回であり、ランキングが「1000」位であり、前回の集計日からの増減率は「100%」であることを示している。また、曲「BBB」は、集計日「2017年8月19日」では、出現回数が「40000」回であり、ランキングが「150」位であり、前回の集計日からの増減率は「800%」であることを示している。
なお、図5では図示を省略したが、判定装置100は、スマートスピーカー50ごとに統計を行ってもよい。また、判定装置100は、例えば、統計した全体情報(通信を行っているスマートスピーカー50全体から取得された情報)と、個別のスマートスピーカー50から取得された情報との比較情報を記憶してもよい。判定装置100は、かかる比較情報を参照することで、個々のスマートスピーカー50を利用するユーザの関心を判定することができる。例えば、全体ユーザにおける「ZZZ」の増減率の数値よりも、ある一のスマートスピーカー50のみで統計された場合の「ZZZ」の増減率の数値が高い場合には、判定装置100は、当該一のスマートスピーカー50を利用するユーザは、より「ZZZ」への関心が高いユーザであると判定できる。
また、統計情報記憶部122には、曲の出現回数のみならず、その曲が再生された時間長や、その曲が再生されている空間にどのくらいのユーザが存在していたかが記憶されてもよい。また、判定装置100は、その曲が再生されている空間に存在したユーザの数に応じて、曲の出現回数を計数してもよい。例えば、判定装置100は、スマートスピーカー50の備えるカメラ機能を用いて、その曲が再生されている空間に5人のユーザが存在していることが認識できた場合には、1回の再生であったとしても、その曲の出現回数を「5回」と計数してもよい。
(コンテンツ記憶部123について)
コンテンツ記憶部123は、コンテンツに関する情報を記憶する。ここで、図6に、実施形態に係るコンテンツ記憶部123の一例を示す。図6は、実施形態に係るコンテンツ記憶部123の一例を示す図である。図6に示した例では、コンテンツ記憶部123は、「コンテンツID」、「コンテンツ種別」、「ターゲット情報」といった項目を有する。
「コンテンツID」は、コンテンツを識別する識別情報を示す。「コンテンツ種別」は、コンテンツの種別を示す。「ターゲット情報」は、コンテンツに設定されたターゲット情報を示す。なお、図6に示す例では、「ターゲット情報」の項目に記憶される情報として、「ターゲット情報#1」といった概念的な情報を示しているが、実際には、かかる項目には、コンテンツがターゲットとするユーザを特定するための具体的な情報が記憶される。具体的には、ターゲット情報には、コンテンツの提供主(広告主等)が指定したキーワードや、ユーザの属性情報等が記憶される。そして、判定装置100は、ターゲット情報として指定されたキーワードと、ユーザの関心のあるキーワードとがマッチングするか否か、あるいは、コンテンツに指定された属性情報とユーザの属性情報とがマッチングするか否か等に基づいて、ユーザ端末10やスマートスピーカー50から出力させるコンテンツを選択する。
すなわち、図6では、コンテンツ記憶部123が記憶する情報の一例として、コンテンツID「C01」で識別されるコンテンツC01は、コンテンツ種別が「広告」であり、ターゲット情報が「ターゲット情報#1」であることを示している。
なお、図6では図示を省略したが、コンテンツ記憶部123は、例えば、コンテンツの出力態様を記憶してもよい。コンテンツの出力態様とは、例えば、コンテンツが音声として出力されるか、あるいは映像(画像データや動画データ)として出力されるかを示す情報や、コンテンツが送信可能な装置や機能を指定するための情報(例えば、スマートフォンで出力可能であるが、スマートスピーカー50では出力不可能などを示す情報)等である。
(制御部130について)
図3に戻って説明を続ける。制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、判定装置100内部の記憶装置に記憶されている各種プログラム(例えば、判定プログラム)がRAM(Random Access Memory)を作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図3に示すように、制御部130は、取得部131と、判定部132と、選択部133と、出力制御部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。また、制御部130が有する各処理部は、本願に係る判定プログラムによって実行される各手順に対応する。例えば、取得部131が実行する処理は、判定プログラムが判定装置100に実行させる取得手順に対応する。同様に、判定部132が実行する処理は、判定プログラムが判定装置100に実行させる判定手順に対応し、選択部133が実行する処理は、判定プログラムが判定装置100に実行させる選択手順に対応し、出力制御部134が実行する処理は、判定プログラムが判定装置100に実行させる出力制御手順に対応する。
(取得部131について)
取得部131は、各種情報を取得する。例えば、取得部131は、センサが検知した情報であるセンシング情報を取得する。具体的には、取得部131は、スマートスピーカー50が有するセンサによって検知されたセンシング情報を、ネットワークNを介してスマートスピーカー50から取得する。
例えば、取得部131は、センシング情報として、センサが検知した音に関する情報である音情報を取得する。具体的には、取得部131は、音情報として、ユーザが発した音声に関する情報である音声情報を取得する。また、取得部131は、ユーザが発した音声に限らず、例えば、テレビやラジオ等から出力された音声に関する音声情報を取得してもよい。
また、取得部131は、ユーザが発した音声に関する音声情報とともに、当該ユーザの属性情報を取得してもよい。例えば、取得部131は、スマートスピーカー50にユーザの属性情報が登録されており、音情報とともに、当該音情報を発声したユーザの属性情報がスマートスピーカー50によって特定されている場合には、属性情報をスマートスピーカー50から取得する。また、取得部131は、取得した音声情報から属性情報が推定可能な場合には、所定の推定処理を実行し、音声情報に対応する属性情報を取得してもよい。例えば、取得部131は、ユーザが発した音声から属性(性別や年齢)を推定するための既存の学習モデルを利用し、取得した音声情報に対応する属性情報を推定してもよい。
なお、取得部131は、属性情報として、ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つを取得する。例えば、取得部131は、スマートスピーカー50に登録された居住地や、スマートスピーカー50が検知した位置情報に基づいて、ユーザの居住地を取得する。また、取得部131は、例えば、スマートスピーカー50に登録された家族構成における続柄に基づいて、ユーザの家族構成における続柄を取得する。
また、取得部131は、音情報として、音声に限らず、スマートスピーカー50に対して音が発せられた方向、音源までの距離、音の波形、音の音量(音圧)等を取得してもよい。また、取得部131は、音情報として、音圧レベルや、周波数や、推定される音源の数(音情報を構成していると推定されるユーザや機器の数)等を取得してもよい。これらの音情報の取得について、取得部131は、適宜、既知の解析技術を利用して音情報を取得するようにしてもよい。
さらに、取得部131は、スマートスピーカー50の周囲の温度、湿度情報、環境光の強さを示す光情報等を取得してもよい。また、取得部131は、スマートスピーカー50が備えるカメラで撮影された写真や映像に基づいて、スマートスピーカー50の周囲の環境情報を取得してもよい。例えば、取得部131は、カメラで撮影された画像情報や、画像情報に含まれる位置情報、撮影された日時等に基づいて、スマートスピーカー50の周囲の環境情報を取得する。
また、取得部131は、スマートスピーカー50自体のデバイス情報として、スマートスピーカー50のCPUや、OS(Operating System)、メモリ等に関する情報、アンテナ等のネットワーク機能、インストールされたソフトウェア、スマートスピーカー50が備える入力手段等の情報を取得してもよい。
また、取得部131は、スマートスピーカー50の動作状況を取得してもよい。例えば、取得部131は、スマートスピーカー50が起動状態にあるか否か、また、起動状態であれば、画面のON/OFFの状態や、スマートスピーカー50が移動/静止している状態か等の情報を取得する。
また、取得部131は、スマートスピーカー50と通信する外部装置に関する情報として、スマートスピーカー50と相互の通信状態にある外部装置を識別する情報や、確立している通信の種類や周波数帯域等を取得してもよい。
また、取得部131は、ユーザの行動に関する情報を取得してもよい。例えば、取得部131は、ユーザがスマートスピーカー50を利用して視聴した音楽(曲)の情報や、検索サービスに送信したクエリの情報等を取得してもよい。
なお、取得部131は、スマートスピーカー50から送信されるセンシング情報を取得してもよいし、定期的にスマートスピーカー50をクロール(crawl)することで、スマートスピーカー50内に保持されているセンシング情報を取得してもよい。
取得部131は、取得した情報を記憶部120内の各記憶部に格納する。また、取得部131は、記憶部120内に既に格納されている情報を適宜取得してもよい。
(判定部132について)
判定部132は、取得部131によって取得されたセンシング情報の統計に基づいて、センサを有する装置を利用するユーザの関心を判定する。なお、判定部132は、複数のユーザの家庭内に設置される複数のスマートスピーカー50によって検知されたセンシング情報に基づいて、世の中ユーザ全体の関心(言い換えれば、世の中で流行しているキーワードや曲)を判定してもよいし、個々のスマートスピーカー50によって検知されたセンシング情報に基づいて、一のスマートスピーカー50のユーザの関心を判定してもよい。
例えば、取得部131によって音情報が取得された場合には、判定部132は、取得部131によって取得された音情報の統計に基づいて、ユーザの関心を判定する。
一例として、判定部132は、音情報に含まれる曲を推定するとともに、所定期間における各曲の再生回数(出現回数)の統計に基づいて、曲に関するユーザの関心を判定する。判定部132は、例えば、種々の既知の技術を利用して、音情報に含まれる曲を推定する。そして、判定部132は、推定した曲の再生回数を計数する。判定部132は、例えば、所定期間における各曲の再生回数のランキングを生成する。これにより、判定部132は、単なる音楽メディアの売上等に関わらず、実際に自宅H01でユーザに視聴されている状況に基づいて、どのような曲が流行しているか、すなわち、ユーザがどのような曲に関心があるのかを判定することができる。
なお、判定部132は、再生回数のランキングのみならず、再生回数の増加率のランキングを生成してもよい。これにより、判定部132は、常時再生回数の多い、いわゆる定番の曲のみならず、再生回数が上昇傾向にある、いわゆる流行の曲を判定することができる。
また、判定部132は、取得部131によって取得された音声情報を解析することにより得られるキーワードの統計に基づいて、ユーザの関心を判定してもよい。
例えば、判定部132は、所定期間のうちに出現頻度が所定の閾値を超えて上昇したキーワードを抽出し、抽出したキーワードに基づいて、ユーザの関心を判定する。具体的には、判定部132は、曲の再生回数の増加率と同じく、キーワードの増加率を算出し、算出した増加率が所定の閾値(例えば、前回の集計期間から2倍以上や3倍以上)を超えたキーワードを、世の中のユーザが関心を有するキーワードであると判定する。なお、判定部132は、キーワードの出現の増加率ではなく、出現回数のランキングに基づいて、世の中のユーザが関心を有するキーワードを判定してもよい。
また、判定部132は、世の中全体のユーザの関心ではなく、個々のユーザや、各家庭における関心を判定してもよい。この場合、判定部132は、個々のスマートスピーカー50から取得されたキーワードを集計し、かかるキーワードの出現回数や、出現回数の増加率等に基づいて、当該スマートスピーカー50を利用するユーザ(あるいは、ユーザの家族)の関心を判定する。判定部132は、かかる処理において、検索クエリに基づいてユーザの関心を判定するための既知の手法等を適宜利用してもよい。すなわち、判定部132は、スマートスピーカー50によって検知された音情報に含まれるキーワードを、検索サービスにおける検索クエリとして取り扱う。そして、判定部132は、検索クエリ(キーワード)がユーザから送信された回数や、検索クエリが属するカテゴリや、検索クエリに共起するワード等に基づいて、当該ユーザの関心を判定する。
また、判定部132は、取得部131によって取得された音声情報と属性情報の統計に基づいて、属性情報ごとのユーザの関心を判定してもよい。上記のように、取得部131によって取得された音情報には属性情報が含まれる場合には、判定部132は、かかる属性情報ごとに、ユーザの関心を判定する。あるいは、判定部132は、音情報に含まれる音声に基づいて、音声を発声したユーザの属性情報を推定し、推定した属性情報ごとに、ユーザの関心を判定してもよい。
例えば、判定部132は、ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つの情報ごとのユーザの関心を判定する。具体的には、判定部132は、40歳代男性という属性を有するユーザの関心のあるキーワードと、10歳代女性という属性を有するユーザの関心のあるキーワードとを別々に集計し、各々の属性情報を有するユーザの関心を判定する。これにより、判定部132は、世の中のトレンドや個々のユーザの関心をより詳細に判定することができる。
なお、判定部132は、予めスマートスピーカー50に登録されているユーザの声紋に基づいて、その音声が登録ユーザにより発せられた音声か否かを判定してもよい。そして、判定部132は、音声が登録ユーザのものであると照合された場合には、スマートスピーカー50に登録されている属性情報に基づいて判定処理を行ってもよい。これにより、判定部132は、属性情報の推定を精度よく行うことができる。
また、判定部132は、音情報を解析し、ユーザの所定の行動を示す音声情報や、環境音を抽出するにあたり、既知の技術を用いて、所定の学習モデルを生成してもよい。例えば、判定部132は、生成したモデルに音情報を入力することにより、その音情報に含まれるユーザの属性情報を抽出したり、キーワードを抽出したりしてもよい。例えば、モデルは、各ユーザが発する音声の癖等を予め学習したモデルであってもよいし、例えばディープラーニング等の各種学習技術によって学習が継続的に行われるものであってもよい。
(選択部133について)
選択部133は、判定部132によって判定された関心に基づいて、ユーザに提案する情報を選択する。ユーザに提案する情報とは、例えば、ユーザの関心に沿った広告やレコメンド等である。すなわち、選択部133は、コンテンツ出力の機会が発生した場合(例えば、ユーザが広告枠を有するウェブページやアプリコンテンツにアクセスした場合)に、広告枠で表示する広告やレコメンドを選択する。あるいは、選択部133は、定期的にスマートスピーカー50から広告やレコメンドが出力されるよう設定されている場合には、出力するタイミングにおいて、出力するコンテンツを選択する。
具体的には、選択部133は、判定部132によって判定されたユーザの関心であるキーワードや曲に応じた広告やレコメンドを選択する。選択部133は、例えば、インターネット広告におけるターゲティングの手法を応用して、ユーザに送信する広告やレコメンドを選択してもよい。例えば、選択部133は、判定部132によって判定されたユーザの関心であるキーワードや曲、又はユーザの属性情報等を、コンテンツ記憶部123に記憶されている広告やレコメンドに設定されたターゲティング情報とマッチングさせる。そして、選択部133は、マッチングスコアの高い広告やレコメンドを優先的に選択する。
(出力制御部134について)
出力制御部134は、選択部133によって選択された情報を、ユーザが利用する装置から出力するよう制御する。ユーザが利用する装置とは、スマートフォン等のユーザ端末10であってもよいし、スマートスピーカー50であってもよい。
例えば、出力制御部134は、出力させる装置に対応した態様でコンテンツを出力させるよう制御する。具体的には、出力制御部134は、スマートスピーカー50に対しては、音声の態様で広告やレコメンドを出力させる。また、出力制御部134は、ユーザ端末10に対しては、画面表示(画像データや動画データ)の態様で広告やレコメンドを出力させる。
〔4.スマートスピーカーの構成〕
次に、図7を用いて、実施形態に係るスマートスピーカー50の構成について説明する。図7は、実施形態に係るスマートスピーカー50の構成例を示す図である。図7に示すように、スマートスピーカー50は、通信部11と、入力部12と、出力部13と、検知部14と、記憶部15と、制御部16とを有する。
通信部11は、ネットワークNと有線又は無線で接続され、ユーザ端末10や判定装置100との間で情報の送受信を行う。例えば、通信部11は、NIC等によって実現される。
入力部12は、ユーザから各種操作を受け付ける入力装置である。例えば、入力部12は、スマートスピーカー50に備えられた操作キー等によって実現される。
出力部13は、各種情報を表示するための表示装置である。例えば、出力部13は、液晶ディスプレイ等によって実現される。なお、スマートスピーカー50にタッチパネルが採用される場合には、入力部12の一部と出力部13とは一体化される。また、出力部13は、音声出力を行う装置(例えばスピーカー)であってもよい。また、出力部13は、様々な色を表示する発光機能を有するパネル等であってもよい。
なお、スマートスピーカー50は、物理的な入力部12や出力部13を有しなくてもよい。例えば、入力部12は、物理的な操作キーではなく、検知部14によって検知される音声を入力として受け付けるものであってもよい。
検知部14は、スマートスピーカー50に関する各種情報を検知する。具体的には、検知部14は、ユーザが発する音声や、スマートスピーカー50の周囲の環境音を検知する。例えば、検知部14は、マイクロフォン等の集音手段であり、音が入力された場合に、その音を音情報として取得する。
また、検知部14は、スマートスピーカー50に対するユーザの操作や、スマートスピーカー50の所在する位置情報や、スマートスピーカー50と接続されている機器に関する情報や、スマートスピーカー50における環境等を検知してもよい。
例えば、検知部14は、入力部12に入力された情報に基づいて、ユーザの操作を検知する。すなわち、検知部14は、スマートスピーカー50に触れるというユーザからの操作があったことや、音声の入力があったこと等を検知する。
また、検知部14は、ネットワークNを介して、ユーザ端末10で動作するアプリであって、スマートスピーカー50を動作させるためのアプリによる操作を検知してもよい。かかるアプリがスマートスピーカー50内の撮像機能(例えばカメラ)を動作させるアプリである場合、検知部14は、ユーザによって撮像機能が利用されていることを検知する。
また、検知部14は、スマートスピーカー50内に備えられた加速度センサやジャイロセンサ等で検知されたデータに基づき、スマートスピーカー50自体が動かされているといった操作を検知してもよい。
また、検知部14は、スマートスピーカー50の現在位置を検知してもよい。具体的には、検知部14は、GPS(Global Positioning System)衛星から送出される電波を受信し、受信した電波に基づいてスマートスピーカー50の現在位置を示す位置情報(例えば、緯度及び経度)を取得する。また、位置情報は、スマートスピーカー50が備える光学式センサや、赤外線センサや、磁気センサ等によって取得されてもよい。
また、検知部14は、スマートスピーカー50に接続される外部装置(ユーザ端末10等)を検知してもよい。例えば、検知部14は、外部装置との相互の通信パケットのやり取りなどに基づいて、外部装置を検知する。そして、検知部14は、検知した外部装置をスマートスピーカー50と接続される端末として認識する。また、検知部14は、外部装置との接続の種類を検知してもよい。例えば、検知部14は、外部装置と有線で接続されているか、無線通信で接続されているかを検知する。また、検知部14は、無線通信で用いられている通信方式等を検知してもよい。また、検知部14は、外部装置が発する電波を検知する電波センサや、電磁波を検知する電磁波センサ等によって取得される情報に基づいて、外部装置を検知してもよい。
なお、スマートスピーカー50が外部機器と接続される場合、ユーザからの音声は、外部機器によって検知されてもよい。外部機器とは、例えば、音声アシスト機能を有する家電等であり、スマートスピーカー50や判定装置100と通信可能なスマート機器である。
また、検知部14は、スマートスピーカー50における周囲の環境を検知してもよい。検知部14は、スマートスピーカー50に備えられた各種センサや機能を利用し、環境に関する情報を検知する。例えば、検知部14は、スマートスピーカー50の周囲の照度を検知する照度センサや、スマートスピーカー50の物理的な動きを検知する加速度センサ(又は、ジャイロセンサなど)や、スマートスピーカー50の周囲の湿度を検知する湿度センサや、スマートスピーカー50の所在位置における磁場を検知する地磁気センサ等を利用する。そして、検知部14は、各種センサを用いて、種々の情報を検知する。例えば、検知部14は、スマートスピーカー50の周囲における騒音レベルや、スマートスピーカー50の周囲が撮像に適する照度であるか等を検知する。さらに、検知部14は、カメラで撮影された写真や映像に基づいて周囲の環境情報を検知してもよい。
記憶部15は、各種情報を記憶する。記憶部15は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。例えば、記憶部15は、検知部14によって検知されたセンシング情報を、各情報が検知された日時と対応付けて記憶する。
制御部16は、コントローラであり、例えば、CPUやMPU等によって、スマートスピーカー50内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部16は、コントローラであり、例えば、ASICやFPGA等の集積回路により実現される。
図7に示すように、制御部16は、取得部161と、送信部162とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部16の内部構成は、図7に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
取得部161は、各種情報を取得する。例えば、取得部161は、検知部14を制御することにより、検知部14によって検知される各種情報を取得する。具体的には、取得部161は、ユーザが発した音声やスマートスピーカー50の周囲の環境音等を含む音情報を取得する。
取得部161は、所定の時間毎に音情報を取得するようにしてもよい。例えば、取得部161は、上述した検知部14を制御すること等により、音情報を取得する。取得部161は、ユーザからの音声入力がない場合には、例えば、所定時間ごと(3秒ごとや、5秒ごとや、10秒ごと等)の長さの音情報(環境音)を取得する。あるいは、取得部161は、検知部14によってユーザからの音声入力が検知された場合には、ユーザが発した音声に対応した長さの音情報を取得する。なお、取得部161が取得する音情報の長さは、判定装置100によって設定されてもよい。
送信部162は、各種情報を送信する。例えば、送信部162は、判定装置100からの要求に応じて、取得部161によって取得された音情報を判定装置100に送信する。
〔5.処理手順〕
次に、図8を用いて、実施形態に係る判定装置100による処理の手順について説明する。図8は、実施形態に係る処理手順を示すフローチャートである。
図8に示すように、判定装置100は、スマートスピーカー50から音情報を取得する(ステップS101)。続けて、判定装置100は、音情報から、集計の対象となる所定の情報(曲やキーワード)を抽出する(ステップS102)。判定装置100は、抽出した情報を記憶部120内に格納する(ステップS103)。
その後、判定装置100は、所定の集計期間(例えば1日間など)が経過したか否かを判定する(ステップS104)。集計期間が経過していない場合(ステップS104;No)、判定装置100は、音情報を取得する処理を繰り返す。
一方、集計期間が経過した場合(ステップS104;Yes)、判定装置100は、取得した情報に基づいて、ユーザの関心を判定する(ステップS105)。例えば、判定装置100は、直前の集計期間と比較した場合のキーワードの出現回数や増加率等に基づいて、ユーザの関心を判定する。
その後、判定装置100は、ユーザ端末10やスマートスピーカー50において、コンテンツ出力の機会が発生したか否かを判定する(ステップS106)。コンテンツ出力の機会が発生していない場合(ステップS106;No)、判定装置100は、コンテンツ出力の機会が発生するまで待機する。
コンテンツ出力の機会が発生した場合(ステップS106;Yes)、判定装置100は、ユーザの関心に基づいてコンテンツを選択する(ステップS107)。そして、判定装置100は、選択したコンテンツをユーザ端末10やスマートスピーカー50で出力させるよう制御する(ステップS108)。
〔6.変形例〕
上述した実施形態に係る処理は、上記実施形態以外にも種々の異なる形態にて実施されてよい。以下では、判定装置100又は判定処理システム1の他の実施形態(変形例)について説明する。
〔6−1.動作情報〕
上記実施形態では、判定装置100は、センシング情報の一例である音情報によってユーザの関心を判定する例を示した。ここで、判定装置100は、センシング情報として、空間情報を撮像した映像に関する情報に基づいて、ユーザの関心を判定してもよい。
例えば、スマートスピーカー50は、映像に関する情報として、自宅H01におけるユーザを撮像した情報であって、ユーザの動画に関する情報(以下、「動作情報」と表記する)を検知する。例えば、スマートスピーカー50は、ユーザが自宅H01において特徴のある動作(例えば、芸人が行う特異な動作)を行ったということを示す動作情報を検知する。かかる処理において、スマートスピーカー50は、例えば、既存の画像認識技術を用いて、ユーザの動作がどのような動作に該当するかを分類し、分類した情報に基づいてユーザの動作を検知してもよい。
そして、判定装置100は、スマートスピーカー50から取得した動作情報に基づいて、ユーザの関心を判定する。例えば、判定装置100は、従来では観測されなかった特異な動作に関して、その出現回数や、出現回数の増加率に基づいて、ある特異な動作が世の中で流行しているか否かを判定する。
すなわち、判定装置100は、センシング情報として、センサが検知したユーザの動作に関する情報である動作情報を取得し、取得した動作情報の統計に基づいて、ユーザの関心を判定してもよい。
このように、判定装置100は、自宅H01に設置されるスマートスピーカー50が検知する動作情報に基づいてユーザの関心を判定することで、メディア等の露出によらずとも、世の中で流行している動作等を判定することができる。
〔6−2.キーワードや曲以外の音情報〕
判定装置100は、音情報として、キーワードや曲に限らず、種々の音情報を取得し、統計してもよい。例えば、判定装置100は、ユーザが用いる言葉使いの特徴や、方言や、言語の変遷(すなわち、流行の言葉)を統計してもよい。
これにより、判定装置100は、例えば、ユーザの居住地別に、頻繁に使用される言葉使いや方言を判定することができる。また、判定装置100は、同じ意味を示すキーワードであっても、年齢や性別や居住地別に、異なる言葉使いがされていること等を判定することができる。このため、判定装置100によれば、例えば、メディア等では出現しない言葉であっても、かかる言葉が死語であるか、あるいは特定の居住地のユーザからは頻繁に利用されているのか等、通常では判定することが難しい言語の使用状況を精度よく判定することができる。
〔6−3.共起情報〕
判定装置100は、キーワードや曲が取得される際に同時に取得される共起ワードに基づいて、ユーザの関心を判定してもよい。例えば、ユーザは、キーワードとともに、そのキーワードに対して良い感情を有しているか(ポジティブであるか)、あるいは、悪い感情を有しているか(ネガティブであるか)を発言する場合がある。
例えば、ユーザが「そうだよ。ZZZ、いいよね。」という発声を行ったことを示す音情報を解析する場合、判定装置100は、キーワード「ZZZ」とともに、「いいよね」といった共起ワードを取得する。そして、判定装置100は、例えばポジティブワードやネガティブワードが設定された辞書データに基づいて、キーワード「ZZZ」の共起ワードがポジティブワードに該当するか、ネガティブワードに該当するかを判定する。
例えば、判定装置100は、キーワード「ZZZ」が出現したとしても、ユーザが当該キーワードに対してネガティブである場合には、ユーザがキーワード「ZZZ」に関心がないとして、キーワード「ZZZ」の出現回数を計数しなかったり、出願回数を減らしたりする等の処理を行ってもよい。あるいは、判定装置100は、キーワード「ZZZ」が出現した際に、ユーザが当該キーワードに対してポジティブである場合には、ユーザのキーワード「ZZZ」に対する関心が高いとして、キーワード「ZZZ」の出現回数を多めに計数する等の処理を行ってもよい。
このように、判定装置100は、センシング情報とともに共起ワードを取得することにより、ユーザが所定の対象に対して真に関心があるか否かを精度よく判定することができる。
〔6−4.判定装置〕
上記実施形態では、判定装置100は、スマートスピーカー50と通信するサーバ装置である例を示した。しかし、判定装置100が実行する判定処理を行う装置は、スマートスピーカー50やユーザ端末10であってもよい。この場合、スマートスピーカー50やユーザ端末10は、図3に示した各処理部を備える。また、判定処理を実行するスマートスピーカー50やユーザ端末10は、ネットワークNを介して、他のスマートスピーカー50が検知したセンシング情報を取得してもよい。
すなわち、実施形態に係る判定処理を行う装置は判定装置100に限られず、センサが検知した情報であるセンシング情報を取得し、センシング情報の統計に基づいてセンサを有する装置を利用するユーザの関心を判定することが可能な装置であれば、いずれの装置によって実現されてもよい。言い換えれば、実施形態に係る判定プログラムは、判定装置100に限らず、ユーザ端末10やスマートスピーカー50内部で実行されてもよい。
〔6−5.スマートスピーカーの構成〕
上記実施形態では、スマートスピーカー50の構成例について図7を用いて説明した。しかし、スマートスピーカー50は、図7で例示した全ての処理部を備えることを必ずしも要しない。また、スマートスピーカー50は、2以上の機器に分離されて図7を示す構成が実現されてもよい。例えば、スマートスピーカー50は、少なくとも検知部14を有する音声検知装置と、少なくとも通信部11を有する通信装置とに分離された構成を有する、2台以上の機器により実現されてもよい。
〔6−6.コンテンツの効果測定〕
判定装置100は、ユーザに送信したコンテンツの効果を測定してもよい。例えば、判定装置100は、ユーザの所定の行動が、コンテンツを視聴したと推定される行動であるか否かに基づいて、ユーザに提供されたコンテンツの効果を測定する。具体的には、判定装置100は、配信されたコンテンツに対して、ユーザが何らかの音声を発したという行動に基づいて、コンテンツの効果を測定する。より具体的には、判定装置100は、コンテンツの配信後に、コンテンツの商品名や、商品をほめる言葉や、商品に関心を示す言葉等をつぶやいた場合に、当該コンテンツがユーザに視聴されたと推定する。そして、判定装置100は、コンテンツが視聴されたことにより、コンテンツが効果を発揮したとみなして、当該コンテンツの効果を測定する。
また、判定装置100は、ユーザの所定の行動が、コンテンツに関するコンバージョンと成り得るか否かに基づいて、ユーザに提供されたコンテンツの効果を測定してもよい。コンバージョンは、例えば、ユーザがコンテンツで宣伝された商品を購入したり、申込みを行ったり、資料請求を行ったり、コンテンツの提供主のウェブページにアクセスしたりした行動等が該当する。
そして、判定装置100は、ユーザに対して配信されたコンテンツの識別情報や、コンテンツが配信された数や、コンテンツに対してツイートがあった割合(ツイート率)や、コンテンツに対してコンバージョンがあった割合(CVR)等を記憶部120に格納してもよい。なお、判定装置100は、測定処理の際に、当該ユーザの性別や年齢等の属性に関する情報を取得してもよい。これにより、判定装置100は、例えば、コンテンツが特に効果を発揮する年代や性別等に関する情報についても合わせて測定することができる。
〔7.ハードウェア構成〕
上述してきた実施形態に係る判定装置100や、ユーザ端末10や、スマートスピーカー50は、例えば図9に示すような構成のコンピュータ1000によって実現される。以下、判定装置100を例に挙げて説明する。図9は、判定装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を記憶する。
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(図2に示したネットワークNに対応)を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網500を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に記憶されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る判定装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラム(例えば、実施形態に係る判定プログラム)を実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが記憶される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。
〔8.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した判定部132と、選択部133とは統合されてもよい。また、例えば、記憶部120に記憶される情報は、ネットワークNを介して、外部に備えられた記憶装置に記憶されてもよい。
また、例えば、上記実施形態では、判定装置100が、ユーザから音情報を取得する取得処理と、ユーザの関心を判定する判定処理とを行う例を示した。しかし、上述した判定装置100は、取得処理を行う取得装置と、判定処理を行う判定装置とに分離されてもよい。この場合、例えば、実施形態に係る判定装置100による処理は、取得装置と、判定装置といった各装置を有する判定処理システム1によって実現される。
また、上述してきた各実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
〔9.効果〕
上述してきたように、実施形態に係る判定装置100は、取得部131と、判定部132とを有する。取得部131は、センサが検知した情報であるセンシング情報を取得する。判定部132は、取得部131によって取得されたセンシング情報の統計に基づいて、センサを有する装置を利用するユーザの関心を判定する。
このように、実施形態に係る判定装置100は、インターネット上の行動履歴等の情報ではなく、例えば自宅H01等に設置されるスマートスピーカー50が有するセンサによって検知される情報に基づいて、ユーザの関心を判定する。すなわち、判定装置100は、検索サービスの利用や、ウェブ閲覧など、ユーザの能動的な行動によって得られた情報のみではなく、ユーザの日常的な行動から検知される情報に基づいてユーザの関心を判定するため、様々なユーザの関心を判定することができる。
また、取得部131は、センシング情報として、センサが検知した音に関する情報である音情報を取得する。判定部132は、取得部131によって取得された音情報の統計に基づいて、ユーザの関心を判定する。
このように、実施形態に係る判定装置100は、自宅H01におけるテレビやラジオの音や、家族間の会話等などの音情報に基づいて、ユーザの関心を判定することができる。このため、判定装置100は、多様な状況から取得される種々の情報に基づいて、ユーザの関心を判定することができる。
また、判定部132は、音情報に含まれる曲を推定するとともに、所定期間における各曲の再生回数の統計に基づいて、曲に関するユーザの関心を判定する。
このように、実施形態に係る判定装置100は、検知された曲の再生回数に基づいてユーザの関心を判定するため、音楽メディアによる売上等のみならず、実際に曲がユーザから聴かれているかという実情に即して、ユーザの関心を判定することができる。
また、取得部131は、音情報として、ユーザが発した音声に関する情報である音声情報を取得する。判定部132は、取得部131によって取得された音声情報を解析することにより得られるキーワードの統計に基づいて、ユーザの関心を判定する。
このように、実施形態に係る判定装置100は、自宅H01における何気ない会話や、家族間の会話等などの音声に基づいて、ユーザの関心を判定するため、ユーザの実情に即した判定処理を行うことができる。
また、判定部132は、所定期間のうちに出現頻度が所定の閾値を超えて上昇したキーワードを抽出し、抽出したキーワードに基づいて、ユーザの関心を判定する。
このように、実施形態に係る判定装置100は、統計したキーワードの出現頻度の上昇度等に基づいてユーザの関心を判定する。これにより、判定装置100は、世の中で流行しているキーワード(フレーズ)や、個々のユーザが特に関心を寄せているキーワードを抽出することができるため、ユーザの関心を精度良く判定することができる。
また、取得部131は、ユーザが発した音声に関する音声情報とともに、当該ユーザの属性情報を取得する。判定部132は、取得部131によって取得された音声情報と属性情報の統計に基づいて、当該属性情報ごとのユーザの関心を判定する。
このように、実施形態に係る判定装置100は、属性情報ごとに判定処理を行うことで、より詳細にユーザの関心を判定することができる。
また、取得部131は、属性情報として、ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つを取得する。判定部132は、ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つの情報ごとにユーザの関心を判定する。
このように、実施形態に係る判定装置100は、性別や年齢別に関心を判定することで、例えば、ある年代のユーザにとって関心が高いキーワードや、家族構成における母親に関心が高いキーワードを抽出するなど、より柔軟な判定処理を行うことができる。
また、取得部131は、センシング情報として、センサが検知したユーザの動作に関する情報である動作情報を取得する。判定部132は、取得部131によって取得された動作情報の統計に基づいて、ユーザの関心を判定する。
このように、実施形態に係る判定装置100は、音情報のみならず、動作情報に基づいてユーザの関心を判定してもよい。これにより、判定装置100は、世の中のトレンド等を多様な観点から判定することができる。
また、実施形態に係る判定装置100は、判定部132によって判定された関心に基づいて、ユーザに提案する情報を選択する選択部133と、選択部133によって選択された情報を、ユーザが利用する装置から出力するよう制御する出力制御部134とをさらに備える。
このように、実施形態に係る判定装置100は、判定したユーザの関心に沿ったコンテンツの出力を行うことで、コンテンツの訴求効果を高めることができる。
以上、本願の実施形態を図面に基づいて詳細に説明したが、これは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
1 判定処理システム
10 ユーザ端末
50 スマートスピーカー
100 判定装置
110 通信部
120 記憶部
121 音情報記憶部
122 統計情報記憶部
123 コンテンツ記憶部
130 制御部
131 取得部
132 判定部
133 選択部
134 出力制御部

Claims (11)

  1. センサが検知した情報であるセンシング情報を取得する取得部と、
    前記取得部によって取得されたセンシング情報の統計に基づいて、前記センサを有する装置を利用するユーザの関心を判定する判定部と、
    を備えることを特徴とする判定装置。
  2. 前記取得部は、
    前記センシング情報として、前記センサが検知した音に関する情報である音情報を取得し、
    前記判定部は、
    前記取得部によって取得された音情報の統計に基づいて、前記ユーザの関心を判定する、
    ことを特徴とする請求項1に記載の判定装置。
  3. 前記判定部は、
    前記音情報に含まれる曲を推定するとともに、所定期間における各曲の再生回数の統計に基づいて、曲に関する前記ユーザの関心を判定する、
    ことを特徴とする請求項2に記載の判定装置。
  4. 前記取得部は、
    前記音情報として、前記ユーザが発した音声に関する情報である音声情報を取得し、
    前記判定部は、
    前記取得部によって取得された音声情報を解析することにより得られるキーワードの統計に基づいて、前記ユーザの関心を判定する、
    ことを特徴とする請求項2又は3に記載の判定装置。
  5. 前記判定部は、
    所定期間のうちに出現頻度が所定の閾値を超えて上昇したキーワードを抽出し、抽出したキーワードに基づいて、前記ユーザの関心を判定する、
    ことを特徴とする請求項4に記載の判定装置。
  6. 前記取得部は、
    前記ユーザが発した音声に関する音声情報とともに、当該ユーザの属性情報を取得し、
    前記判定部は、
    前記取得部によって取得された音声情報と属性情報の統計に基づいて、当該属性情報ごとに前記ユーザの関心を判定する、
    ことを特徴とする請求項4又は5に記載の判定装置。
  7. 前記取得部は、
    前記属性情報として、前記ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つを取得し、
    前記判定部は、
    前記ユーザの性別、年齢、居住地、又は、家族構成における続柄の少なくとも一つの情報ごとに前記ユーザの関心を判定する、
    ことを特徴とする請求項6に記載の判定装置。
  8. 前記取得部は、
    前記センシング情報として、前記センサが検知したユーザの動作に関する情報である動作情報を取得し、
    前記判定部は、
    前記取得部によって取得された動作情報の統計に基づいて、前記ユーザの関心を判定する、
    ことを特徴とする請求項1〜7のいずれか一つに記載の判定装置。
  9. 前記判定部によって判定された関心に基づいて、前記ユーザに提案する情報を選択する選択部と、
    前記選択部によって選択された情報を、前記ユーザが利用する装置から出力するよう制御する出力制御部と、
    をさらに備えたことを特徴とする請求項1〜8のいずれか一つに記載の判定装置。
  10. コンピュータが実行する判定方法であって、
    センサが検知した情報であるセンシング情報を取得する取得工程と、
    前記取得工程によって取得されたセンシング情報の統計に基づいて、前記センサを有する装置を利用するユーザの関心を判定する判定工程と、
    を含んだことを特徴とする判定方法。
  11. センサが検知した情報であるセンシング情報を取得する取得手順と、
    前記取得手順によって取得されたセンシング情報の統計に基づいて、前記センサを有する装置を利用するユーザの関心を判定する判定手順と、
    をコンピュータに実行させることを特徴とする判定プログラム。
JP2017157869A 2017-08-18 2017-08-18 判定装置、判定方法及び判定プログラム Pending JP2019036191A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017157869A JP2019036191A (ja) 2017-08-18 2017-08-18 判定装置、判定方法及び判定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017157869A JP2019036191A (ja) 2017-08-18 2017-08-18 判定装置、判定方法及び判定プログラム

Publications (1)

Publication Number Publication Date
JP2019036191A true JP2019036191A (ja) 2019-03-07

Family

ID=65637622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017157869A Pending JP2019036191A (ja) 2017-08-18 2017-08-18 判定装置、判定方法及び判定プログラム

Country Status (1)

Country Link
JP (1) JP2019036191A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020162936A (ja) * 2019-03-29 2020-10-08 株式会社セガ 音声処理装置
CN113729546A (zh) * 2020-05-29 2021-12-03 东芝生活电器株式会社 信息处理系统
JP2022015326A (ja) * 2020-07-08 2022-01-21 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び端末装置
JP2022034804A (ja) * 2020-08-19 2022-03-04 トヨタ自動車株式会社 情報処理装置、情報処理システム、および情報処理方法
JP2022144272A (ja) * 2021-03-18 2022-10-03 ヤフー株式会社 配信装置、配信方法、配信プログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152782A (ja) * 2000-11-08 2002-05-24 Pioneer Electronic Corp 視聴状況の管理方法、同方法がプログラムされ記録された記録媒体、視聴状況の管理システム、視聴状況の管理システムにおける管理センタ装置、ならびに端末装置
JP2002196773A (ja) * 2000-11-27 2002-07-12 Koninkl Philips Electronics Nv 曲を識別する方法
JP2007164497A (ja) * 2005-12-14 2007-06-28 Fujitsu Ten Ltd 嗜好推定装置、及び制御装置
JP2009134104A (ja) * 2007-11-30 2009-06-18 Pioneer Electronic Corp 楽曲再生装置、楽曲判定方法、楽曲判定プログラムおよび記録媒体
US20100169091A1 (en) * 2008-12-30 2010-07-01 Motorola, Inc. Device, system and method for providing targeted advertisements and content
JP2012059182A (ja) * 2010-09-13 2012-03-22 Nippon Telegr & Teleph Corp <Ntt> 検索クエリ推薦方法、検索クエリ推薦装置、検索クエリ推薦プログラム
JP2015007928A (ja) * 2013-06-26 2015-01-15 カシオ計算機株式会社 情報処理装置、コンテンツ課金システム及びプログラム
JP2016153972A (ja) * 2015-02-20 2016-08-25 ヤフー株式会社 抽出装置、抽出方法及び抽出プログラム
WO2017122361A1 (ja) * 2016-01-15 2017-07-20 富士通株式会社 セキュリティ装置および制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002152782A (ja) * 2000-11-08 2002-05-24 Pioneer Electronic Corp 視聴状況の管理方法、同方法がプログラムされ記録された記録媒体、視聴状況の管理システム、視聴状況の管理システムにおける管理センタ装置、ならびに端末装置
JP2002196773A (ja) * 2000-11-27 2002-07-12 Koninkl Philips Electronics Nv 曲を識別する方法
JP2007164497A (ja) * 2005-12-14 2007-06-28 Fujitsu Ten Ltd 嗜好推定装置、及び制御装置
JP2009134104A (ja) * 2007-11-30 2009-06-18 Pioneer Electronic Corp 楽曲再生装置、楽曲判定方法、楽曲判定プログラムおよび記録媒体
US20100169091A1 (en) * 2008-12-30 2010-07-01 Motorola, Inc. Device, system and method for providing targeted advertisements and content
JP2012059182A (ja) * 2010-09-13 2012-03-22 Nippon Telegr & Teleph Corp <Ntt> 検索クエリ推薦方法、検索クエリ推薦装置、検索クエリ推薦プログラム
JP2015007928A (ja) * 2013-06-26 2015-01-15 カシオ計算機株式会社 情報処理装置、コンテンツ課金システム及びプログラム
JP2016153972A (ja) * 2015-02-20 2016-08-25 ヤフー株式会社 抽出装置、抽出方法及び抽出プログラム
WO2017122361A1 (ja) * 2016-01-15 2017-07-20 富士通株式会社 セキュリティ装置および制御方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020162936A (ja) * 2019-03-29 2020-10-08 株式会社セガ 音声処理装置
CN113729546A (zh) * 2020-05-29 2021-12-03 东芝生活电器株式会社 信息处理系统
JP2021189726A (ja) * 2020-05-29 2021-12-13 東芝ライフスタイル株式会社 情報処理システム
JP7494014B2 (ja) 2020-05-29 2024-06-03 東芝ライフスタイル株式会社 情報処理システム
JP2022015326A (ja) * 2020-07-08 2022-01-21 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び端末装置
JP2022034804A (ja) * 2020-08-19 2022-03-04 トヨタ自動車株式会社 情報処理装置、情報処理システム、および情報処理方法
JP7484561B2 (ja) 2020-08-19 2024-05-16 トヨタ自動車株式会社 情報処理装置および情報処理方法
JP2022144272A (ja) * 2021-03-18 2022-10-03 ヤフー株式会社 配信装置、配信方法、配信プログラム
JP7388380B2 (ja) 2021-03-18 2023-11-29 Lineヤフー株式会社 配信装置、配信方法、配信プログラム

Similar Documents

Publication Publication Date Title
JP7207836B2 (ja) 視聴者エンゲージメントを評価するためのシステム
CN109155136B (zh) 从视频自动检测和渲染精彩场面的计算机化系统和方法
JP2019036191A (ja) 判定装置、判定方法及び判定プログラム
US8612866B2 (en) Information processing apparatus, information processing method, and information processing program
Chon et al. Automatically characterizing places with opportunistic crowdsensing using smartphones
US8831276B2 (en) Media object metadata engine configured to determine relationships between persons
US10599390B1 (en) Methods and systems for providing multi-user recommendations
CN105339969B (zh) 链接的广告
US8694495B2 (en) Information processing device, information processing terminal, information processing method, and program
US10380208B1 (en) Methods and systems for providing context-based recommendations
US9123061B2 (en) System and method for personalized dynamic web content based on photographic data
US20160379271A1 (en) System and method for determining a pupillary response to a multimedia data element
US20150020086A1 (en) Systems and methods for obtaining user feedback to media content
US20100179874A1 (en) Media object metadata engine configured to determine relationships between persons and brands
US11328010B2 (en) Song similarity determination
JP2015518680A (ja) 受動的に検知された聴衆反応に基づくメディア・プログラムの提示制御
CN103207675A (zh) 制作媒体节目集锦或扩充媒体节目
JP2010244523A (ja) 感情データを伴うタグを追加および処理するための方法および装置
JP6090053B2 (ja) 情報処理装置、情報処理方法およびプログラム
US20170351768A1 (en) Systems and methods for content targeting using emotional context information
US20110213773A1 (en) Information processing apparatus, keyword registration method, and program
TW201322034A (zh) 結合搜尋引擎服務的廣告播放系統及方法
CN112584205B (zh) 用于呈现通知的方法、系统及可读介质
JP6767322B2 (ja) 出力制御装置、出力制御方法及び出力制御プログラム
CN110799946B (zh) 多应用用户兴趣存储器管理

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180420

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180420

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190604

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190604

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190612

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190618

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20190726

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20190730

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200303

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200414

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200714

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20200818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201019

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201124

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210105

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210105