JP2014191385A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2014191385A
JP2014191385A JP2013063596A JP2013063596A JP2014191385A JP 2014191385 A JP2014191385 A JP 2014191385A JP 2013063596 A JP2013063596 A JP 2013063596A JP 2013063596 A JP2013063596 A JP 2013063596A JP 2014191385 A JP2014191385 A JP 2014191385A
Authority
JP
Japan
Prior art keywords
commercial
collected
sound
broadcast
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013063596A
Other languages
English (en)
Inventor
Kazuo Shimoda
一夫 下田
Takashi Ishiguro
高詩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aoi Pro
AOI PRO Inc
Oki Electric Industry Co Ltd
Original Assignee
Aoi Pro
AOI PRO Inc
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aoi Pro, AOI PRO Inc, Oki Electric Industry Co Ltd filed Critical Aoi Pro
Priority to JP2013063596A priority Critical patent/JP2014191385A/ja
Publication of JP2014191385A publication Critical patent/JP2014191385A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】コマーシャルの特性を踏まえたサービスを提供できるようにする。
【解決手段】サーバー装置10は、デバイス11から、収音した音声に関する情報である収音音声関連情報データを受信し、受信した収音音声関連情報データに基づいて、デバイス11が、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したのか否かを判別するリアルタイム判別部20aを備える。
【選択図】図1

Description

本発明は、収音機能を有するデバイスと通信可能に接続された情報処理装置に関する。
従来、携帯電話等のデバイス(携帯端末装置)であって、実装されたマイクを利用して収音した音声に基づいて、各種処理を実行するものが知られている(例えば、特許文献1参照)。
特開2011−86021号公報
ここで、上述したように収音機能を有するデバイスは、放送に基づいて放音される音声、特に、コマーシャルに係る音声を収音可能であり、このことを利用すれば、新たなサービスを提供可能である。その際、コマーシャルの特性を踏まえたサービスを提供できれば、より付加価値の高いサービスを提供できる。
本発明は、上述した事情に鑑みてなされたものであり、コマーシャルの特性を踏まえたサービスを提供できるようにすることを目的とする。
上記目的を達成するために、本発明は、収音機能を有するデバイスと通信可能に接続された情報処理装置であって、前記デバイスから、収音した音声に関する情報である収音音声関連情報を受信し、受信した前記収音音声関連情報に基づいて、前記デバイスが、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したのか否かを判別するリアルタイム判別部を備えることを特徴とする。
また、本発明は、放送に基づいて放音される音声を収音して分析し、コマーシャルに係る音声が放音されたことを検出すると共に、検出したコマーシャルを識別する放送分析部をさらに備え、前記リアルタイム判別部は、前記放送分析部の分析結果、及び、前記デバイスから受信した前記収音音声関連情報に基づいて、前記デバイスが、前記放送分析部が検出したコマーシャルと同一のコマーシャルに係る音声を、前記放送分析部によるコマーシャルの検出タイミングに対応するタイミングで収音したか否かを判別し、収音している場合、前記デバイスが、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したと判別することを特徴とする。
また、本発明は、複数の前記デバイスと通信可能に接続され、前記リアルタイム判別部は、複数の前記デバイスから受信した前記収音音声関連情報に基づいて、所定数以上のデバイスが、同一のコマーシャルを相互に対応するタイミングで収音したか否か判別し、収音している場合、当該コマーシャルについては、前記デバイスが、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したと判別することを特徴とする。
また、本発明は、前記リアルタイム判別部により、前記デバイスが、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音していないと判別された場合、前記デバイスから受信した収音音声関連情報に基づいて、前記デバイスが、所定の期間内に、所定の回数以上、リアルタイムで収音していないと判別されたコマーシャルに係る音声を収音したか否か判別する処理実行部をさらに備えることを特徴とする。
また、本発明は、前記デバイスは、複数のコマーシャルについて、コマーシャルの識別情報と、コマーシャルの音声に係るパターンとを対応付けて記憶し、収音した音声に基づいて、記憶した前記パターンを利用したパターンマッチングを行なうことにより、コマーシャルに係る音声を収音したことを検出すると共に、検出したコマーシャルの識別情報を特定し、特定した識別情報を少なくとも含む前記収音音声関連情報を送信することを特徴とする。
また、本発明は、前記デバイスに記憶された、コマーシャルの識別情報、及び、コマーシャルの音声に係るパターンを、各コマーシャルの放送期間に対応して更新するパターン更新部をさらに備えることを特徴とする。
また、本発明は、複数の前記デバイスと通信可能に接続され、複数の前記デバイスから受信した前記収音音声関連情報に基づいて、各コマーシャルに係る音声を収音した前記デバイスの数を少なくとも含む情報を記憶するコマーシャル情報記憶部を備えることを特徴とする。
本発明によれば、コマーシャルの特性を踏まえたサービスを提供できるようになる。
本実施形態に係る情報処理システムの構成を示す図である。 サービス提供時におけるデバイス、及び、サーバー装置の動作を示すフローチャートである。 各種データのデータ構造を示す図である。 非リアルタイム特別処理の実行時におけるサーバー装置の動作を示すフローチャートである。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る情報処理システム1の構成を示す図である。
図1に示すように、情報処理システム1は、サーバー装置10(情報処理装置)を備えており、このサーバー装置10に、インターネット等のネットワークNを介して、デバイス11が接続可能な構成となっている。
サーバー装置10は、所定のサービス提供会社が直接的に、又は、間接的に開発、保守、運営するサーバー装置であり、後述する各種サービスは、このサーバー装置10におけるハードウェアとソフトウェアとの協働により提供される。
デバイス11は、サーバー装置10が提供するサービスを利用するユーザーが保有する装置である。デバイス11は、収音機能、及び、サーバー装置10との間での通信機能を有していれば、どのような装置であってもよいが、本実施形態では、デバイス11は、いわゆるスマートフォン、すなわち、タブレット型の装置本体の前面の広い領域にタッチパネル31が設けられた携帯電話であるものとする。スマートフォンには、マイクが実装され、収音機能が有するものが実装されているものが広く普及しており、また、アプリケーションを所定の方法でダウンロードさせて、このアプリケーションの機能により、収音機能を利用した各種サービスを簡易に提供可能である。
サーバー装置10と、デバイス11とは、一対多の関係にあり、複数のデバイス11がサーバー装置10と通信可能である。サーバー装置10と、デバイス11との間では、必要に応じて、所定の暗号化プロトコルに準じた通信や、仮想専用線等の既存の技術によりセキュアな通信が行われる。
図1に示すように、サーバー装置10は、サーバー制御部20と、サーバー記憶部21と、放送分析部22と、を備えている。
サーバー制御部20は、CPUや、ROM、RAM等を備え、サーバー装置10の各部を中枢的に制御する。サーバー制御部20が備える機能ブロックについては後述する。サーバー記憶部21は、ハードディスク等の不揮発性メモリーを備え、各種データを書き換え可能に不揮発的に記憶する。サーバー記憶部21に記憶されるデータについては後述する。放送分析部22については後述する。インターフェース部23は、サーバー制御部20の制御の下、所定の通信規格に準拠してデバイス11と通信する。
なお、図1では、サーバー装置10は、1つのブロックによって表わされているが、サーバー装置10は1つのサーバー装置によって構成されている必要はない。例えば、後述する機能ブロックに係る機能ごとにサーバー装置を備え、これらサーバー装置が連係する構成であってもよい。また、集中型システム、分散型システムの一部であってもよい。すなわち、サーバー装置10は、後述する各種機能を実現可能な構成であれば、どのような構成であってもよい。
また、図1に示すように、デバイス11は、上述したとおり、いわゆるスマートフォンであり、デバイス制御部30と、タッチパネル31と、表示制御部32と、入力検出部33と、無線通信部34と、音声処理部35と、デバイス記憶部36と、を備えている。
デバイス制御部30は、CPUや、ROM、RAM等を備え、デバイス11の各部を中枢的に制御する。デバイス制御部30が備える機能ブロックについては後述する。タッチパネル31は、デバイス11の前面に配置された表示パネル31aと、表示パネル31aに重ねて配置されたタッチセンサー31bとを備えている。表示制御部32は、デバイス制御部30の制御の下、表示パネル31aに各種画像を表示する。入力検出部33は、タッチセンサー31bに対する操作を検出して、デバイス制御部30に出力する。無線通信部34は、所定の無線通信の規格に準拠した通信モジュールを備え、デバイス制御部30の制御の下、電話網、その他の通信回線を介して、サーバー装置10や、他の電話機と通信する。音声処理部35は、スピーカー38と接続されており、デバイス制御部30から入力された音声信号をデジタル/アナログ変換してスピーカー38に出力することによって、音声信号に係る音声を放音する。
また、音声処理部35は、マイク39と接続されており、マイク39によって収音された音声に係る信号をアナログ/デジタル変換して収音データを生成し、デバイス制御部30に出力する。
本実施形態では、デバイス11にマイクが実装され、デバイス11自体が収音機能を有しているが、必ずしもこのような構成である必要はなく、デバイス11に接続された外部機器が収音機能を有しており、収音された音声に係るデータを当該外部機器から通信を介して取得する構成であってもよい。この場合、デバイス11と、外部機器とが協働して「デバイス」として機能する。
さて、テレビ放送や、ラジオ放送、その他の有線、無線放送では、放送中、コマーシャルが放送されることがある。一般に、コマーシャルは、番組と番組との間で放送されるが、視聴者(ラジオ等の聴取者も含む。以下同じ。)は、番組からコマーシャルへと移行した後、必ずしも、引き続きコマーシャルを視聴(ラジオ等の聴取も含む。以下同じ。)するとは限らず、チャンネルを変えたり、また、何らかの作業を行なったりすることがある。
そして、本実施形態に係る情報処理システム1は、サーバー装置10が提供するサービスにより、ユーザーに対してコマーシャルを視聴するインセンティブを的確に与え、コマーシャルの提供に関係する会社、及び、ユーザーの双方の利益に資することを目的の1つとしている。特に、本実施形態に係る情報処理システム1では、コマーシャルの「特性」を最大限に活用して、上述した目的を達成している。
コマーシャルの特性の1つは、コマーシャルの種類として、スポットコマーシャルが存在することである。スポットコマーシャルには、ユーザー(視聴者)や、サービス提供会社等が、どの時間に、どのコマーシャルが放送されるのかを把握できない、という特性がある。
以下、サーバー装置10、及び、デバイス11の機能、動作について詳述する。
なお、説明の便宜のため、以下の説明では、コマーシャルとして、テレビ放送で放送されるものを想定する。
サーバー装置10によるサービスの利用の前提として、ユーザーは、専用のアプリケーション(以下、「専用アプリケーション」という。)をインストールする。専用アプリケーションはサービス提供会社が提供するものであり、ユーザーは、既存のアプリケーションインストールサービス等を利用して、デバイス11に専用アプリケーションをインストールする。図1を参照し、デバイス11のデバイス制御部30が備える専用アプリケーション実行部30aの機能は、CPUが専用アプリケーション、その他の付随するプログラムを読み出して実行する等、ハードウェアとソフトウェアとの協働により実現される。
次いで、ユーザーは、サービス提供会社に対して、サービスの利用の登録を行なう。登録は、専用アプリケーションの機能によって提供されるユーザーインターフェースを利用して行えるようになっている。登録に応じて、サービス提供会社から、ユーザーに対して、ログインID、及び、ログインパスワードが通知される。ログインIDや、ログインパスワード、その他の登録に関する情報は、サーバー装置10のサーバー記憶部21のユーザー管理データベース21aに適切な態様で記憶され、管理される。
図2は、サービスの提供に係るサーバー装置10、及び、デバイス11の動作を示すフローチャートであり、(A)はデバイス11の動作を、(B)はサーバー装置10の動作を表わしている。
ユーザーは、テレビ放送を視聴しているときに(上述したように、本例ではテレビ放送であるがラジオ放送等、他の放送であってもよい。)、サービスを利用することができる。テレビ放送を視聴しているユーザーは、サービスの利用に際し、自身のデバイス11において、専用アプリケーションを立ち上げ、通知されたログインID、ログインパスワードを利用して、ログインする(ステップSX1)。
ログインをトリガーとして、専用アプリケーション実行部30aは、音声処理部35を制御して、マイク39によって収音された音声に係る収音データの入力を開始させ、収音データの取得を開始する(ステップSA1)。音声処理部35からの収音データの入力は、継続して行なわれる。
次いで、専用アプリケーション実行部30aは、取得した収音データを分析して、所定のコマーシャルに係る音声が収音されたか否かを監視する(ステップSA2)。
以下、ステップSA2の処理について詳述する。
ここで、図1に示すように、デバイス11のデバイス記憶部36には、パターンデータベース36aが記憶されている。
図3(A)は、パターンデータベース36aの1件のレコードのデータ構造を示す図である。
パターンデータベース36aでは、サービスを介してユーザーに視聴のインセンティブを与えようとしているコマーシャルのそれぞれについて、各コマーシャルに一意に付与された識別情報であるコマーシャル識別情報J1と、コマーシャルの音声に係るパターンである音声パターンJ2とが対応付けて記憶される。
以下、サービスを介してユーザーに視聴のインセンティブを与えようとしているコマーシャル、換言すれば、パターンデータベース36aに、コマーシャル識別情報J1と対応付けて、音声パターンJ2が記憶されているコマーシャルのことを「対象コマーシャル」という。なお、後述する手段により、パターンデータベース36aには、対象コマーシャルの放送期間に準じた適切な情報が記憶される構成となっている。
コマーシャルの音声に係るパターンとは、本実施形態では、コマーシャルに係る音声に基づく所定のサンプリング期間の音声データを周波数スペクトルに変換後、周波数スペクトルに基づいて生成された所定の周波数(複数であってもよい)のベクトルのことである。
そして、ステップSA2において、専用アプリケーション実行部30aは、所定のサンプリング周期で、入力された収音データを周波数スペクトルに変換し、所定の周波数のベクトルを生成する。次いで、専用アプリケーション実行部30aは、収音データに基づいて生成した所定の周波数のベクトルと、パターンデータベース36aに記憶された各対象コマーシャルの音声パターンJ2とのパターンマッチングを行い、マッチすれば、対象コマーシャルに係る音声が収音されたと判別する。
なお、上述したパターンマッチングの手法は、あくまで一例であり、既存のパターンマッチングの手法を広く利用することができる。
さて、ステップSA2において、対象コマーシャルに係る音声が収音されたと判別した場合(ステップSA2:YES)、専用アプリケーション実行部30aは、パターンデータベース36aの対応するレコードに基づいて、そのコマーシャル識別情報J1を特定する(ステップSA3)。次いで、専用アプリケーション実行部30aは、少なくともコマーシャル識別情報J1、及び、位置情報J10を含む所定フォーマットの収音音声関連情報データD1(収音音声関連情報)を生成し、サーバー装置10に送信する(ステップSA4)。
位置情報J10とは、デバイス11の位置(ユーザーが放送を視聴している位置)を示す情報のことである。デバイス11にGPS機能が備わっている場合は、位置情報J10は、GPS機能によって取得される情報であってもよい。また、ログインの際にユーザーに位置情報J10を選択的に入力させる構成とした場合は、ユーザーによって入力された情報であってもよい。また、デバイス11が携帯電話である場合は、所定の手段にて取得可能な最寄りの基地局を示す情報であってもよい。すなわち、位置情報J10は、デバイス11の位置が、地図上で区分けされる放送エリアのうち、どの放送エリアに属しているかを判別できる情報であれば、どのような情報であってもよく、また、その取得手段も問わない。
ステップSA4の処理後、専用アプリケーション実行部30aは、処理手順をステップSA2へ戻す。なお、ステップSA2〜ステップSA4の処理の実行中、専用アプリケーション実行部30aは、ユーザーによって専用アプリケーションの終了が指示されたか否かを監視し、指示された場合、処理を終了する。
このように、本実施形態では、デバイス11が対象コマーシャルに係る音声を収音した場合に、デバイス11からサーバー装置10に対して、収音音声関連情報データD1が送信される構成である。このため、例えば、音声の収音中、デバイス11からサーバー装置10に対して、収音データを送信し、サーバー装置10でパターンマッチングを行なう構成の場合と比較して、デバイス11からサーバー装置10に対して送信されるデータのデータ量が非常に少なく、処理効率、通信効率の向上が実現されている。
図2(B)を参照し、サーバー装置10のサーバー制御部20は、デバイス11から、コマーシャル識別情報J1を含む収音音声関連情報データD1を受信すると(ステップSB1)、リアルタイム判別処理を実行する(ステップSB2)。以下、ステップSB2のリアルタイム判別処理について詳述する。
ここで、「デバイス11が、(放送に基づいて放音された)コマーシャルに係る音声をリアルタイムで収音した」とは、すなわち、放送について録画や、録音等したものを再生し、そこで流れるコマーシャルに係る音声をデバイス11が収音したのではなく、リアルタイムで放送されるコマーシャルに係る音声を収音したということである。そして、デバイス11が、コマーシャルに係る音声をリアルタイムで収音している場合は、ユーザーがコマーシャルを視聴した、とみなすことができる。
上述したように、コマーシャルのうち、スポットコマーシャルについては、ユーザー(視聴者)や、サービス提供会社等が、どの時間に、どのコマーシャルが放送されるのかを把握できないという特性があるが、ユーザーが、対象コマーシャルをリアルタイムで視聴しているのか否かを的確に判別することができれば、リアルタイムで視聴した場合と、そうでない場合とで、ユーザーに提供するサービス(詳細は後述)に差を付けることができ、コマーシャルの特性を踏まえた適切なサービスの提供を実現できる。例えば、ある1の商品の宣伝に係るコマーシャルについて考えると、コマーシャルを提供する会社は、当該1の商品の売上げ状況、投資状況、その他の状況や、その商品の市場投入のタイミング等、複数の要因を踏まえた上で、適切な期間にコマーシャルを放送させる。このため、コマーシャルを提供する会社には、できるだけ当該1の商品に係るコマーシャルを、リアルタイムで視聴して欲しいという要望がある。これを踏まえ、ユーザーが、対象コマーシャルをリアルタイムで視聴しているのか否かを的確に判別した上で、リアルタイムで視聴した場合と、そうでない場合とで、ユーザーに提供するサービスの内容に差をつけることにより、ユーザーに、リアルタイムでコマーシャルを視聴するインセンティブを与えることができ、コマーシャルの提供に関係する会社、及び、ユーザーの双方の利益に資することができる。
そして、ステップSB2のリアルタイム判別処理において、サーバー装置10のサーバー制御部20が備える機能ブロックであるリアルタイム判別部20aは、受信した収音音声関連情報データD1に基づいて、デバイス11が、当該データに含まれるコマーシャル識別情報J1が示す対象コマーシャルに係る音声を、リアルタイムで収音したのか否かを判別する。このリアルタイム判別部20aの機能は、CPUが、サーバー装置10にインストールされたソフトウェアを読み出して実行する等、ハードウェアとソフトウェアとの協働により実現される。このことは、サーバー制御部20が備える他の機能ブロックについても同様である。
さて、本実施形態では、コマーシャルがリアルタイムに収音されたものか否かを判別する方法として、以下の2つの方法がある。いずれか一方の方法に係る処理を行なう構成であってもよく、両方の方法に係る処理を実行可能な構成とした上で、いずれの方法に係る処理を行なうかを切替え可能に構成してもよく、双方の方法に係る処理を行なう構成であってもよい。
<方法1>
方法1では、放送分析部22を利用する。
放送分析部22は、収音機能を有する複数台の外部機器に接続されており、複数台の外部機器のそれぞれに対応してテレビ装置が用意されている。テレビ装置のそれぞれでは、特定の放送エリアにおける異なるチャンネルのテレビ放送が放映されており、複数台の外部機器は、それぞれ、異なるテレビ放送に係る音声を収音し、収音データとして、逐次、放送分析部22に出力する。チャンネルとしては、特定の放送エリアにおいてユーザーが視聴し得る全てのチャンネルが選択されることが望ましいが、対象コマーシャルが放送され得るチャンネルのみ選択される等、サービスの内容に応じて適切に選択される。
放送分析部22は、各チャンネルに係る収音データを分析し、いずれかのチャンネルに係る外部機器において、対象コマーシャルが収音されたか否かを判別し、対象コマーシャルが収音されたことを検出した場合、その対象コマーシャルを識別すると共に、その対象コマーシャルのコマーシャル識別情報J1、チャンネルを示すチャンネル識別情報J3、及び、放送エリアを示す放送エリア情報J11を含む分析結果データD2をリアルタイム判別部20aに出力する。放送エリア情報J11は、事前に登録される。
ここで出力された分析結果データD2に含まれるコマーシャル識別情報J1が示す対象コマーシャルは、当該データの出力時に、実際にリアルタイムで放送されたコマーシャルである。
放送分析部22は、例えば、上述した専用アプリケーション実行部30aと同様の方法で、収音データに基づいて、対象コマーシャルが収音されたことを検出し、当該対象コマーシャルを識別し、また、コマーシャル識別情報J1を特定する。方法は、これに限らず、存在する技術を利用したどのような方法であってもよい。
ここで、本実施形態では、サーバー装置10が放送分析部22を備えているが、この放送分析部22の機能を、サーバー装置10に接続された外部機器が実装している構成であってもよい。この場合、サーバー装置10と当該外部機器とが協働して「情報処理装置」として機能する。
放送分析部22からコマーシャル識別情報J1、チャンネル識別情報J3、及び、放送エリア情報J11を含む分析結果データD2が入力されると、リアルタイム判別部20aは、当該分析結果データD2の入力から所定の期間T1内に、デバイス11から、当該分析結果データD2に含まれるコマーシャル識別情報J1(放送分析部22が検出した対象コマーシャルを示すコマーシャル識別情報J1)と同一のコマーシャル識別情報J1を含む収音音声関連情報データD1を受信したか否かを判別する。受信した場合、リアルタイム判別部20aは、分析結果データD2に含まれる放送エリア情報J11と、収音音声関連情報データD1に含まれる位置情報J10とを比較して、位置情報J10が示すデバイス11の位置が、放送エリア情報J11が示す放送エリアに属するか否かを判別する。「位置情報J10が示すデバイス11の位置が、放送エリア情報J11が示す放送エリアに属する」ということは、ある特定の放送エリアで放送されたコマーシャルに係る音声を、その放送エリアに属するデバイス11がリアルタイムで収音したということである。
属する場合、リアルタイム判別部20aは、分析結果データD2に含まれるコマーシャル識別情報J1(放送分析部22が検出した対象コマーシャルを示すコマーシャル識別情報J1)と、同一のコマーシャル識別情報J1を含む収音音声関連情報データD1を送信してきたデバイス11については、コマーシャル識別情報J1が示す対象コマーシャルに係る音声をリアルタイムで収音したと判別する。
すなわち、分析結果データD2に含まれるコマーシャル識別情報J1(放送分析部22が検出した対象コマーシャルを示すコマーシャル識別情報J1)が示す対象コマーシャルは、この分析結果データD2がリアルタイム判別部20aに入力されたときに、実際にリアルタイムで放送された対象コマーシャルである。従って、分析結果データD2がリアルタイム判別部20aに入力されたときと、略同タイミングで対応するコマーシャル識別情報J1を含む収音音声関連情報データD1を送信したデバイス11は、実際にリアルタイムで対応する対象コマーシャルに係る音声を収音した蓋然性が非常に高い。これを踏まえ、方法1において、リアルタイム判別部20aは、分析結果データD2の入力から所定の期間T1内に、デバイス11から、分析結果データD2に含まれるコマーシャル識別情報J1と同一のコマーシャル識別情報J1を含む収音音声関連情報データD1を受信したデバイス11については、対応する対象コマーシャルに係る音声をリアルタイムで収音したと判別する。
つまり、リアルタイム判別部20aは、放送分析部22の分析結果、及び、デバイス11から受信した収音音声関連情報データD1に基づいて、デバイス11が、放送分析部22が放送されたことを検出した対象コマーシャルと同一の対象コマーシャルに係る音声を、放送分析部22による対象コマーシャルの検出タイミングに対応するタイミングで収音したか否かを判別する。収音している場合、リアルタイム判別部20aは、デバイス11が、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したと判別する。これにより、デバイス11がリアルタイムで対象コマーシャルに係る音声を収音したか否かを、的確に、判別できる。
ここで、期間T1は、各種データの生成に係る処理、通信に係る処理等、デバイス11、及び、サーバー装置10が各種に要する時間や、通信の遅延等を考慮して、その値が適切に定められる。また、サーバー装置10側の処理も考慮し、分析結果データD2が入力される前の期間も期間T1に含めてもよい。
<方法2>
次いで、方法2について説明する。
方法2では、リアルタイム判別部20aは、所定の期間T2以内に、所定数S1以上のデバイス11から、同一のコマーシャル識別情報J1を含む収音音声関連情報データD1を受信したか否かを判別し、収音している場合、これらデバイス11については、当該コマーシャル識別情報J1が示す対象コマーシャルに係る音声をリアルタイムで収音したと判別する。
すなわち、所定の期間T2以内に、所定数S1以上のデバイス11から、同一のコマーシャル識別情報J1を含む収音音声関連情報データD1を受信した場合、これら異なる複数のデバイス11が、同一の対象コマーシャルに係る音声を、略同一のタイミングで収音したということであり、これらデバイス11は、リアルタイムで対応する対象コマーシャルに係る音声を収音した蓋然性が非常に高い。これを踏まえ、方法2では、上記手法により、デバイス11が、対象コマーシャルに係る音声をリアルタイムで収音したか否かを判別する。
すなわち、リアルタイム判別部20aは、複数のデバイス11から受信した収音音声関連情報データD1に基づいて、所定数S1以上のデバイス11が、同一の対象コマーシャルを相互に対応するタイミングで収音したか否か判別し、収音している場合、当該対象コマーシャルについては、各デバイス11が、放送に基づいて放音された対象コマーシャルに係る音声をリアルタイムで収音したと判別する。これにより、デバイス11がリアルタイムで対象コマーシャルに係る音声を収音したか否かを、的確に、判別できる。
なお、所定数S1は、上記判別が的確に行なわれるように、その値が適切に定められる。
<リアルタイム判別処理の別例1>
上述した方法1と、方法2とを併用して、以下のようにしてリアルタイム判別処理を実行することも可能である。
デバイス11から収音音声関連情報データD1を受信した場合、リアルタイム判別部20aは、まず、上述した方法1によって、リアルタイム判別処理を行なう。
方法1に係るリアルタイム判別処理によって、対象コマーシャルに係る音声をリアルタイムで収音していないと判別された場合としては、以下の場合があり得る。すなわち、デバイス11がリアルタイムで対象コマーシャルに係る音声を収音しているものの、放送分析部22が対応している放送エリア外で、放送されたものを収音したため、方法1に係るリアルタイム判別処理によって、リアルタイムな収音ではないと判別される場合である。なお、放送分析部22が対応している放送エリアとは、放送分析部22が、対象コマーシャルが放送されたか否かの判別の対象としている放送が放送されている放送エリアのことである。
これを踏まえ、方法1に係るリアルタイム判別処理によってリアルタイムな収音と判別されなかった場合、リアルタイム判別部20aは、さらに、方法2によってリアルタイム判別処理を行なう。これにより、より確実に、対象コマーシャルに係る音声がリアルタイムで行なわれたのか否かを判別可能である。
<リアルタイム判別処理の別例2>
さらに、方法2を有効活用して、以下のようにしてリアルタイム判別処理を実行することも可能である。
デバイス11から収音音声関連情報データD1を受信した場合、リアルタイム判別部20aは、収音音声関連情報データD1に含まれる位置情報J10を参照し、位置情報J10が示すデバイス11の位置が、放送分析部22が対応している放送エリアに属するか否かを判別する。属しない場合、方法1に係るリアルタイム判別処理によって、リアルタイムな収音か否かを判別することは適切でないため、方法2に係るリアルタイム判別処理によって、リアルタイムな収音であるか否かを判別する。これにより、より確実に、対象コマーシャルに係る音声がリアルタイムで行なわれたのか否かを判別可能である。
<リアルタイム判別処理の別例3>
以上、ステップSB2のリアルタイム判別処理について、2つの方法を説明したが、この2つの方法に限らず、リアルタイムで対象コマーシャルを収音したか否かを判別できるのであれば、どのような方法であってもよい。例えば、各デバイス11が、対象コマーシャルを収音した時刻を示す情報含む収音音声関連情報データD1をサーバー装置10に送信し、サーバー装置10は、受信したデータを、ユーザーごとに記憶する。そして、後に、どの対象コマーシャルが、どの時間帯に放送されたかを示す情報が、サーバー装置10に入力され、サーバー装置10のリアルタイム判別部20aは、当該情報と、記憶したデータに含まれる時刻を示す情報との比較結果に基づいて、各デバイス11について、対象コマーシャルをリアルタイムで収音したか否かを判別する構成であってもよい。
また、スポットコマーシャルでないもの、すなわち、放送される時刻が事前に定められているコマーシャルについては、収音音声関連情報データD1の受信タイミングと、事前に定められた放送される時刻との比較結果に基づいて、又は、収音音声関連情報データD1に対象コマーシャルを収音した時刻を示す情報を含める構成とした場合は、当該情報と、事前に定められた放送される時刻との比較結果に基づいて、各デバイス11について、対象コマーシャルをリアルタイムで収音したか否かを判別する構成であってもよい。
さて、前掲図2に戻り、ステップSB2におけるリアルタイム判別処理の後、サーバー制御部20は、収音音声関連情報データD1を送信してきたデバイス11が、当該処理により、対象コマーシャルに係る音声をリアルタイムで収音したと判別されたのか否かを判別する(ステップSB3)。
リアルタイムで収音している場合(ステップSB3:YES)、サーバー制御部20が備える機能ブロックであるコマーシャル情報記憶部20bは、受信した収音音声関連情報データD1に基づいて、サーバー記憶部21に記憶された分析用情報データベース21bの内容を更新する(ステップSB4)。
図3(B)は、分析用情報データベース21bに含まれるデータベースDB1の1件のレコードのデータ構造を示す図である。また、図3(C)は、分析用情報データベース21bに含まれるデータベースDB2の1件のレコードのデータ構造を示す図である。
コマーシャル情報記憶部20bは、リアルタイムで収音されたと判別された対象コマーシャルに係る収音音声関連情報データD1について、収音音声関連情報データD1ごとに、換言すれば、当該データを送信したデバイス11のユーザーごとに、データベースDB1においてレコードを生成する。図3(B)に示すように、データベースDB1の1件のレコードは、ユーザーIDと、コマーシャル放送日時J4と、コマーシャル識別情報J1と、チャンネル識別情報J3と、を含んで構成される。コマーシャル放送日時J4は、対応する対象コマーシャルが放送された日時(日付+時刻)を示す情報であり、放送分析部22が対象コマーシャルに係る音声が収音されたことを検出した日時や、収音音声関連情報データD1を受信した日時等に基づいて、対応する対象コマーシャルが放送された時刻として適切な値が定められる。
データベースDB1において、図3(B)に示す情報が記憶されるため、後に、ユーザーの登録情報を含めた分析を行なうことにより、ユーザーごとのコマーシャルの視聴の傾向や、ユーザーのライフスタイル等を分析できることとなり、分析結果に基づいて、ユーザーごとにより的確なサービスを提供でき、また、サービスの提供に関連する会社は、非常に有益な情報を取得できる。
また、コマーシャル情報記憶部20bは、リアルタイムで収音されたと判別された対象コマーシャルごとに、データベースDB2においてレコードを生成する。図3(C)に示すように、データベースDB2の1件のレコードは、コマーシャル放送日時J4と、コマーシャル識別情報J1と、チャンネル識別情報J3と、視聴数J5と、ログイン数J6と、を含んで構成されている。
視聴数J5とは、リアルタイムに収音されたと判別された対象コマーシャルに係る音声を収音したデバイス11の総数のことであり、換言すれば、同一の時間帯に放送された同一の対象コマーシャルを視聴したユーザーの総数のことである。視聴数J5は、対象コマーシャルのそれぞれについて、収音音声関連情報データD1の受信数に基づいて集計可能である。
また、ログイン数とは、対応する対象コマーシャルが放送された日時において、ログインしているデバイス11の総数である。サーバー制御部20は、ログイン状況について絶えず管理している。
コマーシャル情報記憶部20bは、リアルタイムで収音されたと判別された対象コマーシャルに係る収音音声関連情報データD1の全てを受信した後、視聴数J5を適切な手段で集計し、対応する時刻におけるログイン数を検出した後、データベースDB2に1件のレコードを生成する。
データベースDB2において、図3(C)に示す情報が記憶されるため、後に、例えば、各対象コマーシャルの仮想的な視聴率を、統計学的手法(例えば、視聴数J5/ログイン数J6)によって分析でき、サービスの提供に関連する会社は、非常に有益な情報を取得できる。
なお、図3(B)、図3(C)により、コマーシャル情報記憶部20bが記憶する情報を具体的に説明したが、記憶する情報は例示したものに限られないことは言うまでもない。すなわち、リアルタイムで収音されたと判別された対象コマーシャルに関連する情報であれば、どのような情報であっても記憶可能である。
さて、前掲図2に戻り、ステップSB4の処理後、サーバー制御部20が備える機能ブロックであるサービス提供部20cは、対象コマーシャルをリアルタイムで視聴したユーザーに対して、所定のサービスを提供する(ステップSB5)。
詳述すると、ステップSB5において、サービス提供部20cは、サーバー記憶部21に記憶されたリアルタイム視聴時サービス管理データベース21c(以下、「リアルタイムデータベース21c)という。)を参照する。
図3(D)は、リアルタイムデータベース21cの1件のレコードのデータ構造を示す図である。
図3(D)に示すように、リアルタイムデータベース21cの1件のレコードは、コマーシャル識別情報J1と、リアルタイム視聴時サービス内容情報J7とを含んで構成されている。
リアルタイム視聴時サービス内容情報J7とは、対応するコマーシャル識別情報J1が示す対象コマーシャルを「リアルタイムで」視聴したユーザーに対して、提供すべきサービスの内容を示す情報のことである。
リアルタイム視聴時サービス内容情報J7が示すサービスの内容について例を挙げて説明する。
例えば、事前に、ユーザーに、メールアドレスを登録してもらい、ユーザー管理データベース21aにおいて管理する。この場合において、リアルタイム視聴時サービス内容情報J7が示すサービスの内容の一例は、登録されたメールアドレス宛に、事前に用意された内容の電子メールを送信する、というものである。当該電子メールでは、例えば、ユーザーがリアルタイムで視聴した対象コマーシャル関するお得な情報、例えば、製品の販売場所等が示される。また例えば、当該電子メールでは、対象コマーシャルの製品等のクーポンが示される。また例えば、当該電子メールでは、所定のウェブページのURLにアクセスするためのリンクが示される。当該ウェブページでは、例えば、懸賞付きのアンケートに係るユーザーインターフェースがユーザーに提供される。また例えば、当該電子メールでは、所定のキャンペーンについての告知や、当該キャンペーンに登録するための方法が示される。
リアルタイム視聴時サービス内容情報J7が示すサービスの内容の別例は以下である。
すなわち、ユーザーに、所定のポイントシステムに登録してもらい、また、ユーザーに、ユーザーが登録しているポイントシステムに関する情報を事前に登録してもらう。この場合において、リアルタイム視聴時サービス内容情報J7が示すサービスの内容の一例は、特定の対象コマーシャルのリアルタイムでの視聴に応じて、特定のポイントシステムのポイントを、予め定められた値分、付与するというものである。なお、サーバー装置10と、ポイントシステムに係るサーバー装置とが連係して、適切にポイントを付与できるシステムが構築されているものとする。この場合、例えば、デバイス11における専用アプリケーションの立ち上げに伴って、デバイス11の表示パネル31aに表示されている画面上に、特定の音ともに、所定のポイントが付与した旨表示したり、また、事前に登録された電子メールに、所定のポイントが付与した旨送信したりすることが可能である。また、所定の手段によるアンケートへの回答を促し、当該アンケートに対する回答があった場合に、ポイントを付与してもよい。
さて、ステップSB5において、サービス提供部20cは、受信した収音音声関連情報データD1に含まれるコマーシャル識別情報J1をキーとして、リアルタイムデータベース21cの対応するレコードを特定する。そして、サービス提供部20cは、特定したレコードのリアルタイム視聴時サービス内容情報J7が示すサービスを提供する。なお、リアルタイム視聴時サービス内容情報J7に基づいて、当該情報が示すサービスをシステマチックに提供する機能が、サービス提供部20cに実装されている。
ここで、本実施形態では、上述したとおり、サーバー制御部20は、デバイス11が対象コマーシャルに係る音声をリアルタイムで収音したか否かを的確に判別する。その上で、サーバー制御部20は、対象コマーシャルがリアルタイムで収音されている場合、換言すれば、ユーザーがリアルタイムで対象コマーシャルを視聴している場合は、専用のリアルタイムデータベース21cを参照して、リアルタイムで視聴したユーザーに特有のサービスを提供する。このため、リアルタイムで対象コマーシャルを視聴したユーザーと、そうでないユーザーとで、サービスの内容の差別化を図ることができる。例えば、リアルタイムで対象コマーシャルを視聴したユーザーに対しては、上述したサービスを提供する一方、そうでないユーザーに対しては、サービスを提供しないことが可能である。また、サービスとして、クーポンに係る電子メールを送信する場合には、クーポンの割引率に差をつけることが可能である。また、サービスとして、ポイントを付与する場合には、付与するポイントの値に差をつけることが可能である。
このような構成のため、スポットコマーシャルはランダムで放映されるという特性、及び、コマーシャルを提供する会社には、できるだけコマーシャルをリアルタイムで視聴して欲しいという要望があるという特性を踏まえて、適切なサービスを提供でき、これにより、コマーシャルの提供に関係する会社、及び、ユーザーの双方の利益に資することができる。
一方、ステップSB3において、収音音声関連情報データD1を送信してきたデバイス11が、対象コマーシャルに係る音声をリアルタイムで収音していないと判別した場合(ステップSB3:NO)、サーバー制御部20は、非リアルタイム特別処理を実行する(ステップSB6)。
なお、対象コマーシャルに係る音声をリアルタイムで収音していない場合には、例えば、ユーザーが、テレビ放送を録画したものを再生し、そこで放音されたコマーシャルに係る音声をデバイス11によって収音した場合がある。
図4は、ステップSB6における非リアルタイム特別処理時のサーバー装置10の動作を示すフローチャートである。
以下の説明において、非リアルタイム特別処理実行部20dは、「処理実行部」として機能する。
また、以下の説明では、デバイス11によって対象コマーシャルがリアルタイムで収音されていないことを、「非リアルタイムで収音された」と表現することがあるものとし、また、非リアルタイムで収音された音声に係る対象コマーシャルのことを、「非リアルタイムに係る対象コマーシャル」と表現することがあるものとする。
図4を参照し、まず、サーバー制御部20が備える機能ブロックである非リアルタイム特別処理実行部20dは、非リアルタイムの対象コマーシャルに係る収音音声関連情報データD1に基づいて、当該データに含まれるコマーシャル識別情報J1を所定の記憶領域に記憶する(ステップSC1)。
次いで、非リアルタイム特別処理実行部20dは、期間T3の計測を開始する(ステップSC2)。
次いで、非リアルタイム特別処理実行部20dは、期間T3内に、同一のユーザーに係るデバイス11から、ステップSC1で記憶したコマーシャル識別情報J1と同一の識別情報を含む収音音声関連情報データD1を、所定回数K1以上受信したか否かを判別する(ステップSC3)。換言すれば、非リアルタイム特別処理実行部20dは、デバイスが、期間T3内に、所定回数K1以上、非リアルタイムに係る対象コマーシャルに係る音声を収音したか否かを判別する。
ここで、通常のテレビ放送では、短期間のうちに、同一のコマーシャルが何度も放送されることは非常に稀である。従って、非リアルタイムに係る対象コマーシャルが、期間T3内に、所定回数K1以上、デバイス11によって収音されている場合、ユーザーは、テレビ放送を録画したものを通常の方法で再生し、その音声をデバイス11によって収音しているのではなく、恣意的に、短期間のうちに同一のコマーシャルに係る音声を所定の手段で放音させているものとみなすことができる。
なお、期間T3、及び、所定回数K1は、ユーザーが恣意的にコマーシャルに係る音声を放音させていることを的確に検出できるよう、コマーシャルの放送状況等を踏まえ、的確にその値が定められる。
以上を踏まえ、期間T3内に、同一のユーザーに係るデバイス11から、ステップSC1で記憶したコマーシャル識別情報J1と同一の識別情報を含む収音音声関連情報データD1を、所定回数K1以上受信した場合(ステップSC3:YES)、非リアルタイム特別処理実行部20dは、対応する処理を実行する(ステップSC4)。
例えば、ステップSC4において、非リアルタイム特別処理実行部20dは、ユーザーが登録したメールアドレスに、短期間のうちに複数回、同一のコマーシャルに係る音声が収音されているため、サービスが提供できない旨の電子メールを送信する。この他、サービス提供部20cによって、何らかのサービスを提供する構成であってもよい。この場合、リアルタイムで対象コマーシャルに係る音声を収音した場合や、恣意的でなく対象コマーシャルに係る音声を収音した場合と、異なるサービスを提供可能である。
一方、期間T3内に、同一のユーザーに係るデバイス11から、ステップSC1で記憶したコマーシャル識別情報J1と同一の識別情報を含む収音音声関連情報データD1を、所定回数K1以上受信していない場合(ステップSC3:NO)、サービス提供部20cは、対象コマーシャルを非リアルタイムで視聴したユーザーに対して、所定のサービスを提供する(ステップSC5)。
詳述すると、ステップSC5において、サービス提供部20cは、サーバー記憶部21に記憶された非リアルタイム視聴時サービス管理データベース21d(以下、「非リアルタイムデータベース21d)という。)を参照する。
図3(E)は、非リアルタイムデータベース21dの1件のレコードのデータ構造を示す図である。
図3(E)に示すように、リアルタイムデータベース21cの1件のレコードは、コマーシャル識別情報J1と、非リアルタイム視聴時サービス内容情報J8とを含んで構成されている。非リアルタイム視聴時サービス内容情報J8とは、対応するコマーシャル識別情報J1が示す対象コマーシャルを「非リアルタイムで」視聴したユーザーに対して、提供すべきサービスの内容を示す情報のことである。非リアルタイム視聴時サービス内容情報J8が示すサービスの内容は、同一の対象コマーシャルをリアルタイムで視聴した場合におけるサービスの内容と、差がつけられる。例えば、リアルタイム視聴時に所定のポイントシステムのポイントを10ポイント付与する一方、非リアルタイム視聴時はポイントを2ポイント付与する等である。なお、サービスの内容に差をつけない場合があってもよい。
さて、ステップSC5において、サービス提供部20cは、受信した収音音声関連情報データD1に含まれるコマーシャル識別情報J1をキーとして、非リアルタイムデータベース21dの対応するレコードを特定する。そして、サービス提供部20cは、特定したレコードの非リアルタイム視聴時サービス内容情報J8が示すサービスを提供する。
このように、リアルタイム視聴時と、非リアルタイム視聴時とで、サービスの内容に差をつけることが可能な構成による効果は、上述したとおりである。
なお、ユーザーが、非リアルタイムで対象コマーシャルを視聴した場合であっても、サービスを提供する理由は、以下である。すなわち、ユーザーが、非リアルタイムで対象コマーシャルを視聴した場合であっても、ユーザーに対して宣伝広告機能を発揮でき、ユーザー、及び、対象コマーシャルの提供に関連する会社の双方に利益をもたらす。従って、非リアルタイムであっても、ユーザーに対して対象コマーシャルを視聴するインセンティブを与え、対象コマーシャルの視聴を促すことにより、ユーザー、及び、対象コマーシャルの提供に関連する会社の双方の利益に資するからである。特に、テレビ放送を録画したものを再生する場合、ユーザーは、コマーシャルの部分を早送り等することによって、コマーシャルを視聴しない傾向があるが、本実施形態に係るサーバー装置10のように、非リアルタイムに係るコマーシャルを視聴するインセンティブをユーザーに与えることにより、上記傾向に反して、ユーザーにコマーシャルを視聴させることが可能である。
また、ステップSB5の非リアルタイム特別処理は、図4で示したものに限定されない。
例えば、1のユーザーに係るデバイス11から、非リアルタイムに係る対象コマーシャルの収音音声関連情報データD1を受信した場合、はじめの1回は、非リアルタイムデータベース21dに基づいて、サービスを提供し、その後、所定の期間内に、所定の回数以上、当該1のユーザーに係るデバイス11から、同一の対象コマーシャルに係る収音音声関連情報データD1を受信した場合、ステップSC4で説明した対応する処理を実行する構成であってもよい。
次に、サーバー制御部20が備える機能ブロックであるパターン更新部20eについて説明する。
パターン更新部20eは、所定のタイミング(例えば、ログイン時)で、デバイス11のデバイス記憶部36に記憶されたパターンデータベース36aの内容を更新する機能ブロックである。
詳述すると、所定のタイミングが到来すると、パターン更新部20eは、デバイス11の専用アプリケーション実行部30aに対して、パターンデータベース36aに音声パターンJ2が格納されている対象コマーシャルの全てのコマーシャル識別情報J1の送信を要求する。当該要求に応じて、デバイス11の専用アプリケーション実行部30aは、パターンデータベース36aを参照し、対象コマーシャルの全てのコマーシャル識別情報J1(=パターンデータベース36aの各レコードのコマーシャル識別情報J1)を送信する。パターン更新部20eと、専用アプリケーション実行部30aとの通信は、所定のプロトコルに準拠して行なわれる。
次いで、パターン更新部20eは、サーバー記憶部21に記憶されたコマーシャル管理データベース21eを参照する。
図3(F)は、コマーシャル管理データベース21eの1件のレコードのデータ構造を示す図である。図3(F)に示すように、コマーシャル管理データベース21eの1件のレコードは、コマーシャル識別情報J1と、放送期間J9と、音声パターンJ2とを含んで構成されている。
放送期間J9とは、対応する対象コマーシャルが放送される期間のことであり、例えば、「2013/1/1/10:00〜2014/1/1/13:00」のように、放送の開始日時と、放送の終了日時とによって表現される。
コマーシャル管理データベース21eのレコードのそれぞれは、適切なタイミングで、適切な内容のものが生成され、また、適切なタイミングで削除される。そして、コマーシャル管理データベース21eでは、基本的に、現在日時が放送期間の範囲内にある対象コマーシャルの全てについて、レコードが設けられた状態とされる。
さて、パターン更新部20eは、コマーシャル管理データベース21eを参照し、デバイス11のパターンデータベース36aで管理されている対象コマーシャル(以下、「デバイス管理コマーシャル」という。)と、コマーシャル管理データベース21eで管理されている対象コマーシャルであって、現在日時が放送期間の範囲内にある対象コマーシャル(以下、「サーバー管理コマーシャル」)との差分を検出する。すなわち、パターン更新部20eは、デバイス管理コマーシャルに存在する一方、サーバー管理コマーシャルに存在しないコマーシャル、及び、デバイス管理コマーシャルに存在しない一方、サーバー管理コマーシャル存在するコマーシャルを検出する。
次いで、パターン更新部20eは、専用アプリケーション実行部30aと通信し、コマーシャル管理データベース21eの内容に基づいて、パターンデータベース36aの内容を適切に更新して、パターンデータベース36aが以下の状態となるようにする。すなわち、パターンデータベース36aで管理されているデバイス管理コマーシャルと、コマーシャル管理データベース21eで管理されているサーバー管理コマーシャルとが一致した状態となるようにする。換言すれば、コマーシャル管理データベース21eで管理されている対象コマーシャルであって、現在日時が放送期間の範囲内にある対象コマーシャルのそれぞれについて、過不足無く、パターンデータベース36aにレコードが存在する状態とする。従って、パターンデータベース36aで管理されていた対象コマーシャルのうち、現在日時が放送期間の範囲外にある対象コマーシャルのレコードは、パターンデータベース36aから削除されることとなる。
以上のように、パターン更新部20eは、各対象コマーシャルの放送期間に対応して、パターンデータベース36aの内容を更新する。これにより、以下の効果を奏する。
すなわち、上記構成によれば、パターンデータベース36aに、現時点で放送される可能性のある対象コマーシャルについてのみ、レコードが存在する。つまり、不必要なレコードが存在しない。このため、パターンデータベース36aのデータ量が不必要に大きなものとなることを的確に抑制できる。また、専用アプリケーション実行部30aによるパターンマッチング時には、収音データに基づくパターンと、パターンデータベース36aの各レコードの音声パターンJ2との比較が実行されることとなるが、パターンデータベース36aが管理する音声パターンJ2は、必要最小限の数しか存在しないため、パターンマッチングの処理の効率化を実現できる。
すなわち、本実施形態では、放送期間がある、というコマーシャルの特性を利用して、放送期間に対応して、デバイス11が記憶する音声パターンJ2を適切に更新し、これにより、デバイス11が記憶べきデータのデータ量を削減し、かつ、パターンマッチングの処理効率の向上を図っている。本実施形態のようにデバイス11がスマートフォンである場合、メモリーや、CPUの増強等ができない場合が多いため、記憶するデータのデータ量の削減、パターンマッチングの処理効率の向上は、特に求められる。
なお、上述したように、ユーザーは、録画したテレビ放送を再生し、デバイス11によって対象コマーシャルに係る音声が収音される場合もある。そして、この場合において、当該収音が、対象コマーシャルの放送期間の範囲外の所定の期間に行なわれた場合であっても、コマーシャルの提供に係る会社が、サービスの提供を許容する場合もある。これを踏まえ、コマーシャル管理データベース21eにおける放送期間J9は、リアルタイムでコマーシャルが放送される期間と厳密に一致している必要はなく、サービスを提供可能な期間を考慮して所定のマージンを持たせてもよい。
以上説明したように、本実施形態に係るサーバー装置10(情報処理装置)は、デバイス11から、収音音声関連情報データD1を受信し、受信した収音音声関連情報データD1に基づいて、デバイス11が、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したのか否かを判別するリアルタイム判別部20aを備えている。
そして、リアルタイム判別部20aは、以下の<方法1>と、<方法2>との2つの方法によって、上記判別を行なうことができる。
<方法1>リアルタイム判別部20aは、放送分析部22の分析結果、及び、デバイス11から受信した収音音声関連情報データD1に基づいて、デバイス11が、放送分析部22が検出したコマーシャルと同一のコマーシャルに係る音声を、放送分析部22によるコマーシャルの検出タイミングに対応するタイミングで収音したか否かを判別し、収音している場合、デバイス11が、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したと判別する。
<方法2>リアルタイム判別部20aは、複数のデバイス11から受信した収音音声関連情報データD1に基づいて、所定数以上のデバイス11が、同一のコマーシャルを相互に対応するタイミングで収音したか否か判別し、収音している場合、当該コマーシャルについては、デバイス11が、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したと判別する。
以上の構成によれば、デバイス11がリアルタイムでコマーシャルに係る音声を収音したか否か(ユーザーがリアルタイムにコマーシャルを視聴したか否か)を的確に判別できると共に、判別結果に基づいて、コマーシャルの特性を踏まえた適切なサービスをユーザーに提供できる。
また、本実施形態では、非リアルタイム特別処理実行部20dは、リアルタイム判別部20aにより、デバイス11が、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音していないと判別された場合、デバイス11から受信した収音音声関連情報データD1に基づいて、デバイス11が、所定の期間内に、所定の回数以上、当該コマーシャルに係る音声を収音したか否か判別し、所定の期間内に、所定の回数以上の収音があった場合は、恣意的なコマーシャルに係る音声の放音が行なわれているものとして、対応する処理を実行する。
この構成によれば、コマーシャルの特性を踏まえて、ユーザーが恣意的にコマーシャルに係る音声の放音を行なったことを的確に検出可能である。
また、本実施形態では、デバイス11は、複数の対象コマーシャルについて、対象コマーシャルの識別情報(コマーシャル識別情報J1)と、対象コマーシャルの音声に係るパターン(音声パターンJ2)とを対応付けて記憶する。そして、デバイス11は、収音した音声に基づいて、記憶した前記パターンを利用したパターンマッチングを行なうことにより、コマーシャルに係る音声を収音したことを検出すると共に、検出したコマーシャルの識別情報(コマーシャル識別情報J1)を特定し、特定したコマーシャル識別情報J1を少なくとも含む収音音声関連情報データD1を送信する。
この構成によれば、例えば、音声の収音中、デバイス11からサーバー装置10に対して、収音データを送信し、サーバー装置10でパターンマッチングを行なう構成の場合と比較して、デバイス11からサーバー装置10に対して送信されるデータのデータ量が非常に少なく、処理効率、通信効率の向上が実現される。
また、本実施形態では、パターン更新部20eは、デバイス11に記憶された、コマーシャルの識別情報(コマーシャル識別情報J1)、及び、コマーシャルの音声に係るパターン(音声パターンJ2)を、各コマーシャルの放送期間に対応して更新する。
この構成によれば、パターンデータベース36aについて、現時点で放送される可能性のある対象コマーシャルについてのみ、レコードが存在する状態とすることができる。つまり、不必要なレコードが存在しない。このため、パターンデータベース36aのデータ量が不必要に大きなものとなることを的確に抑制できる。また、専用アプリケーション実行部30aによるパターンマッチング時には、収音データに基づくパターンと、パターンデータベース36aの各レコードの音声パターンJ2との比較が実行されることとなるが、パターンデータベース36aが管理する音声パターンJ2は、必要最小限の数しか存在しないため、パターンマッチングの処理の効率化を実現できる。
また、本実施形態では、コマーシャル情報記憶部20bは、複数のデバイス11から受信した収音音声関連情報データD1に基づいて、分析用情報データベース21bにおいて、各対象コマーシャルに係る音声を収音したデバイスの数(視聴数)を少なくとも含む情報を記憶する。
この構成によれば、後に記憶した情報を分析し、仮想的な視聴率等、有益な情報を取得することが可能となる。
なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、上述した実施形態では、デバイス11が、パターンマッチング処理を行なって、コマーシャルの音声を収音したか否かを判別し、収音したと判別した場合、コマーシャル識別情報J1をサーバー装置10に送信していた。しかしながら、デバイス11が、音声データや、音声データに基づいて生成されたパターンをサーバー装置10に送信する。そして、サーバー装置10が入力されたデータに基づいて、パターンマッチング、その他の処理を通して、コマーシャルが収音されているか否かを判別し、リアルタイム判別処理を実行する構成であってもよい。この場合、デバイス11から、サーバー装置10に対して送信された音声データや、パターン、その他のデータが、「収音音声関連情報」に該当する。
また例えば、上述した実施形態では、各種処理の内容や、各種データのデータ構造を具体的に例示したが、処理の内容や、データのデータ構造は例示したものに限られないことは言うまでもない。
また例えば、図1に示す各機能ブロックはハードウェアとソフトウェアの協働により任意に実現可能であり、特定のハードウェア構成を示唆するものではない。また、デバイス11や、サーバー装置10の各機能ブロックの機能を、これら装置に外部接続される別の装置に持たせるようにしてもよい。また、デバイス11や、サーバー装置10は、外部接続される記憶媒体に記憶させたプログラムを実行することにより、各種処理を実行してもよい。
1 情報処理システム
10 情報処理装置
11 デバイス
20 サーバー制御部
20a リアルタイム判別部
20b コマーシャル情報記憶部
20c サービス提供部
20d 非リアルタイム特別処理実行部
20e パターン更新部
22 放送分析部
30 デバイス制御部
30a 専用アプリケーション実行部
38 スピーカー
39 マイク

Claims (7)

  1. 収音機能を有するデバイスと通信可能に接続された情報処理装置であって、
    前記デバイスから、収音した音声に関する情報である収音音声関連情報を受信し、受信した前記収音音声関連情報に基づいて、前記デバイスが、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したのか否かを判別するリアルタイム判別部を備えることを特徴とする情報処理装置。
  2. 放送に基づいて放音される音声を収音して分析し、コマーシャルに係る音声が放音されたことを検出すると共に、検出したコマーシャルを識別する放送分析部をさらに備え、
    前記リアルタイム判別部は、
    前記放送分析部の分析結果、及び、前記デバイスから受信した前記収音音声関連情報に基づいて、
    前記デバイスが、前記放送分析部が検出したコマーシャルと同一のコマーシャルに係る音声を、前記放送分析部によるコマーシャルの検出タイミングに対応するタイミングで収音したか否かを判別し、
    収音している場合、前記デバイスが、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したと判別することを特徴とする請求項1に記載の情報処理装置。
  3. 複数の前記デバイスと通信可能に接続され、
    前記リアルタイム判別部は、
    複数の前記デバイスから受信した前記収音音声関連情報に基づいて、所定数以上のデバイスが、同一のコマーシャルを相互に対応するタイミングで収音したか否か判別し、
    収音している場合、当該コマーシャルについては、前記デバイスが、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音したと判別することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記リアルタイム判別部により、前記デバイスが、放送に基づいて放音されたコマーシャルに係る音声をリアルタイムで収音していないと判別された場合、
    前記デバイスから受信した収音音声関連情報に基づいて、前記デバイスが、所定の期間内に、所定の回数以上、リアルタイムで収音していないと判別されたコマーシャルに係る音声を収音したか否か判別する処理実行部をさらに備えることを特徴とする請求項1ないし3のいずれかに記載の情報処理装置。
  5. 前記デバイスは、
    複数のコマーシャルについて、コマーシャルの識別情報と、コマーシャルの音声に係るパターンとを対応付けて記憶し、
    収音した音声に基づいて、記憶した前記パターンを利用したパターンマッチングを行なうことにより、コマーシャルに係る音声を収音したことを検出すると共に、検出したコマーシャルの識別情報を特定し、特定した識別情報を少なくとも含む前記収音音声関連情報を送信することを特徴とする請求項1ないし4のいずれかに記載の情報処理装置。
  6. 前記デバイスに記憶された、コマーシャルの識別情報、及び、コマーシャルの音声に係るパターンを、各コマーシャルの放送期間に対応して更新するパターン更新部をさらに備えることを特徴とする請求項1ないし5のいずれかに記載の情報処理装置。
  7. 複数の前記デバイスと通信可能に接続され、
    複数の前記デバイスから受信した前記収音音声関連情報に基づいて、各コマーシャルに係る音声を収音した前記デバイスの数を少なくとも含む情報を記憶するコマーシャル情報記憶部を備えることを特徴とする請求項1ないし6のいずれかに記載の情報処理装置。
JP2013063596A 2013-03-26 2013-03-26 情報処理装置 Pending JP2014191385A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013063596A JP2014191385A (ja) 2013-03-26 2013-03-26 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013063596A JP2014191385A (ja) 2013-03-26 2013-03-26 情報処理装置

Publications (1)

Publication Number Publication Date
JP2014191385A true JP2014191385A (ja) 2014-10-06

Family

ID=51837625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013063596A Pending JP2014191385A (ja) 2013-03-26 2013-03-26 情報処理装置

Country Status (1)

Country Link
JP (1) JP2014191385A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018236006A1 (ko) * 2017-06-19 2018-12-27 이재호 현장 특성에 맞는 음향 조정이 가능한 aoip 기반 현장 음향 센터 시스템
WO2019167756A1 (ja) * 2018-03-01 2019-09-06 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
JP2020016901A (ja) * 2019-10-03 2020-01-30 ヤマハ株式会社 情報処理方法およびデータ構造

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018236006A1 (ko) * 2017-06-19 2018-12-27 이재호 현장 특성에 맞는 음향 조정이 가능한 aoip 기반 현장 음향 센터 시스템
WO2019167756A1 (ja) * 2018-03-01 2019-09-06 ヤマハ株式会社 情報処理方法、情報処理装置およびプログラム
JP2019152720A (ja) * 2018-03-01 2019-09-12 ヤマハ株式会社 情報処理方法およびデータ構造
CN111727598A (zh) * 2018-03-01 2020-09-29 雅马哈株式会社 信息处理方法、信息处理装置及程序
JP2020016901A (ja) * 2019-10-03 2020-01-30 ヤマハ株式会社 情報処理方法およびデータ構造
JP7074116B2 (ja) 2019-10-03 2022-05-24 ヤマハ株式会社 情報処理方法および情報処理装置

Similar Documents

Publication Publication Date Title
US11563994B2 (en) Methods and apparatus to measure exposure to streaming media
KR101818986B1 (ko) 오디오 입력에 기초하여 정보를 획득하는 방법, 장치 및 시스템
US9065578B2 (en) Audio watermark detection for delivering contextual content to a user
US20120173701A1 (en) Matching techniques for cross-platform monitoring and information
US20130311478A1 (en) Systems, methods, and apparatus to monitor media presentations
AU2014331927A1 (en) Methods and apparatus to measure exposure to streaming media
WO2016032555A1 (en) Methods and apparatus to identify remote presentation of streaming media
US11704695B2 (en) Methods and apparatus for wireless communication with an audience measurement device
US10489452B2 (en) Method and device for presenting content
US11895363B2 (en) Methods and apparatus to identify user presence to a meter
US20100222088A1 (en) Systems, methods and apparatus for receiving information by a mobile device
US20100222072A1 (en) Systems, methods and apparatus for providing information to a mobile device
JP2014191385A (ja) 情報処理装置
US11968413B2 (en) Methods and apparatus to measure exposure to streaming media