JP2017224335A - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP2017224335A
JP2017224335A JP2017154375A JP2017154375A JP2017224335A JP 2017224335 A JP2017224335 A JP 2017224335A JP 2017154375 A JP2017154375 A JP 2017154375A JP 2017154375 A JP2017154375 A JP 2017154375A JP 2017224335 A JP2017224335 A JP 2017224335A
Authority
JP
Japan
Prior art keywords
content
person
paying attention
reaction
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017154375A
Other languages
English (en)
Other versions
JP6447681B2 (ja
Inventor
敦英 高橋
Atsuhide Takahashi
敦英 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017154375A priority Critical patent/JP6447681B2/ja
Publication of JP2017224335A publication Critical patent/JP2017224335A/ja
Application granted granted Critical
Publication of JP6447681B2 publication Critical patent/JP6447681B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】コンテンツが視聴者に与えた影響を考慮してコンテンツに課金できるようにする。
【解決手段】デジタルサイネージ装置2の制御部23は、コンテンツの再生中に撮像部30により取得された撮影画像に基づきコンテンツに注目している人物を認識し、その人物の画像データ及び音声データを取得してサーバ装置4に送信する。サーバ装置4の制御部41は、デジタルサイネージ装置2から受信した画像データ及び音声データを解析し、コンテンツに注目している人物の反応がコンテンツに対してポジティブな反応に該当しているか、ネガティブな反応に該当しているかを判断し、ポジティブな反応に該当すると判断された件数、及び/又はネガティブな反応に該当すると判断された件数をカウントすることにより、コンテンツに対する課金金額を算出する。
【選択図】図7

Description

本発明は、情報処理装置、コンテンツ課金システム及びプログラムに関する。
従来、ディスプレイに表示された広告効果を測定するための広告効果測定装置が知られている。例えば、ディスプレイを閲覧した人数だけでなく、ディスプレイの前にいる人数も計測することにより、何人中何人ディスプレイを見ていたかという視認率を精度良く測定することのできる広告効果測定装置が記載されている(例えば、特許文献1参照)。
特開2011−210238号公報
しかしながら、特許文献1に記載の技術では、広告コンテンツが視聴者にポジティブな感情を与えたか、ネガティブな感情を与えたかが考慮されてない。即ち、広告コンテンツが視聴者に与える影響を考慮して測定できていない。また、一般的に、広告コンテンツのビジネスモデルにおいても、コンテンツが再生される時間帯や場所によって広告費用が決められており、コンテンツが視聴者に与えた影響は広告費用に反映されていない。
本発明の課題は、コンテンツが視聴者に与えた影響を考慮してコンテンツに課金できるようにすることである。
上記課題を解決するため、請求項1に記載の発明の情報処理装置は、
コンテンツを表示する表示手段と、
コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してポジティブな反応に該当しているか否かを前記コンテンツの内容に応じて決定された判断基準との比較を行うことで判断する判断手段と、
前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
を備える。
請求項5に記載の発明の情報処理装置は、
コンテンツを表示する表示手段と、
コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してネガティブな反応に該当しているか否かを前記コンテンツの内容に応じて決定された判断基準との比較を行うことで判断する判断手段と、
前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
を備える。
本発明によれば、コンテンツが視聴者に与えた影響を考慮してコンテンツに課金することが可能となる。
本実施形態におけるコンテンツ課金システムの全体構成を示す図である。 図1のデジタルサイネージ装置の機能的構成を示すブロック図である。 図2のスクリーン部の概略構成を示す図である。 図1のサーバ装置の機能的構成を示すブロック図である。 ポジティブ・ネガティブ判断テーブルの一例を示す図である。 図2の制御部により実行される反応取得処理を示すフローチャートである。 図4の制御部により実行される評価値算出処理を示すフローチャートである。 図4の制御部により実行される課金金額算出処理Aを示すフローチャートである。 図4の制御部により実行される課金金額算出処理Bを示すフローチャートである。 図4の制御部により実行される課金金額算出処理Cを示すフローチャートである。
以下、添付図面を参照して本発明に係る好適な実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。
図1は発明の実施形態のコンテンツ課金システム1の概略構成を示すブロック図である。コンテンツ課金システム1は、広告主の依頼を受けて提供したコンテンツを評価し、その評価に基づいてコンテンツに対する(広告主への)課金金額を算出するシステムである。コンテンツ課金システム1には、デジタルサイネージ装置2と、通信ネットワークNを介してデジタルサイネージ装置2に通信自在なサーバ装置4とが備えられている。デジタルサイネージ装置2の台数は、特に限定されない。
[デジタルサイネージ装置]
デジタルサイネージ装置2は、店舗などに設置され、広告主からの依頼を受けてコンテンツを再生する情報処理装置である。
図2はデジタルサイネージ装置2の主制御構成を示すブロック図である。
デジタルサイネージ装置2は、コンテンツの映像光を照射する投影部21と、投影部21から照射された映像光を背面で受けて前面に投影するスクリーン部22とを備えている。
まず、投影部21について説明する。
投影部21は、制御部23と、プロジェクタ24と、記憶部25と、通信部26と、計時部35と、を備えている。プロジェクタ24、記憶部25、通信部26、計時部35は、図2に示すように制御部23に接続されている。
制御部23は、記憶部25に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うCPU(Central Processing Unit)とプログラム実行時の作業領域となるメモリとを備えている(いずれも図示略)。制御部23は、認識手段として機能する。
プロジェクタ24は、制御部23から出力された映像データの画像データを映像光に変換してスクリーン部22に向けて照射する。
記憶部25は、HDD(Hard Disk Drive)や不揮発性の半導体メモリ等により構成される。記憶部25には、図2に示すように、プログラム記憶部251、映像データ記憶部252、再生時間帯テーブル記憶部253が設けられている。
プログラム記憶部251には、制御部23で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
映像データ記憶部252は、投影部21によりスクリーン部22に投影するコンテンツの映像データを記憶する。映像データは、動画データを構成する複数のフレーム画像の画像データ及び各フレーム画像に対応する音声データにより構成されている。映像データは、予めサーバ装置4から配信されたものが映像データ記憶部252に記憶されていることとするが、再生時にその都度サーバ装置4から配信されることとしてもよい。
再生時間帯テーブル記憶部253は、コンテンツ毎に(コンテンツを識別するための識別情報(ここでは、コンテンツID)に対応付けて)、そのコンテンツの映像データを再生する期間及び時間帯を示すテーブルを記憶する。
通信部26は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークN上のサーバ装置4等の外部機器との通信を行う。
計時部35は、RTC(Real Time Clock)等により構成され、現在日時情報を取得して制御部23に出力する。
次に、スクリーン部22について説明する。
図3は、スクリーン部22の概略構成を示す正面図である。図3に示すようにスクリーン部22には、四角形の画像形成部27と、画像形成部27を支持する台座28とが備えられている。
画像形成部27は、映像光の照射方向に対して略直交する例えばアクリル板などの一枚の透光板29により形成されている。透光板29の背面には背面投影用のフィルムスクリーンが積層され、なおかつフィルムスクリーンの背面にはフィルム状のフレネルレンズが積層されている。そして、この画像形成部27と前述したプロジェクタ24とにより表示手段を構成している。
そして、画像形成部27の上部には、例えばカメラなどの撮像部30が設けられている。この撮像部30が画像形成部27に対向する空間の映像をリアルタイムに撮像して画像データ(動画データ)を生成する。撮像部30は、図示は省略するが、光学系及び撮像素子を備えるカメラと、カメラを制御する撮像制御部とを備えている。
カメラの光学系は、画像形成部27の前にいる人物を撮像可能な方向に向けられている。また、その撮像素子は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサである。そして、撮像素子は、光学系を通過した光学像を2次元の画像信号に変換する。
撮像部30は、撮影手段、取得手段として機能する。
また、画像形成部27の上部には、音声を電気信号に変換して入力する音声入力部34が設けられている。音声入力部34は、例えば、撮像部30を中心として、複数の単一指向性(カーディオイド特性)のマイクロフォンがリング状に配置されてなるマイクロフォンアレイ等により構成されている。音声入力部34は、取得手段として機能する。
台座28には、ボタン式の操作部32と、音声を出力するスピーカなどの音声出力部33とが設けられている。
撮像部30、操作部32、音声出力部33、及び音声入力部34は、図2に示すように制御部23に接続されている。
[サーバ装置4]
図4はサーバ装置4の主制御構成を示すブロック図である。
サーバ装置4は、制御部41と、表示部42と、入力部43と、通信部44と、記憶部45と、計時部46と、を備えて構成されている。表示部42、入力部43、通信部44、記憶部45、計時部46は、制御部41に接続されている。
制御部41は、各種のプログラムを実行して所定の演算や各部の制御を行うCPUとプログラム実行時の作業領域となるメモリとを備えている(いずれも図示略)。制御部41は、判断手段、評価値算出手段、金額算出手段として機能する。
表示部42は、LCD(Liquid Crystal Display)等で構成され、制御部41から入力される表示情報に応じて各種表示を行う。
入力部43はキーボードとマウス等のポインティングデバイスとからなり、サーバ装置4の管理者による入力を受け付けてその操作情報を制御部41に出力する。
通信部44は、モデム、ルータ、ネットワークカード等により構成され、通信ネットワークN上のデジタルサイネージ装置2等の外部機器との通信を行う。
記憶部45は、HDD(Hard Disk Drive)、不揮発性の半導体メモリ等により構成される。記憶部45には、図4に示すように、プログラム記憶部451、映像データ記憶部452、再生時間帯テーブル記憶部453、画像データ記憶部454、音声データ記憶部455、ポジティブ・ネガティブ判断テーブル記憶部456、評価値データ記憶部457、課金金額記憶部458等が設けられている。
プログラム記憶部451には、制御部41で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。
映像データ記憶部452は、デジタルサイネージ装置2で再生されるコンテンツの映像データを記憶する。
再生時間帯テーブル記憶部453は、コンテンツ毎に、デジタルサイネージ装置2においてそのコンテンツの映像データを再生する期間及び時間帯を示すテーブルを記憶する。
画像データ記憶部454は、デジタルサイネージ装置2から受信した画像データを、当該画像データが記録されたときに再生されていたコンテンツを識別するためのコンテンツIDと対応付けて記憶する。
音声データ記憶部455は、デジタルサイネージ装置2から受信した音声データを、当該音声データが記録されたときに再生されていたコンテンツを識別するためのコンテンツIDと対応付けて記憶する。
ポジティブ・ネガティブ判断テーブル記憶部456は、コンテンツ毎に、当該コンテンツに対してポジティブな反応の判断基準及びネガティブな反応の判断基準を格納するポジティブ・ネガティブ判断テーブルを記憶する。図5に、ポジティブ・ネガティブ判断テーブルの一例を示す。図5に示すように、ポジティブ・ネガティブ判断テーブルには、コンテンツ毎に、当該コンテンツに対してポジティブな反応(P)と判断される要素(表情、発言内容)、ネガティブな反応(N)と判断される要素(表情、発言内容)を示す情報を記憶する。なお、発言内容は、テキストデータで格納されていることとする。
ここで、ポジティブな反応とは、コンテンツに対してポジティブな(肯定的な)感情を示す動作(例えば、表情や発言)を指す。ネガティブな反応とは、コンテンツに対してネガティブな(否定的な)感情を示す動作(例えば、表情や発言)を指す。
ポジティブな反応の判断基準、ネガティブな反応の判断基準は、コンテンツの内容によって異なる。例えば、図5に示すコンテンツAは、飲料の宣伝を目的としたコンテンツであり、この場合、「笑顔」や「喜び」の表情はポジティブな反応となる。「恐怖」や「嫌悪」の表情はネガティブな反応となる。コンテンツBは、ホラー映画の宣伝を目的としたコンテンツであり、この場合、コンテンツAとは異なり、「恐怖」や「嫌悪」の表情はポジティブな反応となる。「笑顔」や「喜び」の表情はネガティブな反応となる。
評価値データ記憶部457は、コンテンツ毎に、そのコンテンツについて算出された評価値のデータを記憶する。
課金金額記憶部458は、コンテンツ毎に、そのコンテンツの広告主に対する課金金額を記憶する。
計時部46は、RTC等により構成され、現在日時情報を取得して制御部23に出力する。
[コンテンツ課金システム1の動作]
次に、コンテンツ課金システム1の動作について説明する。
デジタルサイネージ装置2の制御部23は、再生時間帯テーブル記憶部253に記憶意されているテーブルにおいてコンテンツの再生が指示されている日時が到来すると、コンテンツ再生制御処理を実行し、再生すべきコンテンツの映像データを映像データ記憶部252から読み出して、その画像データをプロジェクタ24に、音声データを音声出力部33に出力し、コンテンツをスクリーン部22により再生させる。また、制御部23は、コンテンツ再生制御処理の開始と並行して、後述する反応取得処理の実行を開始し、再生中のコンテンツに注目している人物の反応を示す情報として、その人物を含む画像及び音声を記録する。
図6に、デジタルサイネージ装置2において実行される反応取得処理のフローチャートを示す。反応取得処理は、制御部23とプログラム記憶部251に記憶されているプログラムとの協働により実行される。
まず、制御部23は、撮像部30及び音声入力部34を起動させ、動画撮影及び音声の取り込みを開始する(ステップS1)。
撮像部30によりフレーム画像が取得されると、制御部23は、フレーム画像から再生中のコンテンツに注目している人物を認識する処理を行う(ステップS2)。
再生中のコンテンツに注目している人物のフレーム画像からの検出(認識)は、公知の画像処理技術により行うことができる。例えば、特開2011−210238号公報に記載のように、まず、フレーム画像から人体矩形領域を検出し、検出された人体矩形領域を人物の位置として特定する。次いで、検出された人体矩形領域内の画像から正面の顔矩形領域の検出処理を行い、正面の顔矩形領域が検出された場合に、その検出された顔矩形領域を再生中のコンテンツに注目している人物の顔領域として認識する。
人体矩形領域及び顔矩形領域の検出は、公知のどのような手法を用いてもよいが、例えば、人体矩形領域の検出としては、弱い識別器としてHOG(Histogram of Oriented Gradients)特徴を用いたAdaboostアルゴリズムによる人体検出法を用いることができる。また、顔矩形領域の検出としては、弱い識別器として白黒のHaar-Like特徴を用いたAdaboostアルゴリズムによる顔検出法を用いることができる。
次いで、制御部23は、ステップS2の処理結果に基づいて、再生中のコンテンツに注目している人物がいるか否かを判断する(ステップS3)。
再生中のコンテンツに注目している人物がいないと判断した場合(ステップS3;NO)、制御部23は、ステップS7の処理に移行する。
再生中のコンテンツに注目している人物がいると判断した場合(ステップS3;YES)、制御部23は、フレーム画像に対し、ステップS2において認識された顔領域の位置の情報を付加情報として対応付けてメモリ内に形成された画像記録領域に記録する(ステップS4)。
次いで、制御部23は、再生中のコンテンツに注目している人物が発声しているか否かを判断する(ステップS5)。例えば、制御部23は、音声入力部34を構成するマイクロフォンアレイのそれぞれのマイクロフォンから入力される信号に基づいて音圧マップを作成し、ステップS3で記録された顔領域の方向に予め定められた閾値以上の音圧があるか否かを判断する。そして、検出された顔領域の方向に予め定められた閾値以上の音圧があると判断した場合に、再生中のコンテンツに注目している人物が発声していると判断する。
再生中のコンテンツに注目している人物が発声していないと判断した場合(ステップS5;NO)、制御部23は、ステップS7の処理に移行する。
再生中のコンテンツに注目している人物が発声していると判断した場合(ステップS5;YES)、制御部23は、音声入力部34により顔領域の方向から入力された音声信号を音声データに変換してメモリ内に形成された音声記録領域に記録し(ステップS6)、ステップS7の処理に移行する。
ステップS7においては、コンテンツの再生が終了したか否かを判断する(ステップS7)。
コンテンツの再生が終了していないと判断した場合(ステップS7;NO)、制御部23は、ステップS2の処理に戻り、ステップS2〜ステップS6の処理を実行する。
コンテンツの再生が終了したと判断した場合(ステップS7;YES)、制御部23は、撮像部30による動画撮影及び音声入力部34による音声入力を停止させる(ステップS8)。そして、メモリ内の画像記録領域及び音声記録領域に記録された一連のフレーム画像の画像データ(付加情報を含む)及び音声データをコンテンツIDに対応付けて通信部26によりサーバ装置4に送信し(ステップS8)、反応取得処理を終了する。なお、メモリ内のデータは消去される。
サーバ装置4の制御部41は、通信部44によりデジタルサイネージ装置2から受信した画像データをコンテンツIDに対応付けて画像データ記憶部454に記憶し、音声データをコンテンツIDに対応付けて音声データ記憶部455に記憶する。
次に、サーバ装置4において、デジタルサイネージ装置2から送信された画像データ及び音声データに基づいて、コンテンツに対する評価値を算出する評価値算出処理について説明する。
図7に、サーバ装置4において実行される評価値算出処理のフローチャートを示す。評価値算出処理は、コンテンツの再生期間が終了した際に、制御部41とプログラム記憶部451に記憶されているプログラムとの協働により実行される。
まず、制御部41は、再生期間が終了したコンテンツ(評価対象のコンテンツ)のコンテンツIDに対する画像データを画像データ記憶部454から抽出して読み出すとともに、当該コンテンツIDに対応する音声データを音声データ記憶部455から抽出して読み出す(ステップS10)。
次いで、制御部41は、評価対象のコンテンツのコンテンツIDに対応するポジティブ・ネガティブ判断テーブルをポジティブ・ネガティブ判断テーブル記憶部456から読み出す(ステップS11)。
次いで、制御部41は、読み出した画像データ(各フレーム画像)に含まれる顔領域に対し、順次表情認識処理を行う(ステップS12)。上述のように、各フレーム画像には、コンテンツに注目していた人物の顔領域の位置の情報が対応付けられている。
表情認識処理は、公知の画像処理技術によって行うことができる。例えば、特開2011−81445号公報に記載のように、顔領域の各顔部品(眉(左/右)、目(左/右)、鼻、口)の周辺に注目点を設定し、設定した注目点の輝度分布に基づいて表情カテゴリを認識する手法等を用いることができる。
次いで、制御部41は、ステップS11で読み出したポティブ・ネガティブ判断テーブルに基づいて、認識された表情がP(ポジティブ)に該当しているか否かを判断する(ステップ13)。認識された表情がPに該当していると判断した場合(ステップS13;YES)、制御部41は、メモリ内のポジティブ件数に+1を加算し(ステップS14)、ステップS15の処理に移行する。認識された表情がPに該当していないと判断した場合(ステップS13;NO)、制御部41は、ステップS15の処理に移行する。
ステップS15において、制御部41は、ステップS11で読み出したポティブ・ネガティブ判断テーブルに基づいて、認識された表情がN(ネガティブ)に該当しているか否かを判断する(ステップ15)。認識された表情がNに該当していると判断した場合(ステップS15;YES)、制御部41は、メモリ内のネガティブ件数に+1を加算し(ステップS16)、ステップS17の処理に移行する。認識された表情がNに該当していないと判断した場合(ステップS15;NO)、制御部41は、ステップS17の処理に移行する。
ステップS17において、制御部41は、現在処理対象となっているフレーム画像に未処理の顔領域が存在するか否かを判断する(ステップS17)。未処理の顔領域が存在すると判断した場合(ステップS17;YES)、制御部41は、ステップS12の処理に戻り、未処理の顔領域について、ステップS12〜ステップS16の処理を実行する。未処理の顔領域が存在しないと判断した場合(ステップS17;NO)、制御部41は、全てのフレーム画像の画像データについての分析が終了したか否かを判断する(ステップS18)。全ての画像データについての分析が終了していないと判断した場合(ステップS18;NO)、処理はステップS12に戻る。全ての画像データについての分析が終了したと判断した場合(ステップS18;YES)、制御部41は、ステップS19の処理に移行する。
ステップS19において、制御部41は、ステップS10で読み出した音声データに音声認識処理を行い、発言内容を示すテキストデータに変換する(ステップS19)。
次いで、制御部41は、発言内容を示すテキストデータとポジティブ・ネガティブ判断テーブルの「発言内容」項目のP(ポジティブ)に該当するテキストデータとを照合し、発言内容がPに該当しているか否かと判断する(ステップS20)。発言内容がPに該当していると判断した場合(ステップS20;YES)、制御部41は、メモリ内のポジティブ件数に+1を加算し(ステップS21)、ステップS22の処理に移行する。発言内容がPに該当していないと判断した場合(ステップS20;NO)、制御部41は、ステップS22の処理に移行する。
ステップS22において、制御部41は、発言内容を示すテキストデータとポジティブ・ネガティブ判断テーブルの「発言内容」項目のN(ネガティブ)に該当するテキストデータとを照合し、発言内容がN(ネガティブ)に該当しているか否かを判断する(ステップS22)。発言内容がNに該当していると判断した場合(ステップS22;YES)、制御部41は、メモリ内のネガティブ件数に+1を加算し(ステップS23)、ステップS24の処理に移行する。発言内容がNに該当していないと判断した場合(ステップS22;NO)、制御部41は、ステップS24の処理に移行する。
ステップS24において、制御部41は、全ての音声データについての分析が終了したか否かを判断する(ステップS24)。全ての音声データについての分析が終了していないと判断した場合(ステップS24;NO)、処理はステップS19に戻る。全ての音声データについての分析が終了したと判断した場合(ステップS24;YES)、制御部41は、ステップS25の処理に移行する。
なお、ステップS20とS22においては、完全一致のみならず、予め定められた範囲内で語尾が不一致のものも一致(該当)しているものとして判断されるものとする。
ステップS25において、制御部41は、メモリ内のポジティブ件数を評価対象のコンテンツに対するポジティブな評価値(ポジティブ評価値Y)として、ネガティブ件数を評価対象のコンテンツに対するネガティブな評価値(ネガティブ評価値Z)として、評価対象コンテンツのコンテンツIDと対応付けて評価値データ記憶部457に記憶させ(ステップS25)、評価値算出処理を終了する。
なお、評価値算出処理の終了後、メモリ内のポジティブ件数及びネガティブ件数はクリアする。
また、サーバ装置4でポジティブな評価値のみを課金金額の算出に利用する場合(後述する課金金額算出処理Aを実行する場合)、評価値算出処理においては、P(ポジティブ)に該当するか否かの判断のみを行って、ポジティブ件数のみをカウントし、ポジティブ件数のみを評価値としてコンテンツIDと対応付けて評価値データ記憶部457に記憶させてもよい。また、サーバ装置4でネガティブな評価値のみを課金金額の算出に利用する場合(後述する課金金額算出処理Bを実行する場合)、評価値算出処理においては、N(ネガティブ)に該当するか否かの判断のみを行って、ネガティブ件数のみをカウントし、ネガティブ件数のみを評価値としてコンテンツIDと対応付けて評価値データ記憶部457に記憶させてもよい。
次に、サーバ装置4において、コンテンツに対して算出された評価値に基づいて、コンテンツに対する課金金額を算出する課金金額算出処理について説明する。
ここで、サーバ装置4における課金金額算出処理としては、ポジティブ評価値のみ利用して課金金額を算出する課金金額算出処理A、ネガティブ評価値のみを利用して課金金額を算出する課金金額算出処理B、ポジティブ評価値及びネガティブ評価値の双方を利用して課金金額を算出する課金金額算出処理Cが用意されている。何れの評価値を用いて課金金額を算出するかは、入力部43から予め設定しておくことができる。以下、それぞれのケースにおける課金金額算出処理について説明する。
まず、ポジティブ評価値のみをコンテンツに対する課金金額の算出に用いる課金金額算出処理Aについて説明する。
図8に、サーバ装置4において実行される課金金額算出処理Aのフローチャートを示す。課金金額算出処理Aは、上述の評価値算出処理の終了時に、制御部41とプログラム記憶部451に記憶されているプログラムとの協働により実行される。
まず、制御部41は、評価値データ記憶部457から課金対象のコンテンツのコンテンツIDに対応する評価値を読み出す(ステップS31)。
次いで、制御部41は、評価値のうち、ポジティブ評価値(Y)を取得し、Y>0であるか否かを判断する(ステップS32)。
Y>0であると判断した場合(ステップS32;YES)、制御部41は、「課金金額=予め定められた広告料のベース金額×Y×係数α(α>1)」を算出し(ステップS33)、算出した課金金額をコンテンツIDと対応付けて課金金額記憶部458に記憶し(ステップS35)、課金金額算出処理Aを終了する。
Y>0ではないと判断した場合(ステップS32;NO)、制御部41は、「課金金額=予め定められた広告料のベース金額」とし(ステップS34)、課金金額をコンテンツIDと対応付けて課金金額記憶部458に記憶し(ステップS35)、課金金額算出処理Aを終了する。
次に、ネガティブ評価値のみをコンテンツに対する課金金額の算出に用いる課金金額算出処理Bについて説明する。
図9に、サーバ装置4において実行される課金金額算出処理Bのフローチャートを示す。課金金額算出処理Bは、上述の評価値算出処理の終了時に、制御部41とプログラム記憶部451に記憶されているプログラムとの協働により実行される。
まず、制御部41は、評価値データ記憶部457から課金対象のコンテンツのコンテンツIDに対応する評価値を読み出す(ステップS41)。
次いで、制御部41は、評価値のうち、ネガティブ評価値(Z)を取得し、Z>0であるか否かを判断する(ステップS42)。
Z>0であると判断した場合(ステップS42;YES)、制御部41は、「課金金額=予め定められた広告料のベース金額×係数βのZ乗(β<1)」を算出し(ステップS43)、算出した課金金額をコンテンツIDと対応付けて課金金額記憶部458に記憶し(ステップS45)、課金金額算出処理Bを終了する。
Z>0ではないと判断した場合(ステップS42;NO)、制御部41は、「課金金額=予め定められた広告料のベース金額」とし(ステップS44)、課金金額をコンテンツIDと対応付けて課金金額記憶部458に記憶し(ステップS45)、課金金額算出処理Bを終了する。
次に、ポジティブ評価値及びネガティブ評価値をコンテンツに対する課金金額の算出に用いる課金金額算出処理Cについて説明する。
図10に、サーバ装置4において実行される課金金額算出処理Cのフローチャートを示す。課金金額算出処理Cは、上述の評価値算出処理の終了時に、制御部41とプログラム記憶部451に記憶されているプログラムとの協働により実行される。
まず、制御部41は、評価値データ記憶部457から課金対象のコンテンツのコンテンツIDに対応する評価値を読み出す(ステップS51)。
次いで、制御部41は、ポジティブ評価値(Y)からネガティブ評価値(Z)減算した値(X)を算出し(ステップS52)、X=0であるか否かを判断する(ステップS53)。
X=0であると判断した場合(ステップS53;YES)、制御部41は、「課金金額=予め定められた広告料のベース金額」を算出し(ステップS54)、算出した課金金額をコンテンツIDと対応付けて課金金額記憶部458に記憶し(ステップS58)、課金金額算出処理Cを終了する。
X=0ではないと判断した場合(ステップS53;NO)、制御部41は、ステップS55に移行する。
ステップS55において、制御部41は、X>0であるか否かを判断する(ステップS55)。
X>0であると判断した場合(ステップS55;YES)、制御部41は、「課金金額=予め定められた広告料のベース金額×Y×係数α(α>1)」を算出し(ステップS56)、算出した課金金額をコンテンツIDと対応付けて課金金額記憶部458に記憶し(ステップS58)、課金金額算出処理Cを終了する。
X>0ではないと判断した場合(ステップS55;NO)、制御部41は、「課金金額=予め定められた広告料のベース金額×係数βのZ乗(β<1)」を算出し(ステップS57)、算出した課金金額をコンテンツIDと対応付けて課金金額記憶部458に記憶し(ステップS58)、課金金額算出処理Cを終了する。
以上説明したように、本実施形態におけるコンテンツ課金システム1によれば、デジタルサイネージ装置2の制御部23は、コンテンツの再生中に撮像部30により取得された画像形成部27の前にいる人物の撮影画像に基づいて、コンテンツに注目している人物を認識し、その人物の反応を示す情報として、撮像部30によりその人物の画像データを取得し、音声入力部34によりその人物の音声データを取得し、通信部26によりサーバ装置4に送信する。サーバ装置4の制御部41は、通信部44によりデジタルサイネージ装置2から画像データ及び音声データを受信すると、受信した画像データ及び音声データを解析し、コンテンツに注目している人物の反応がコンテンツに対してポジティブな反応に該当しているか、ネガティブな反応に該当しているかを判断し、ポジティブな反応に該当すると判断された件数、及び/又はネガティブな反応に該当すると判断された件数をカウントすることにより、コンテンツに対する評価値を算出する。
従って、コンテンツに注目した人物、即ちコンテンツの視聴者がポジティブな反応を示した件数やネガティブな反応を示した件数によりコンテンツを評価するので、コンテンツが視聴者に与えた影響(コンテンツの効果)を考慮してコンテンツを精度よく評価することが可能となる。
具体的に、制御部41は、コンテンツに注目している人物の画像データに基づいて、コンテンツに注目している人物の表情を認識し、認識した表情がコンテンツに対してポジティブな反応に該当しているか、ネガティブな反応に該当しているかを判断する。従って、コンテンツの視聴者の表情に基づいて、コンテンツを精度良く評価することができる。
また、制御部41は、コンテンツに注目している人物の音声に基づいて、コンテンツに注目している人物の発言内容を認識し、認識した発言内容がコンテンツに対してポジティブな反応に該当しているか否か、ネガティブな反応に該当しているかを判断する。従って、コンテンツの視聴者の発言内容に基づいて、コンテンツを精度良く評価することができる。
また、サーバ装置4の記憶部45には、コンテンツ毎に、当該コンテンツに対してポジティブな反応の判断基準及びネガティブな反応の判断基準を格納するポジティブ・ネガティブ判断テーブルが記憶されており、制御部41は、コンテンツに応じたポジティブ・ネガティブ判断テーブルを用いてポジティブな反応に該当するか、ネガティブな反応に該当するか、の判断を行うので、コンテンツの内容等に応じて適切な基準でコンテンツを評価することができる。
また、サーバ装置4の制御部41は、算出された評価値に基づいて、コンテンツに対する課金金額を算出するので、コンテンツが視聴者に与えた影響を反映した適切な課金を行うことが可能となる。
なお、上記実施形態における記述内容は、本発明のコンテンツ課金システムの好適な一例であり、これに限定されるものではない。
例えば、上記実施形態においては、コンテンツに注目している人物の画像及び音声の双方に基づいてコンテンツに注目している人物の反応を取得することとしたが、何れか一方のみに基づいて取得することとしてもよい。
また、上記実施形態においては、評価値算出処理及び課金金額算出処理(A〜C)をサーバ装置4の制御部41が行うこととしたが、これらの処理をデジタルサイネージ装置2の制御部23が行うこととしてもよい。即ち、表示手段、撮影手段、認識手段、取得手段、判断手段、評価値算出手段、金額算出手段を全てデジタルサイネージ装置2に持たせることとしてもよい。
また、上記実施形態においては、コンテンツは映像であることとしたが、静止画等であってもよい。
その他、コンテンツ課金システムを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
コンテンツを表示する表示手段と、
コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、 前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してポジティブな反応に該当しているか否かを判断する判断手段と、
前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
を備える情報処理装置。
<請求項2>
前記取得手段は、前記撮影手段により取得された前記コンテンツに注目している人物の画像を前記コンテンツに注目している人物の反応を示す情報として取得し、
前記判断手段は、前記取得手段により取得された前記コンテンツに注目している人物の画像に基づいて、前記コンテンツに注目している人物の表情を認識し、認識した表情が前記コンテンツに対してポジティブな反応に該当しているか否かを判断する請求項1に記載の情報処理装置。
<請求項3>
音声入力手段を備え、
前記取得手段は、前記音声入力手段により入力された前記コンテンツに注目している人物の音声を前記コンテンツに注目している人物の反応を示す情報として取得し、
前記判断手段は、前記取得手段により取得された前記コンテンツに注目している人物の音声に基づいて、前記コンテンツに注目している人物の発言内容を認識し、認識した発言内容が前記コンテンツに対してポジティブな反応に該当しているか否かを判断する請求項1又は2に記載の情報処理装置。
<請求項4>
前記判断手段におけるポジティブな反応に該当しているか否かの判断基準は、前記コンテンツの内容に応じて異なる請求項1〜3の何れか一項に記載の情報処理装置。
<請求項5>
前記判断手段は、更に、前記取得手段により取得された反応が前記コンテンツに対してネガティブな反応に該当するか否かを判断し、
前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより前記コンテンツに対するポジティブな評価値を算出し、前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより前記コンテンツに対するネガティブな評価値を算出する評価値算出手段を備え、
前記金額算出手段は、前記評価値算出手段により算出された評価値に基づいて、前記コンテンツに対する課金金額を算出する請求項1〜4の何れか一項に記載の情報処理装置。
<請求項6>
コンテンツを表示する表示手段と、
コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してネガティブな反応に該当しているか否かを判断する判断手段と、
前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
を備える情報処理装置。
<請求項7>
コンテンツを表示する表示手段を有する情報処理装置と、前記コンテンツに対する課金金額を算出するサーバ装置と、が通信ネットワークを介して接続されたコンテンツ課金システムであって、
前記情報処理装置は、 コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報を前記サーバに送信する送信手段と、
を備え、
前記サーバ装置は、
前記情報処理装置から送信された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記取得手段により取得された反応が前記コンテンツに対してポジティブな反応に該当するか否かを判断する判断手段と、
前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
を備えるコンテンツ課金システム。
<請求項8>
コンテンツを表示する表示手段を有する情報処理装置と、前記コンテンツに対する課金金額を算出するサーバ装置と、が通信ネットワークを介して接続されたコンテンツ課金システムであって、
前記情報処理装置は、
コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報を前記サーバに送信する送信手段と、
を備え、
前記サーバ装置は、
前記情報処理装置から送信された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記取得手段により取得された反応が前記コンテンツに対してネガティブな反応に該当するか否かを判断する判断手段と、
前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
を備えるコンテンツ課金システム。
<請求項9>
コンテンツの表示中に表示手段の前にいる人物を撮影する撮影手段を備える情報処理装置に用いられるコンピュータを、
コンテンツを表示する表示手段、
コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段、
前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段、
前記コンテンツに注目している人物の反応を示す情報を取得する取得手段、
前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してポジティブな反応に該当しているか否かを判断する判断手段、
前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段、
として機能させるためのプログラム。
<請求項10>
コンテンツの表示中に表示手段の前にいる人物を撮影する撮影手段を備える情報処理装置に用いられるコンピュータを、 コンテンツを表示する表示手段、
コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段、
前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段、
前記コンテンツに注目している人物の反応を示す情報を取得する取得手段、
前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してネガティブな反応に該当しているか否かを判断する判断手段、
前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段、
として機能させるためのプログラム。
1 コンテンツ課金システム
2 デジタルサイネージ装置
21 投影部
22 スクリーン部
23 制御部
24 プロジェクタ
25 記憶部
251 プログラム記憶部
252 映像データ記憶部
253 再生時間帯テーブル記憶部
26 通信部
27 画像形成部
28 台座
29 透光板
30 撮像部
32 操作部
33 音声出力部
34 音声入力部
35 計時部
4 サーバ装置
41 制御部
42 表示部
43 入力部
44 通信部
45 記憶部
451 プログラム記憶部
452 映像データ記憶部
453 再生時間帯テーブル記憶部
454 画像データ記憶部
455 音声データ記憶部
456 ポジティブ・ネガティブ判断テーブル記憶部
457 評価値データ記憶部
458 課金金額記憶部
46 計時部
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。
本発明の課題は、コンテンツ情報の出力内容に対するユーザの反応に応じた情報処理を実行することである。
求項1、コンテンツ情報を出力した際は、当該コンテンツ情報の出力内容に対するユーザの反応取得する取得手段と、出力された前記コンテンツ情報の内容に応じて予め設定された反応判断基準を特定する特定手段と、前記取得手段で取得した反応を、前記特定手段で特定した反応判断基準比較し、比較結果に応じた情報処理を実行する処理手段と、を具備したことを特徴とする。
本発明によれば、コンテンツ情報の出力内容に対するユーザの反応に応じた情報処理を実行することが可能となる。

Claims (9)

  1. コンテンツを表示する表示手段と、
    コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
    前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
    前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
    前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してポジティブな反応に該当しているか否かを前記コンテンツの内容に応じて決定された判断基準との比較を行うことで判断する判断手段と、
    前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
    を備える情報処理装置。
  2. 前記取得手段は、前記撮影手段により取得された前記コンテンツに注目している人物の画像を前記コンテンツに注目している人物の反応を示す情報として取得し、
    前記判断手段は、前記取得手段により取得された前記コンテンツに注目している人物の画像に基づいて、前記コンテンツに注目している人物の表情を認識し、認識した表情が前記コンテンツに対してポジティブな反応に該当しているか否かを判断する請求項1に記載の情報処理装置。
  3. 音声入力手段を備え、
    前記取得手段は、前記音声入力手段により入力された前記コンテンツに注目している人物の音声を前記コンテンツに注目している人物の反応を示す情報として取得し、
    前記判断手段は、前記取得手段により取得された前記コンテンツに注目している人物の音声に基づいて、前記コンテンツに注目している人物の発言内容を認識し、認識した発言内容が前記コンテンツに対してポジティブな反応に該当しているか否かを判断する請求項1又は2に記載の情報処理装置。
  4. 前記判断手段は、更に、前記取得手段により取得された反応が前記コンテンツに対してネガティブな反応に該当するか否かを判断し、
    前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより前記コンテンツに対するポジティブな評価値を算出し、前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより前記コンテンツに対するネガティブな評価値を算出する評価値算出手段を備え、
    前記金額算出手段は、前記評価値算出手段により算出された評価値に基づいて、前記コンテンツに対する課金金額を算出する請求項1〜3の何れか一項に記載の情報処理装置。
  5. コンテンツを表示する表示手段と、
    コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
    前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
    前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
    前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してネガティブな反応に該当しているか否かを前記コンテンツの内容に応じて決定された判断基準との比較を行うことで判断する判断手段と、
    前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
    を備える情報処理装置。
  6. コンテンツを表示する表示手段を有する情報処理装置と、前記コンテンツに対する課金金額を算出するサーバ装置と、が通信ネットワークを介して接続されたコンテンツ課金システムであって、
    前記情報処理装置は、
    コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
    前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
    前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
    前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報を前記サーバ装置に送信する送信手段と、
    を備え、
    前記サーバ装置は、
    前記情報処理装置から送信された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記取得手段により取得された反応が前記コンテンツに対してポジティブな反応に該当するか否かを前記コンテンツの内容に応じて決定された判断基準との比較を行うことで判断する判断手段と、
    前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
    を備えるコンテンツ課金システム。
  7. コンテンツを表示する表示手段を有する情報処理装置と、前記コンテンツに対する課金金額を算出するサーバ装置と、が通信ネットワークを介して接続されたコンテンツ課金システムであって、
    前記情報処理装置は、
    コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段と、
    前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段と、
    前記コンテンツに注目している人物の反応を示す情報を取得する取得手段と、
    前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報を前記サーバに送信する送信手段と、
    を備え、
    前記サーバ装置は、
    前記情報処理装置から送信された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記取得手段により取得された反応が前記コンテンツに対してネガティブな反応に該当するか否かを前記コンテンツの内容に応じて決定された判断基準との比較を行うことで判断する判断手段と、
    前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段と、
    を備えるコンテンツ課金システム。
  8. コンテンツの表示中に表示手段の前にいる人物を撮影する撮影手段を備える情報処理装置に用いられるコンピュータを、
    コンテンツを表示する表示手段、
    コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段、
    前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段、
    前記コンテンツに注目している人物の反応を示す情報を取得する取得手段、
    前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してポジティブな反応に該当しているか否かを前記コンテンツの内容に応じて決定された判断基準との比較を行うことで判断する判断手段、
    前記判断手段によりポジティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段、
    として機能させるためのプログラム。
  9. コンテンツの表示中に表示手段の前にいる人物を撮影する撮影手段を備える情報処理装置に用いられるコンピュータを、
    コンテンツを表示する表示手段、
    コンテンツの表示中に前記表示手段の前にいる人物を撮影する撮影手段、
    前記撮影手段により取得された撮影画像に基づいて前記コンテンツに注目している人物を認識する認識手段、
    前記コンテンツに注目している人物の反応を示す情報を取得する取得手段、
    前記取得手段により取得された前記コンテンツに注目している人物の反応を示す情報に基づいて、前記コンテンツに注目している人物の反応が前記コンテンツに対してネガティブな反応に該当しているか否かを前記コンテンツの内容に応じて決定された判断基準との比較を行うことで判断する判断手段、
    前記判断手段によりネガティブな反応に該当すると判断された件数をカウントすることにより、前記コンテンツに対する課金金額を算出する金額算出手段、
    として機能させるためのプログラム。
JP2017154375A 2017-08-09 2017-08-09 情報処理装置、情報処理方法、及びプログラム Active JP6447681B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017154375A JP6447681B2 (ja) 2017-08-09 2017-08-09 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017154375A JP6447681B2 (ja) 2017-08-09 2017-08-09 情報処理装置、情報処理方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013133262A Division JP6191278B2 (ja) 2013-06-26 2013-06-26 情報処理装置、コンテンツ課金システム及びプログラム

Publications (2)

Publication Number Publication Date
JP2017224335A true JP2017224335A (ja) 2017-12-21
JP6447681B2 JP6447681B2 (ja) 2019-01-09

Family

ID=60688027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017154375A Active JP6447681B2 (ja) 2017-08-09 2017-08-09 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6447681B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130435A1 (ja) * 2017-12-26 2019-07-04 株式会社ウフル サイネージ評価システム、サイネージの効果の評価方法、及びプログラム
JP2020144895A (ja) * 2020-04-30 2020-09-10 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP2020177497A (ja) * 2019-04-19 2020-10-29 ヤフー株式会社 決定装置、決定方法及び決定プログラム
JP2021081983A (ja) * 2019-11-19 2021-05-27 株式会社ラストワンマイル 情報処理装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092481A (ja) * 2000-09-20 2002-03-29 Tijuana.Com:Kk 料金分配システム、料金分配方法及びこの方法を記憶した記憶媒体並びにサーバ機器
JP2002123756A (ja) * 2000-10-12 2002-04-26 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2007241379A (ja) * 2006-03-06 2007-09-20 Tokyo Electric Power Co Inc:The 感情取得システム
WO2008081596A1 (ja) * 2006-12-27 2008-07-10 Dentsu Inc. リスティング広告送出装置及び方法
JP2008204355A (ja) * 2007-02-22 2008-09-04 Nippon Telegr & Teleph Corp <Ntt> 辞書作成方法
JP2009003740A (ja) * 2007-06-22 2009-01-08 Naltec Inc 電子広告端末を有するシステム
JP2009223749A (ja) * 2008-03-18 2009-10-01 C2Cube Inc 情報処理装置、情報処理方法、およびプログラム
JP2010287064A (ja) * 2009-06-11 2010-12-24 Pfu Ltd キオスク端末装置
WO2012174381A2 (en) * 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092481A (ja) * 2000-09-20 2002-03-29 Tijuana.Com:Kk 料金分配システム、料金分配方法及びこの方法を記憶した記憶媒体並びにサーバ機器
JP2002123756A (ja) * 2000-10-12 2002-04-26 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2007241379A (ja) * 2006-03-06 2007-09-20 Tokyo Electric Power Co Inc:The 感情取得システム
WO2008081596A1 (ja) * 2006-12-27 2008-07-10 Dentsu Inc. リスティング広告送出装置及び方法
JP2008204355A (ja) * 2007-02-22 2008-09-04 Nippon Telegr & Teleph Corp <Ntt> 辞書作成方法
JP2009003740A (ja) * 2007-06-22 2009-01-08 Naltec Inc 電子広告端末を有するシステム
JP2009223749A (ja) * 2008-03-18 2009-10-01 C2Cube Inc 情報処理装置、情報処理方法、およびプログラム
JP2010287064A (ja) * 2009-06-11 2010-12-24 Pfu Ltd キオスク端末装置
WO2012174381A2 (en) * 2011-06-17 2012-12-20 Microsoft Corporation Video highlight identification based on environmental sensing

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130435A1 (ja) * 2017-12-26 2019-07-04 株式会社ウフル サイネージ評価システム、サイネージの効果の評価方法、及びプログラム
JP2020177497A (ja) * 2019-04-19 2020-10-29 ヤフー株式会社 決定装置、決定方法及び決定プログラム
JP7082085B2 (ja) 2019-04-19 2022-06-07 ヤフー株式会社 決定装置、決定方法及び決定プログラム
JP2021081983A (ja) * 2019-11-19 2021-05-27 株式会社ラストワンマイル 情報処理装置
JP7015291B2 (ja) 2019-11-19 2022-02-02 株式会社ラストワンマイル 情報処理装置
JP2020144895A (ja) * 2020-04-30 2020-09-10 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法

Also Published As

Publication number Publication date
JP6447681B2 (ja) 2019-01-09

Similar Documents

Publication Publication Date Title
JP6191278B2 (ja) 情報処理装置、コンテンツ課金システム及びプログラム
JP6447681B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN101325658B (zh) 成像设备和成像方法
KR101444103B1 (ko) 상태 정보를 이용하여 미디어 신호를 생성하는 방법 및장치
CN101163199B (zh) 图像拍摄设备和方法、及表情评价设备
US7619660B2 (en) Automatic photography
CN101378455B (zh) 根据取得的图像确定主要拍摄物的图像区域的装置及方法
US8760551B2 (en) Systems and methods for image capturing based on user interest
CN101262561B (zh) 成像设备及其控制方法
JP2009049489A (ja) 撮像装置、撮像方法およびプログラム
CN108898592A (zh) 提示镜头脏污程度的方法及装置、电子设备
CN208351494U (zh) 人脸识别系统
CN109344703A (zh) 对象检测方法及装置、电子设备和存储介质
JP2010148132A (ja) 撮像装置、画像検出装置及びプログラム
KR101839406B1 (ko) 디스플레이장치 및 그 제어방법
CN104935807B (zh) 摄像装置、摄像方法以及计算机可读取的记录介质
JP7070549B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2008197889A (ja) 静止画生成方法、静止画生成装置および静止画生成プログラム
JP6507747B2 (ja) 情報処理装置、コンテンツ決定方法、及びプログラム
JP2017041857A (ja) 画像処理装置、その制御方法、プログラム及び撮像装置
JP2011239158A (ja) ユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラム
JP5526620B2 (ja) デジタルカメラ
JP6263912B2 (ja) 画像表示装置及びプログラム
JP2017059916A (ja) コンテンツ出力装置、コンテンツ出力方法及びプログラム
JP2017162221A (ja) 情報処理装置、コンテンツ評価方法、及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R150 Certificate of patent or registration of utility model

Ref document number: 6447681

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150