JP2019091487A - 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 - Google Patents
閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 Download PDFInfo
- Publication number
- JP2019091487A JP2019091487A JP2019019771A JP2019019771A JP2019091487A JP 2019091487 A JP2019091487 A JP 2019091487A JP 2019019771 A JP2019019771 A JP 2019019771A JP 2019019771 A JP2019019771 A JP 2019019771A JP 2019091487 A JP2019091487 A JP 2019091487A
- Authority
- JP
- Japan
- Prior art keywords
- analysis
- data
- aggregated
- media
- behavior data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 78
- 238000004458 analytical method Methods 0.000 claims abstract description 104
- 230000003542 behavioural effect Effects 0.000 claims abstract description 73
- 230000002996 emotional effect Effects 0.000 claims abstract description 15
- 230000004931 aggregating effect Effects 0.000 claims abstract description 7
- 230000008451 emotion Effects 0.000 claims description 52
- 230000000694 effects Effects 0.000 claims description 22
- 238000007405 data analysis Methods 0.000 claims description 18
- 230000009471 action Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 6
- 238000010183 spectrum analysis Methods 0.000 claims description 3
- 206010021703 Indifference Diseases 0.000 claims description 2
- 230000001186 cumulative effect Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000012360 testing method Methods 0.000 abstract description 44
- 230000008569 process Effects 0.000 abstract description 8
- 230000006399 behavior Effects 0.000 description 41
- 238000013480 data collection Methods 0.000 description 12
- 230000002776 aggregation Effects 0.000 description 10
- 238000004220 aggregation Methods 0.000 description 10
- 230000006397 emotional response Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000010835 comparative analysis Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Abstract
Description
本発明は、コンピュータユーザ行動の分析および処理に関する。特に、発明の実施形態は、たとえばメディアコンテンツに触れている間のコンピュータユーザの行動に関係する情報を使用して、たとえば他のメディアコンテンツと比較した当該メディアコンテンツの質的評価を行なうことに関する。そのような質的比較を用いることにより、コンテンツ制作者、ディストリビュータ、ネットワークオペレータおよび同様のエンティティがメディアコンテンツの送信をメディアコンテンツの十分な品質の項目のみに限定することが可能となり、それによって、ネットワークおよびコンピューティングリソースを保護する。
商業的な観点からは、たとえば広告(ad)、ゲーム、ミュージックビデオ、テレビ番組等のオンラインで提供されるコンテンツの性能を評価することができることが重要である。この点に関して、手動でコンテンツを格付けることによって、たとえば適切な定格値(たとえば星の数)を選択することによってフィードバックを提供するようにコンピュータユーザのためのシステムを提供することは一般的である。広告有効性トラッキングスキームの一部としてアンケートまたはインタビューを提供することも同様に一般的である。
最も一般的には、本発明は、メディアの所与の項目に触れた複数のコンピュータユーザについて収集された感情状態情報を含み得る行動データに基づくメディアの所与の項目の自動分析およびベンチマークのための高度な技術を提案する。特定の典型的な質的比較であるそのようなベンチマークの使用により、コンテンツ制作者、ディストリビュータ、ネットワークオペレータ、および同様のエンティティが、十分な品質である、たとえば所与のしきい値を越えるベンチマークスコアを所有し、それによってネットワークおよびコンピューティングリソースを保護するメディアコンテンツの項目のみに、メディアコンテンツの送信を限定することが可能となる。
を含み、その場合には、当該技術は、迅速な目的査定ツールを提供することができる。代替的にまたはその上、テスト中のメディア自体に対して比較分析を行うことができ、その場合には、当該技術は、たとえば、メディアがその対象視聴者に対して所期の影響を及ぼしたかどうかについて即時のフィードバックを行なうことができる。比較分析は、インパクト(肯定的または否定的)が観察される視聴者セクターを識別することをさらに支援し得る。
ンツエントリーの集計行動データと比較することは、分析のための集計行動データを抽出されたノルムと比較することを含む。ノルムは、テスト中のメディアの集計データの対応する特性をそれと比較することができる非コンテキストな相対的情報であり得る。
他の感情値によって標準化されたそれぞれのメディアのすべてまたは一部中の感情値と、
それぞれのメディアのすべてまたは一部中の感情スパンと、
感情ピークの相対時間と、
感情ピークの数と、
最も高い感情ピークの値と、
感情トラフの相対時間と、
感情トラフの数と、
最も低い感情トラフの値と、
それぞれのメディアのすべてまたは一部中の累積的な感情値と、
感情値の経時変化の尖度および/またはスキューと、
感情値の経時変化の増大および/または減少の持続時間と、
中間感情値の経時変化の中央値、範囲、および標準偏差と、
中間感情値の経時変化についての最大値と終値との間の相違と、
中間感情値の経時変化に基づく線形トレンドの交点および/または勾配と、
時間によって、またはデータ記録の数によって集計された時の中間感情値の百分位数分布記述子と、のうちいずれか1つ以上を含むことができる。
できる他の情報、たとえば、身振り、(たとえば、皮膚の色または監視アクセサリーに基づく)血圧、まばたきなどのうちのいずれかを含み得る。
タ分析サブグループの集計行動データを、抽出されたノルムと比較することを含む。
添付の図面を参照して発明の実施形態について以下に詳細に説明する。
図1は、本発明が動作し得る環境100の一実施形態を表す。ユーザ102は、ネットワーク対応型クライアントコンピューティング装置101、たとえば、PC、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、またはメディアコンテンツをレンダリングすることが可能であって、局所的なストレージ装置もしくは遠隔ストレージ装置上に存在し得る他の装置に関連付けられたメディアコンテンツをディスプレイ104上で閲覧する。クライアントコンピューティング装置101はしたがって、インターネットなどのネットワーク112を介してデータを送信および受信することが可能である。
ータ収集アプリケーション110がそれに関連付けられている。ユーザ102は、たとえばメディアプレーヤ108上のメディアコンテンツを閲覧しつつ、行動データ収集演習に参加するための招待をコンピューティング装置上で受信することができる。ある実施形態によれば、行動データ収集アプリケーションは、ワンタイムベースによってまたはいずれかの所与の行動データ収集演習の開始に先立って行われることができる行動データ収集演習への招待を受付ける前に、コンピュータユーザ行動データを収集するように動作可能ではない。招待の受付け後、行動データ収集アプリケーション110が実行し、リモート分析サーバ114と通信して、以下に記載されるように行動データ収集演習を実行し制御することができる。
ディアコンテンツエントリーをフィルタリングすることによって取得されることができる。集計データのサンプルは、たとえば、利用者情報、ビデオ中の一時的な場所(たとえば最初の10秒)などによって、他の分析次元において制限されることもできる。たとえば、当該メディアについて新しいコンテンツエントリーがすでに作成されている場合、サンプルは、テスト中のメディアに属する集計データが含まれないことを確実にするように配置されることができる。
メディアの最初の10秒において平均よりも多くの驚きを示したことを明らかにすることができる。ステップ612において、イントラメディアベンチマークデータが出力される。上記のように、出力は、表示、たとえばベンチマークデータのグラフ表示または一覧表であり得る。代替的にまたはその上、ベンチマークデータは比較の結果に関心を持つ第三者、たとえばテスト中のメディアの所有者に送信されることができる。本明細書に記載されるすべての典型的な送信のように、ローカルネットワーク上で分析サーバと同じ場所を共用するエンドポイントに送信されるか、または遠隔に位置するエンドポイントに到達するために1つ以上のネットワークによって送信され得る。
媒体」、「コンピュータプログラムメディア」、および「コンピュータ使用可能なメディア」という用語は、ランダムアクセス記憶装置(RAM)、リードオンリーメモリ(ROM)、リムーバブルストレージユニット(たとえば磁気または光ディスク、フラッシュメモリ素子など)、ハードディスクなどといった媒体を一般に指すために用いられる。
Claims (20)
- メディアコンテンツのインパクトをベンチマークするコンピュータ実施方法であって、前記方法は、
分析サーバと通信する電子図書館を提供することを含み、前記電子図書館は、複数のコンテンツエントリーを有し、前記複数のコンテンツエントリーの各々は、1つのメディアコンテンツと関連付けられ、1つ以上の分析次元によって表現可能な集計行動データを含み、前記集計行動データは、複数の個別行動データ記録から得られ、各個別行動データ記録は、前記1つのメディアコンテンツを閲覧している間にコンピュータユーザから取得され、前記方法はさらに、
分析されるべき1つのメディアコンテンツに関連する複数の新しい個別行動データ記録を前記分析サーバにおいて受信することを含み、前記複数の新しい個別行動データ記録の各々は、前記分析されるべき1つのメディアコンテンツの再生中にコンピュータユーザから取得され、前記複数の新しい個別行動データ記録の各々は、前記1つ以上の分析次元によって表現可能な行動データを含み、前記方法はさらに、
前記分析サーバにおいてコンピュータ読取可能命令を実行して、前記分析サーバに、
前記受信された複数の新しい個別行動データ記録を集計して、分析のための集計行動データを形成するステップと、
前記分析次元のうち1つ以上のコンテキストにおいて、前記分析のための集計行動データを、前記電子図書館内の複数のコンテンツエントリーの前記集計行動データと比較するステップと、
前記分析のための集計行動データと、前記複数のコンテンツエントリーのうち1つ以上の集計行動データとの間の統計的に有意な類似点または相違を識別するステップと、
前記識別された統計的に有意な類似性または相違に基づいて、前記複数のコンテンツエントリーのうち1つ以上に関して、前記分析されるべき1つのメディアコンテンツをベンチマークする出力を生成するステップと、を行わせることを含む、方法。 - 所与の個別行動データ記録は、前記コンピュータユーザによって表わされる1つ以上の感情についての時系列データを含み、前記1つ以上の分析次元は時間を含む、請求項1に記載の方法。
- 前記電子図書館内の複数のコンテンツエントリーについての集計行動データからの1つ以上のノルムを前記分析サーバから抽出することを含み、前記分析のための集計行動データを前記電子図書館内の複数のコンテンツエントリーの前記集計行動データと比較することは、前記分析のための集計行動データを前記抽出されたノルムと比較することを含む、請求項1または2に記載の方法。
- 前記分析サーバは、前記電子図書館をサンプリングして、その中の前記複数のコンテンツエントリーのサブセットの集計行動データを取得するステップを行い、前記1つ以上のノルムは、前記複数のコンテンツエントリーの前記サブセットの前記集計行動データから抽出される、請求項3に記載の方法。
- 前記抽出されたノルムのうち1つ以上を、前記電子図書館に関連付けられたデータベースに記憶することを含む、請求項3または4に記載の方法。
- 所与の個別行動データ記録は、前記コンピュータユーザによって表わされる1つ以上の感情についての時系列データを含み、前記ノルムは、前記電子図書館内の複数のコンテンツエントリーの前記集計行動データ中の1つ以上の感情についての平均特性を含む、請求項3〜5のうちいずれか1項に記載の方法。
- 前記平均特性は、
それぞれのメディアのすべてまたは一部中の感情値と、
他の感情値によって標準化された前記それぞれのメディアのすべてまたは一部中の感情値と、
前記それぞれのメディアのすべてまたは一部中の感情スパンと、
感情ピークの相対時間と、
感情ピークの数と、
最も高い感情ピークの値と、
感情トラフの相対時間と、
感情トラフの数と、
最も低い感情トラフの値と、
前記それぞれのメディアのすべてまたは一部中の累積的な感情値と、
感情値の経時変化の尖度および/またはスキューと、
感情値の経時変化の増大および/または減少の持続時間と、
中間感情値の経時変化の中央値、範囲、および標準偏差と、
中間感情値の経時変化についての最大値と終値との間の相違と、
中間感情値の経時変化に基づく線形トレンドの交点および/または勾配と、
時間によって、またはデータ記録の数によって集計された時の中間感情値の百分位数分布記述子と、から成るグループから選択される、請求項6に記載の方法。 - 前記1つ以上の感情は、怒り、嫌気、無関心、悲しさ、脅え、幸せ、および驚きから成るグループから選択される、請求項6または7に記載の方法。
- 前記ノルムは、異なる感情どうしの間の相関係数を含む、請求項6〜8のうちいずれか1項に記載の方法。
- 分析のための集計行動データについて前記電子図書館において新しいコンテンツエントリーを作成することと、前記新しいコンテンツエントリーが作成された後で前記ノルムを再計算することとを含む、請求項6〜9のうちいずれか1項に記載の方法。
- 出力は、前記分析のための集計行動データの、前記電子図書館における複数のコンテンツエントリーの集計行動データとの図形比較を示す表示を含む、いずれかの先行する請求項に記載の方法。
- 出力は、前記分析サーバから送信される、いずれかの先行する請求項に記載の方法。
- 統計的に有意な類似性または相違を識別することは、前記分析のための集計行動データが、所定のしきい値より大きな量だけ前記複数のコンテンツエントリーのうち1つ以上の前記集計行動データから外れているかどうか判定することを含む、いずれかの先行する請求項に記載の方法。
- 統計的に有意な類似性または相違を識別することは、学習されたモデルに基づく、いずれかの先行する請求項に記載の方法。
- メディアコンテンツのインパクトを分析するコンピュータ実施方法であって、前記方法は、
分析されるべき1つのメディアコンテンツに関連する複数の個別行動データ記録を分析サーバにおいて受信することを含み、前記複数の個別行動データ記録の各々は、前記分析されるべき1つのメディアコンテンツの再生中にコンピュータユーザから取得され、前記複数の個別行動データ記録の各々は、1つ以上の分析次元によって表現可能な行動データ
を含み、前記方法はさらに、
前記分析サーバにおいてコンピュータ読取可能命令を実行して、前記分析サーバに、
前記受信された複数の個別行動データ記録を、複数の行動データ分析サブグループに分割するステップであって、前記複数の行動データ分析サブグループの各々は、前記分析次元のうち1つ以上において所定の特性を呈示する個別行動データ記録を有するステップと、
前記複数の行動データ分析サブグループの各々について前記個別行動データ記録における前記行動データを集計するステップと、
前記複数の行動データ分析サブグループの前記集計行動データ間の統計的に有意な相違を識別するステップと、
前記識別された統計的に有意な相違に基づいて、前記分析次元内の前記1つのメディアコンテンツの相対的なインパクトを示す出力を生成するステップと、を行わせることを含む、方法。 - 前記分析サーバは、前記複数の個別行動データ記録の前記集計行動データから1つ以上のノルムを抽出するステップを行い、前記複数の行動データ分析サブグループの前記集計行動データ間の統計的に有意な相違を識別するステップは、前記複数の行動データ分析サブグループの前記集計行動データを、前記抽出されたノルムと比較することを含む、請求項15に記載の方法。
- 前記分析サーバは、
前記複数の個別行動データ記録における行動データと前記1つ以上の分析次元との間の1つ以上の相関関係を検出するステップと、
前記受信された複数の個別行動データ記録を、前記検出された1つ以上の相関関係に基づいて、複数の行動データ分析サブグループにセグメント化するステップと、を行う、いずれかの先行する請求項に記載の方法。 - 前記検出するステップは、クラスタアルゴリズムおよび/またはスペクトル分析を適用する、請求項17に記載の方法。
- コンピュータプログラムコードがその上に記憶されたコンピュータ読取可能記憶媒体を含むコンピュータプログラム製品であって、コンピューティング装置によって実行されると、メディアコンテンツの項目のインパクトをベンチマークする方法を前記コンピューティング装置に行わせ、前記コンピュータプログラム製品は、
複数の個別行動データ記録を集計して、分析のための集計行動データを形成するプログラムコードと、
1つ以上の分析次元のコンテキストにおいて、前記分析のための集計行動データを、電子図書館に記憶されている複数のコンテンツエントリーの集計行動データと比較するためのプログラムコードと、
前記分析のための集計行動データと前記複数のコンテンツエントリーのうち1つ以上の前記集計行動データとの間の統計的に有意な類似性または相違を識別するためのプログラムコードと、
前記複数のコンテンツエントリーのうち1つ以上に関して分析されるべきメディアコンテンツの項目をベンチマークする前記識別された統計的に有意な類似性または相違に基づいて出力を生成するためのプログラムコードとを含む、コンピュータプログラム製品。 - コンピュータプログラムコードがその上に記憶されたコンピュータ読取可能記憶媒体を含むコンピュータプログラム製品であって、コンピューティング装置によって実行されると、メディアコンテンツのインパクトをベンチマークする方法を前記コンピューティング装置に行わせ、前記コンピュータプログラム製品は、
複数の個別行動データ記録を、複数の行動データ分析サブグループに分割するためのプログラムコードを含み、前記複数の行動データ分析サブグループの各々は、前記分析次元のうち1つ以上において所定の特性を呈示する個別行動データ記録を有し、さらに、
前記複数の行動データ分析サブグループの各々について前記個別行動データ記録における前記行動データを集計するためのプログラムコードと、
前記複数の行動データ分析サブグループの前記集計行動データ間の統計的に有意な相違を識別するためのプログラムコードと、
前記分析次元内の前記1つのメディアコンテンツの相対的なインパクトを示す前記識別された統計的に有意な相違に基づく出力を生成するためのプログラムコードと、を含む、コンピュータプログラム製品。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB1320485.4A GB201320485D0 (en) | 2013-11-20 | 2013-11-20 | Method of benchmarking media content based on viewer behaviour |
GB1320485.4 | 2013-11-20 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016532552A Division JP6669652B2 (ja) | 2013-11-20 | 2014-11-18 | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019091487A true JP2019091487A (ja) | 2019-06-13 |
JP6661036B2 JP6661036B2 (ja) | 2020-03-11 |
Family
ID=49883906
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016532552A Active JP6669652B2 (ja) | 2013-11-20 | 2014-11-18 | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 |
JP2019019771A Active JP6661036B2 (ja) | 2013-11-20 | 2019-02-06 | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016532552A Active JP6669652B2 (ja) | 2013-11-20 | 2014-11-18 | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10325145B2 (ja) |
EP (1) | EP3072091A1 (ja) |
JP (2) | JP6669652B2 (ja) |
CN (1) | CN105765611A (ja) |
GB (1) | GB201320485D0 (ja) |
WO (1) | WO2015075035A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10481749B1 (en) | 2014-12-01 | 2019-11-19 | Google Llc | Identifying and rendering content relevant to a user's current mental state and context |
GB201520398D0 (en) | 2015-11-19 | 2016-01-06 | Realeyes Oü | Method and apparatus for immediate prediction of performance of media content |
US10652480B2 (en) | 2016-02-23 | 2020-05-12 | Essilor International | Display exposure monitoring module |
US10339508B1 (en) | 2018-02-12 | 2019-07-02 | Capital One Services, Llc | Methods for determining user experience (UX) effectiveness of ATMs |
US11645578B2 (en) | 2019-11-18 | 2023-05-09 | International Business Machines Corporation | Interactive content mobility and open world movie production |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146283A (ja) * | 2006-12-08 | 2008-06-26 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2010520553A (ja) * | 2007-03-07 | 2010-06-10 | エムセンス コーポレイション | メディア性能の基準として生物的反応の一致性を利用する方法及びシステム |
JP2010218491A (ja) * | 2009-03-19 | 2010-09-30 | Nomura Research Institute Ltd | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4064590B2 (ja) * | 1999-06-10 | 2008-03-19 | 三菱電機株式会社 | 放送番組録画装置 |
US20050021397A1 (en) | 2003-07-22 | 2005-01-27 | Cui Yingwei Claire | Content-targeted advertising using collected user behavior data |
WO2009059246A1 (en) | 2007-10-31 | 2009-05-07 | Emsense Corporation | Systems and methods providing en mass collection and centralized processing of physiological responses from viewers |
US8850328B2 (en) * | 2009-08-20 | 2014-09-30 | Genesismedia Llc | Networked profiling and multimedia content targeting system |
KR101708682B1 (ko) * | 2010-03-03 | 2017-02-21 | 엘지전자 주식회사 | 영상표시장치 및 그 동작 방법. |
US20130238394A1 (en) | 2010-06-07 | 2013-09-12 | Affectiva, Inc. | Sales projections based on mental states |
BR112013021503A2 (pt) | 2011-02-27 | 2018-06-12 | Affectiva Inc | método implantado em computador para recomendações baseadas em afeto; produto de programa de computador incorporado a um meio legível por computador; sistema de computador para recomendações baseadas em afeto; e método implantado em computador para classificação com base em afeto |
US20130110565A1 (en) * | 2011-04-25 | 2013-05-02 | Transparency Sciences, Llc | System, Method and Computer Program Product for Distributed User Activity Management |
JP2013070155A (ja) * | 2011-09-21 | 2013-04-18 | Nec Casio Mobile Communications Ltd | 動画スコアリングシステム、サーバ装置、動画スコアリング方法、動画スコアリングプログラム |
US20130238396A1 (en) | 2012-03-06 | 2013-09-12 | Jukka SAPPINEN | Method, system and apparatus for designing assessment report |
JP2013218638A (ja) | 2012-04-12 | 2013-10-24 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ配信システムおよびリコメンド方法 |
US9769512B2 (en) * | 2012-11-08 | 2017-09-19 | Time Warner Cable Enterprises Llc | System and method for delivering media based on viewer behavior |
US20140298364A1 (en) * | 2013-03-26 | 2014-10-02 | Rawllin International Inc. | Recommendations for media content based on emotion |
-
2013
- 2013-11-20 GB GBGB1320485.4A patent/GB201320485D0/en not_active Ceased
-
2014
- 2014-11-18 WO PCT/EP2014/074923 patent/WO2015075035A1/en active Application Filing
- 2014-11-18 US US15/037,675 patent/US10325145B2/en active Active
- 2014-11-18 EP EP14809302.4A patent/EP3072091A1/en not_active Withdrawn
- 2014-11-18 CN CN201480063448.6A patent/CN105765611A/zh active Pending
- 2014-11-18 JP JP2016532552A patent/JP6669652B2/ja active Active
-
2019
- 2019-02-06 JP JP2019019771A patent/JP6661036B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008146283A (ja) * | 2006-12-08 | 2008-06-26 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
JP2010520553A (ja) * | 2007-03-07 | 2010-06-10 | エムセンス コーポレイション | メディア性能の基準として生物的反応の一致性を利用する方法及びシステム |
JP2010218491A (ja) * | 2009-03-19 | 2010-09-30 | Nomura Research Institute Ltd | コンテンツ配信システム、コンテンツ配信方法及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2017503380A (ja) | 2017-01-26 |
WO2015075035A1 (en) | 2015-05-28 |
JP6669652B2 (ja) | 2020-03-18 |
US10325145B2 (en) | 2019-06-18 |
EP3072091A1 (en) | 2016-09-28 |
JP6661036B2 (ja) | 2020-03-11 |
CN105765611A (zh) | 2016-07-13 |
GB201320485D0 (en) | 2014-01-01 |
US20160300102A1 (en) | 2016-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6661036B2 (ja) | 閲覧者行動に基づいてメディアコンテンツをベンチマークする方法 | |
US9805098B2 (en) | Method for learning a latent interest taxonomy from multimedia metadata | |
US9715731B2 (en) | Selecting a high valence representative image | |
US10423512B2 (en) | Method of collecting and processing computer user data during interaction with web-based content | |
JP6821149B2 (ja) | 広告配信のための動画使用情報処理 | |
US11914639B2 (en) | Multimedia resource matching method and apparatus, storage medium, and electronic apparatus | |
JP6807389B2 (ja) | メディアコンテンツのパフォーマンスの即時予測のための方法及び装置 | |
CN109511015B (zh) | 多媒体资源推荐方法、装置、存储介质及设备 | |
US20190303499A1 (en) | Systems and methods for determining video content relevance | |
US10397661B2 (en) | Video frame selection for targeted content | |
WO2013095923A1 (en) | Utilizing real-time metrics to normalize an advertisement based on consumer reaction | |
US20150235264A1 (en) | Automatic entity detection and presentation of related content | |
CN108476336B (zh) | 识别内容频道的听众的查看特性 | |
Yang et al. | Zapping index: using smile to measure advertisement zapping likelihood | |
CN113506124B (zh) | 一种智慧商圈中媒体广告投放效果的评价方法 | |
TW201502999A (zh) | 一種行為辨識及追蹤系統 | |
CN112650884B (zh) | 基于深度学习的视频推送方法 | |
CN117956232A (zh) | 一种视频推荐方法及装置 | |
Sumalatha et al. | Recommending You Tube Videos based on their Content Efficiently |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190208 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6661036 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |