JP7111711B2 - メディアコンテンツ成果の予測のためのデータ処理方法 - Google Patents
メディアコンテンツ成果の予測のためのデータ処理方法 Download PDFInfo
- Publication number
- JP7111711B2 JP7111711B2 JP2019529561A JP2019529561A JP7111711B2 JP 7111711 B2 JP7111711 B2 JP 7111711B2 JP 2019529561 A JP2019529561 A JP 2019529561A JP 2019529561 A JP2019529561 A JP 2019529561A JP 7111711 B2 JP7111711 B2 JP 7111711B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- media content
- computer
- implemented method
- emotional state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/48—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/489—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0242—Determining effectiveness of advertisements
- G06Q30/0244—Optimization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0255—Targeted advertisements based on user history
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0269—Targeted advertisements based on user profile or attribute
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
生の入力データは、それぞれのクライアント装置それぞれで捕捉された画像データであってもよい。画像データは、ユーザの顔の画像を示す複数の画像フレームを含んでもよい。さらに、画像データは、ユーザの顔の画像を示す時系列の画像フレームを含んでもよい。
この実施例では、有給参加者の国勢調査ベースのパネル(平均的パネルサイズは277被験者)が第三者現場機関により6か国で採用されている。すべての被験者は、市場調査目的で取り組まれることに許可を出しており、特定のパネル(サンプル)が必要なときに使用される人口統計データを提供する。記録に先立ち、各被験者は、顔を記録することおよびさらなる分析にその記録を使用することを許可している。市場調査の分野の標準的倫理基準に従う。参加者の反応は、各家庭のコンピュータおよびウェブカムを経由して遠隔に記録される。この方法でビデオを見るよう要求することは、感情反応を引き出すために良く検証された手順である。自発行動に対する暗黙の証拠は、参加者が、記録されていることをよく忘れて、部屋を離れる、または話をする、食事をするなど、無関係な活動に従事するようになることである。
初段階では、収集した生データを4つの方法で処理する。第1に、広告の持続期間(最大差異を1.5秒に設定)と合わない記録は、処分される。これらは、ウェブカムが、広告が完了した後に起こったユーザの反応を記録した可能性がある記録である。その後のフレームのいずれかの間の遅れが2秒より長い場合の記録も、除外される。これらは、広告を参加者に届ける際に遅れを引き起こすネットワーク接続問題があった可能性がある記録である。第2に、カラーフレームをグレースケールの輝度に変換する。第3に、顔の特徴を抽出して、感情検出のため分類子に入力する。第4に、抽出された顔の特徴ならびに感情アルゴリズムの出力を使用して、予測モデリングに対する時系列信号を形成する。
1.頭部ポーズ推定量および顔の表情の分類子から取得された各時系列に対して、所与の記録中のその後のフレームの間の時間差を計算する(トレンド除去)。
2.ステップ1からの時間差を、その時系列に対する平均差を引くことによって正規化する。すなわち、
3.そして、時系列は、所定の持続期間(例えば、4秒)を有する複数のタイムビンに区分される。したがって、タイムビンは、フレームレートまたは全体の記録持続期間に関わらず、各記録に対する時間のセグメントを表す。
6.異なる持続期間の広告に対する特徴を比較可能にするため、結果としての合計を所与の広告の長さによって正規化する。
サンプルサイズが制限され、潜在的なラベルノイズがあることでモデリングが難しくなり、または使用されたアプローチが高い場合、不可能でさえある。本実施例は、以下の仮定を用いて平均化する単純なアンサンブルモデルを使用する。すなわち、(1)信号を独立したものとして扱い、信号の間の、投票をアンサンブルモデルに要約することができる、単なる(弱い)専門家をトレーニングすることを可能にする、高次相互作用を考慮しない。(2)線形の関係が信号と目標スコアの間に求められ、非直線性が閾値によって誘導される(個々の専門家の出力の二値化)。こうした閾値は、信号のノイズ処理を支持する。本実施例で使用されたモデルのワークフローを図5に示す。
McDuffの研究では、選択の分類子は、ラジアル基底関数を用いたサポートベクターマシンカーネル(RBF-SVM)である。照準後、決定境界が、両方のクラスから区別することが最も難しい場合である、「サポートベクタ」により表される。この方法の欠点は、要求されるサンプルのサイズが、表現次第であることである。サンプルのサイズにわたるサポートベクタの高比率は、要求に合わないことを示し、結果のモデルは、見えないデータ上に大きい凡化誤差を持つ。McDuffの研究の前身では、時系列を10個の部分に区分し、簡易統計(最大、平均、最小)を各セグメントで計算する。そして、結果の高寸法表現をSVM分類子に入力する。McDuffの研究自体では、分割は、除外され、同じ簡易統計を全体の時系列の顔の表情予測にわたって計算する(AUの存在、所与の不連続の表情の強度など)。結果の表現は、まだ16の寸法を有する。
検定結果は、まずすべてのコマーシャル、国および製品カテゴリにわたり報告される。そして、結果は、よりきめ細かい比較に対して報告される。これらは、(1)サンプルコマーシャル間の相関のため、いずれのバイアスも取り除くが、減らした数のコマーシャルに影響されうる関連するコマーシャルの単一の変形だけを含み、(2)製品カテゴリと国との間を区別する、モデルである。
提案されたモデルは、製品カテゴリまたは国に関係なく、すべてのコマーシャル(N=147)に関して訓練され、交差検証される。ROC AUCは、0.747で、高信頼性を示すたった±0.025の狭い確信間隔である。表2を参照。
効果を、Accuracy関数およびROC AUCで表す。適切な場合、確信間隔を同様に95%の確信で報告する。
動的モデルを訓練し、変形(N=116)を含まずに交差検証したとき、ROC AUCは、同じままであり、確信間隔は、±0.025から±0.01に減少した。この設定では、各広告グループのいくつかの選択肢の中から1つの変形だけを保持した。無作為選択によるバイアスに対抗するため、無作為広告選択を10回繰り返し、各無作為選択に対し10分割CVを実行する。表3を参照。
(サンプルサイズN=116)
効果を、Accuracy関数およびROC AUCで表す。適切な場合、確信間隔を同様に95%の確信で報告する。
どれだけうまくモデルが、訓練一般化するかをテストするため、検定手順を以下のように修正する。訓練は、すべてに関して行われるが、1つの製品カテゴリのみであり、それに関する検定は省かれ、その後、各カテゴリに対し繰り返し訓練および検定を反復する。これを、リーブワンラベルアウト交差検証(LOLO検証)と呼ぶ。同様に、同一反復LOLOを国に対して実行してもよい。
検証スキームはLOLOであり、訓練フォールドは、検定広告が属するカテゴリからの標本を含まない。低の数および高の数は、それぞれ、低および高効果クラスの標本の数を示す。
検証スキームはLOLOであり、訓練フォールドは、検定広告が属する地域からの標本を含まない。低の数および高の数は、それぞれ、低および高効果クラスの標本の数を示す。
McDuffの研究に提案されたアプローチおよび本明細書に提示されたモデルは両方とも、同じ国の4つの同じ製品カテゴリに対する被験者の反応のウェブカムの評価を伴う。両方のケースで、セールスリフトデータを同じソースから取得している。両方のケースで、結果を、ROC AUCで数値化しているが、McDuffの研究ではLOO検証だけが報告されている。一方で、本実施例は、繰り返された10分割交差検証を報告している。アプローチの間の2つの主要な相違は、データおよび適用された分類モデルを表す特性である。その他の態様においても異なる2つのアプローチは、特徴、製品、または国も種類に関係しない。コマーシャルの数(実施例のモデルではさらに少ない)および視聴期間(より最近および実施例のモデルでは数年にわたる)などのこれらの相違ならびにその他の手順の態様は、特徴の種類に関係しない。
上記の注意を念頭において、分類効果に関する特徴の影響を報告する。静的アプローチに関する過去の報告との比較に役立つように、同じRBF-SVMをこの研究で提案された特徴のセットに関して訓練する。表6では、McDuffの信号に対する結果ならびに上述の実施例の信号の結果を伝える。特徴は、McDuffの研究で使用されたものと全く同じではないものの、似ている(例えば、実際は、ほほえみなどのその他の分類子の起動から得られた「誘発性」の指標は、例示的な嫌悪の分類子の出力に置き換えられ、まゆを上げるのは、我々自身の驚きの分類子によって置き換えられる)。
分類子は、非線形動径基底関数カーネルと同じSVMである。この比較はまた、頭部ポーズと顔の表情の情報の補完的な性質を示す。
Claims (19)
- クライアント装置でユーザが消費することができる1つのメディアコンテンツの効果データを予測する、コンピュータにより実行される方法であって、
前記メディアコンテンツの消費中に前記メディアコンテンツに対するユーザの反応を示す生の入力データを前記クライアント装置で収集することと、
前記収集した生の入力データを処理して、
時系列の記述子データポイントを抽出することと、
時系列の感情状態のデータポイントを取得することと、
効果データと前記時系列の記述子データポイントまたは前記時系列の感情状態のデータポイントの予測パラメータとの間をマッピングする分類モデルに基づいて前記メディアコンテンツの予測効果データを出力することと、を含み、
前記予測パラメータが、前記メディアコンテンツに対する前記ユーザの反応の相対的変化の定量的指標であり、
前記メディアコンテンツを、それぞれがそれぞれのクライアント装置にいる、複数のユーザが消費することができ、前記方法が、複数の前記それぞれのクライアント装置それぞれで、前記メディアコンテンツに対する複数のユーザの反応を示す生の入力データを収集することをさらに含み、
前記複数のユーザそれぞれの前記時系列の記述子データポイントまたは前記時系列の感情状態のデータポイントからの個々の予測パラメータを決定することと、
前記複数のユーザの前記個々の予測パラメータからグループ予測パラメータを決定することと、をさらに含み、
前記予測効果データが、前記グループ予測パラメータを使用して取得される、コンピュータにより実行される方法。 - 前記収集した生の入力データを処理する前記ステップが、
前記予測パラメータを判定することと、
線形回帰を前記予測パラメータに加えて、線形回帰出力を出力することと、
前記線形回帰出力を二値化して、二値化出力を生成することと、
ロジスティック回帰を前記二値化出力に加えて、前記予測効果データを出力することと、をさらに含む、請求項1に記載のコンピュータにより実行される方法。 - 前記抽出された時系列の前記記述子データポイント間または前記時系列の感情状態のデータポイント間の時間差
を計算することとであって、そこでは、
であり、式中、xj(t)は、ユーザjの前記抽出された記述子データポイントまたは前記抽出された感情状態データの時系列の定量的パラメータxである、前記計算することと、
前記時間差を正規化して、平均差<dxj>を前記時間差
から引くことにより正規化された時間差
を作成することであって、
そこでは、
であり、Tは、前記時系列の持続期間である、前記作成することと、
前記時系列を所定の持続時間を有する複数のタイムビンに分割することと、
にしたがって、前記正規化された差異の最大値を計算することであって、式中、表記i∈kは、i番目の値がビンkに含まれることを意味する、前記計算することと、
にしたがって、前記複数のタイムビンそれぞれの前記値を加重し、合計することであって、式中nは、ビンの数であり、したがって、変数のフレームまたはセグメントインデック
スは、もはやない、前記合計することと、
前記メディアコンテンツの長さによってDxjを正規化することと、
前記複数のユーザにわたって前記予測パラメータを示す記述統計を生成することと、をさらに含む、請求項1に記載のコンピュータにより実行される方法。 - 前記クライアント装置が、ネットワーク上でサーバ装置と通信可能であり、前記収集した生の入力データの処理が、前記サーバ装置で起こる、請求項1に記載のコンピュータにより実行される方法。
- 前記生の入力データが、ユーザの行動データ、ユーザの生理学的データまたは前記メディアコンテンツに関連するメタデータのうちのいずれかを含む、請求項1に記載のコンピュータにより実行される方法。
- 各感情状態のデータポイントが、1つまたは複数の記述子データポイントに基づいて決定される、請求項1に記載のコンピュータにより実行される方法。
- 各記述子データポイントが、前記生の入力データから抽出された特徴を示す定量的パラメータを含む、請求項6に記載のコンピュータにより実行される方法。
- 前記予測パラメータが、前記時系列の感情状態のデータポイント中の隣接する感情状態のデータポイント間の前記定量的パラメータの相対的変化の関数である、請求項7に記載のコンピュータにより実行される方法。
- 各感情状態のデータポイントが、ユーザの感情状態を示す定量的パラメータを含む、請求項1に記載のコンピュータにより実行される方法。
- 前記予測パラメータが、前記時系列の感情状態のデータポイント中の隣接する感情状態のデータポイント間の前記定量的パラメータの相対的変化の関数である、請求項9に記載のコンピュータにより実行される方法。
- 前記収集したデータを処理することが、前記グループ予測パラメータを前記グループ予測パラメータと前記効果データとの間をマッピングする分類モデルに入力することを含む、請求項10に記載のコンピュータにより実行される方法。
- 複数のグループ予測パラメータを取得することをさらに含み、前記分類モデルが、前記複数のグループ予測パラメータと前記効果データとの間をマッピングする、請求項11に記載のコンピュータにより実行される方法。
- 前記予測効果データ出力が、前記分類モデルの結果出力を使用して生成される、請求項11に記載のコンピュータにより実行される方法。
- 前記生の入力データが、前記クライアント装置で捕捉された画像データを含む、請求項1に記載のコンピュータにより実行される方法。
- 前記画像データが、ユーザの顔の画像を示す複数の画像フレームを含む、請求項14に記載のコンピュータにより実行される方法。
- 各記述子データポイントが、多次元データポイントである顔の特徴の記述子データポイントであり、前記多次元データポイントの各構成要素が、それぞれの顔の目印を表している、請求項6に記載のコンピュータにより実行される方法。
- 各顔の特徴の記述子データポイントが、それぞれのフレームと関連付けられる、請求項16に記載のコンピュータにより実行される方法。
- 前記メディアコンテンツが、ライブ映像ストリーム、ビデオコマーシャル、音声コマーシャル、映画の予告編、映画、ウェブ広告、アニメーションゲーム、または画像のうちのいずれかである、請求項1に記載のコンピュータにより実行される方法。
- 前記効果データが、セールスリフトデータである、請求項1に記載のコンピュータにより実行される方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GBGB1620476.0A GB201620476D0 (en) | 2016-12-02 | 2016-12-02 | Computer-implemented method of predicting performance data |
GB1620476.0 | 2016-12-02 | ||
US15/653,051 US10540678B2 (en) | 2016-12-02 | 2017-07-18 | Data processing methods for predictions of media content performance |
US15/653,051 | 2017-07-18 | ||
PCT/EP2017/079419 WO2018099725A1 (en) | 2016-12-02 | 2017-11-16 | Data processing methods for predictions of media content performance |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020501260A JP2020501260A (ja) | 2020-01-16 |
JP7111711B2 true JP7111711B2 (ja) | 2022-08-02 |
Family
ID=58159711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019529561A Active JP7111711B2 (ja) | 2016-12-02 | 2017-11-16 | メディアコンテンツ成果の予測のためのデータ処理方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10540678B2 (ja) |
EP (1) | EP3549084A1 (ja) |
JP (1) | JP7111711B2 (ja) |
KR (1) | KR20190091488A (ja) |
CN (1) | CN110036402A (ja) |
GB (1) | GB201620476D0 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10158898B2 (en) * | 2012-07-26 | 2018-12-18 | Comcast Cable Communications, Llc | Customized options for consumption of content |
US10846613B2 (en) * | 2016-12-29 | 2020-11-24 | Disney Enterprises, Inc. | System and method for measuring and predicting content dissemination in social networks |
US10733453B2 (en) * | 2017-06-07 | 2020-08-04 | Silveredge Technologies Pvt. Ltd. | Method and system for supervised detection of televised video ads in live stream media content |
US10719714B2 (en) * | 2017-06-07 | 2020-07-21 | Silveredge Technologies Pvt. Ltd. | Method and system for adaptively reducing detection time in real-time supervised detection of televised advertisements |
US11176484B1 (en) * | 2017-09-05 | 2021-11-16 | Amazon Technologies, Inc. | Artificial intelligence system for modeling emotions elicited by videos |
GB2571956B (en) * | 2018-03-14 | 2022-04-27 | Sony Interactive Entertainment Inc | Head-mountable apparatus and methods |
US11537428B2 (en) | 2018-05-17 | 2022-12-27 | Spotify Ab | Asynchronous execution of creative generator and trafficking workflows and components therefor |
US11403663B2 (en) * | 2018-05-17 | 2022-08-02 | Spotify Ab | Ad preference embedding model and lookalike generation engine |
US20190355372A1 (en) | 2018-05-17 | 2019-11-21 | Spotify Ab | Automated voiceover mixing and components therefor |
US10986686B2 (en) * | 2019-07-11 | 2021-04-20 | International Business Machines Corporation | Offline device management |
CN110988804B (zh) * | 2019-11-11 | 2022-01-25 | 浙江大学 | 一种基于雷达脉冲序列的雷达辐射源个体识别系统 |
CN110992101A (zh) * | 2019-12-05 | 2020-04-10 | 中国铁道科学研究院集团有限公司电子计算技术研究所 | 车站广告媒体资源价值及收益预测回归方法及预测模型 |
US20220067754A1 (en) * | 2020-08-27 | 2022-03-03 | Coupang Corporation | Computerized systems and methods for predicting a minimum detectable effect |
US11861538B1 (en) * | 2020-09-23 | 2024-01-02 | Amazon Technologies, Inc. | Optimization techniques for content presentation strategies |
IT202100007499A1 (it) * | 2021-03-26 | 2022-09-26 | Enkeli Customer Partner S R L | Architettura di rete telematica ibrida dedicata a dei processi di estrazione e di valutazione delle opinioni per mezzo dell’expression analisys e relativa elettronica e software che ne fanno parte |
CN113077295B (zh) * | 2021-04-21 | 2022-02-15 | 深圳市东信时代信息技术有限公司 | 基于用户终端的广告分级投放方法、用户终端和存储介质 |
KR102561335B1 (ko) * | 2021-10-21 | 2023-07-28 | 이화여자대학교 산학협력단 | 네트워크 데이터 분석을 위한 메타 디스크립션 변환 방법 및 그를 이용한 네트워크 분석 장치 |
KR102662258B1 (ko) * | 2023-06-21 | 2024-04-30 | (주) 와일리 | 자율학습 기반 광고캠페인 추천 서비스 제공 시스템 |
CN116843388B (zh) * | 2023-08-29 | 2023-11-17 | 新义互联(北京)科技有限公司 | 一种广告投放分析方法及系统 |
CN117196734B (zh) * | 2023-09-14 | 2024-03-22 | 长沙理工大学 | 一种众包任务的价值评估方法、系统、设备及存储介质 |
CN117077030B (zh) * | 2023-10-16 | 2024-01-26 | 易停车物联网科技(成都)有限公司 | 一种面向生成模型的少样本视频流分类方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008205861A (ja) | 2007-02-20 | 2008-09-04 | Matsushita Electric Ind Co Ltd | 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体 |
JP2011507055A (ja) | 2007-11-14 | 2011-03-03 | クゥアルコム・インコーポレイテッド | 移動環境方法および移動環境システムにおけるユーザ・プロファイル・マッチ表示 |
JP2011239158A (ja) | 2010-05-10 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | ユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラム |
US20140040019A1 (en) | 2012-08-03 | 2014-02-06 | Hulu, LLC | Predictive video advertising effectiveness analysis |
US20160191995A1 (en) | 2011-09-30 | 2016-06-30 | Affectiva, Inc. | Image analysis for attendance query evaluation |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3650572B2 (ja) * | 2000-07-07 | 2005-05-18 | 日本電信電話株式会社 | 時系列データの分類装置 |
CN101506874B (zh) * | 2006-09-13 | 2011-12-07 | 日本电信电话株式会社 | 情感检测方法、情感检测装置 |
US20080295126A1 (en) * | 2007-03-06 | 2008-11-27 | Lee Hans C | Method And System For Creating An Aggregated View Of User Response Over Time-Variant Media Using Physiological Data |
US10111611B2 (en) * | 2010-06-07 | 2018-10-30 | Affectiva, Inc. | Personal emotional profile generation |
US11269891B2 (en) * | 2014-08-21 | 2022-03-08 | Affectomatics Ltd. | Crowd-based scores for experiences from measurements of affective response |
GB201415428D0 (en) | 2014-09-01 | 2014-10-15 | Realeyes O | Method of targeting web-based advertisements |
-
2016
- 2016-12-02 GB GBGB1620476.0A patent/GB201620476D0/en not_active Ceased
-
2017
- 2017-07-18 US US15/653,051 patent/US10540678B2/en active Active
- 2017-11-16 CN CN201780074698.3A patent/CN110036402A/zh not_active Withdrawn
- 2017-11-16 EP EP17798219.6A patent/EP3549084A1/en not_active Withdrawn
- 2017-11-16 KR KR1020197018920A patent/KR20190091488A/ko unknown
- 2017-11-16 JP JP2019529561A patent/JP7111711B2/ja active Active
-
2019
- 2019-12-20 US US16/723,326 patent/US20200126111A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008205861A (ja) | 2007-02-20 | 2008-09-04 | Matsushita Electric Ind Co Ltd | 視聴質判定装置、視聴質判定方法、視聴質判定プログラム、および記録媒体 |
JP2011507055A (ja) | 2007-11-14 | 2011-03-03 | クゥアルコム・インコーポレイテッド | 移動環境方法および移動環境システムにおけるユーザ・プロファイル・マッチ表示 |
JP2011239158A (ja) | 2010-05-10 | 2011-11-24 | Nippon Hoso Kyokai <Nhk> | ユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラム |
US20160191995A1 (en) | 2011-09-30 | 2016-06-30 | Affectiva, Inc. | Image analysis for attendance query evaluation |
US20140040019A1 (en) | 2012-08-03 | 2014-02-06 | Hulu, LLC | Predictive video advertising effectiveness analysis |
Non-Patent Citations (1)
Title |
---|
野宮 浩揮,顔特徴量の有効性推定に基づく特徴抽出による表情認識,知能と情報 第23巻 第2号 ,日本知能情報ファジィ学会,2011年04月15日,pp.170-185 |
Also Published As
Publication number | Publication date |
---|---|
GB201620476D0 (en) | 2017-01-18 |
US20200126111A1 (en) | 2020-04-23 |
EP3549084A1 (en) | 2019-10-09 |
CN110036402A (zh) | 2019-07-19 |
US10540678B2 (en) | 2020-01-21 |
US20180158093A1 (en) | 2018-06-07 |
KR20190091488A (ko) | 2019-08-06 |
JP2020501260A (ja) | 2020-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7111711B2 (ja) | メディアコンテンツ成果の予測のためのデータ処理方法 | |
US11887352B2 (en) | Live streaming analytics within a shared digital environment | |
US11232290B2 (en) | Image analysis using sub-sectional component evaluation to augment classifier usage | |
US11430260B2 (en) | Electronic display viewing verification | |
US10573313B2 (en) | Audio analysis learning with video data | |
US20190034706A1 (en) | Facial tracking with classifiers for query evaluation | |
US11056225B2 (en) | Analytics for livestreaming based on image analysis within a shared digital environment | |
US20170330029A1 (en) | Computer based convolutional processing for image analysis | |
US10019653B2 (en) | Method and system for predicting personality traits, capabilities and suggested interactions from images of a person | |
US20190172458A1 (en) | Speech analysis for cross-language mental state identification | |
US10401860B2 (en) | Image analysis for two-sided data hub | |
US20170238860A1 (en) | Mental state mood analysis using heart rate collection based on video imagery | |
US20120259240A1 (en) | Method and System for Assessing and Measuring Emotional Intensity to a Stimulus | |
US20170095192A1 (en) | Mental state analysis using web servers | |
JP6807389B2 (ja) | メディアコンテンツのパフォーマンスの即時予測のための方法及び装置 | |
US20150313530A1 (en) | Mental state event definition generation | |
US11430561B2 (en) | Remote computing analysis for cognitive state data metrics | |
Lin et al. | Looking at the body: Automatic analysis of body gestures and self-adaptors in psychological distress | |
WO2018099725A1 (en) | Data processing methods for predictions of media content performance | |
Szirtes et al. | Behavioral cues help predict impact of advertising on future sales | |
McDuff | Affective Storytelling: Automatic Measurement of Story Effectiveness from Emotional Responses Collected over the Internet | |
AU2021100211A4 (en) | Predict Gender: Detect Faces and Predict their Gender, Age and Country Using Machine Learning Programming | |
Mathur et al. | Towards Intercultural Affect Recognition: Audio-Visual Affect Recognition in the Wild Across Six Cultures | |
Moreno et al. | Expresso-AI: An Explainable Video-Based Deep Learning Models for Depression Diagnosis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220721 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7111711 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |