JP2015008461A - ビデオにおいて仮想オブジェクトを挿入する方法及び装置並びにコンピュータ可読媒体 - Google Patents

ビデオにおいて仮想オブジェクトを挿入する方法及び装置並びにコンピュータ可読媒体 Download PDF

Info

Publication number
JP2015008461A
JP2015008461A JP2014127040A JP2014127040A JP2015008461A JP 2015008461 A JP2015008461 A JP 2015008461A JP 2014127040 A JP2014127040 A JP 2014127040A JP 2014127040 A JP2014127040 A JP 2014127040A JP 2015008461 A JP2015008461 A JP 2015008461A
Authority
JP
Japan
Prior art keywords
video
virtual object
image
saliency map
saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014127040A
Other languages
English (en)
Inventor
ヘリエ ピエール
Hellier Pierre
ヘリエ ピエール
シャマレ クリステル
Christel Chamaret
シャマレ クリステル
オワゼル ライオネル
Oisel Lionel
オワゼル ライオネル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2015008461A publication Critical patent/JP2015008461A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/2723Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement

Abstract

【課題】ビデオにおいて仮想オブジェクトを挿入する方法及び装置について記載する。
【解決手段】方法は、ビデオの画像におけるビューアからの注視割り当てを特性化するサリエンシーマップを利用し、該サリエンシーマップに基づきビデオの画像において仮想オブジェクトを挿入する。方法は、仮想オブジェクトの挿入(11)後にビデオの画像のサリエンシーマップを生成するステップ(12)と、挿入された仮想オブジェクトの少なくとも1つの視覚特性を調整することによってサリエンシーマップに基づき仮想オブジェクトの挿入を調整するステップ(13)とを有する。
【選択図】図1

Description

本発明は、ビデオにおけるビューアからの注視割り当てを特性化するビデオのサリエンシーマップを利用することによってビデオにおいて仮想オブジェクトを挿入する方法及び装置に関する。本発明は更に、ビデオにおいて仮想オブジェクトを挿入するそのような方法及び装置に適したコンピュータ可読媒体に関する。
視覚コンテンツの挿入は、ビデオ解析の新興の応用であり、視聴者のビューイング経験を改善するためにビデオ増補において幅広く適用されている。仮想コンテンツ挿入の1つの実用的な応用は、広告主に巨大なビジネスチャンスを提供するビデオ広告である。例えば、映像共有ウェブサイトであるYouTube(登録商標)は、時々、映像の下に商業広告のためのバナーを挿入する。
ビデオにおける仮想コンテンツ挿入のための1つの大きな課題は、その2つの相反するタスクのバランスをとることである。これは、挿入されるコンテンツをビューアによって気付かれるほど十分に目立たせながら、原コンテンツにおけるビューアのビューイング経験に干渉しないことである。仮想コンテンツをビデオストリームに挿入する従来のインストリーム挿入は、ビデオの表示の間、ビューアのビューイングを妨げる。干渉は、ビデオの始まり又は終わりに仮想コンテンツを挿入することによって低減され得るが、挿入されたコンテンツは、場合により、ビューアによってスキップされ回避される。仮想コンテンツをビデオフレーム内に挿入するインビデオ挿入は、より有効な挿入のための他の選択肢である。それはオーバレイ挿入、すなわち、仮想コンテンツが原コンテンツ上に流れ、あるいは、仮想コンテンツがビデオに埋め込まれるインシーン挿入であり得る。いずれの方法も、ビデオフレーム内に適切なタイミング及び位置で仮想コンテンツを挿入する可能性を提供する。
自動的なインビデオ挿入のためのアプローチ及びシステムは、有効な挿入を達成しながら同時にビューアに対する干渉を最小限にするために検討されてきた。1つの有用なツールは、ビデオにおけるビューアからの注視割り当てを予測し解析するビデオのための視覚的注意解析、すなわち、サリエンシー解析(saliency analysis)である。一般的に、サリエンシー解析は、いつどこで仮想コンテンツをビデオにおいて挿入すべきかを決定するよう挿入前に行われる。興味をそそる場面が通常は挿入時点として選択され、最も低い顕著性を有するビデオフレーム内の興味をそそられない領域は、ビューアに対する干渉を低減するために挿入場所として選択される。しかし、これは、ビューアが原コンテンツに集中し、挿入された仮想オブジェクトを無視するという挿入の有効性を低減し得る。加えて、サリエンシー解析は挿入前に遂行されるので、挿入結果は見直されず、挿入の品質は悪いことがある。
従って、本発明は、挿入が十分に顕示的でありながらビューアにとって過度に煩わしくないようにビデオにおいて仮想オブジェクトを挿入する改善された解決法を提案することを目的とする。
本発明の第1の態様に従って、ビデオにおける仮想オブジェクトの挿入方法であって、前記ビデオの画像におけるビューアからの注視割り当てを特性化するサリエンシーマップを利用し、該サリエンシーマップに基づき前記ビデオの前記画像において前記仮想オブジェクトを挿入する方法は、前記仮想オブジェクトの挿入後に前記ビデオの前記画像のサリエンシーマップを生成し、挿入された前記仮想オブジェクトの少なくとも1つの視覚特性を調整することによって前記サリエンシーマップに基づき前記仮想オブジェクトの挿入を調整することを特徴とする。
然るに、ビデオにおいて仮想オブジェクトを挿入するよう構成される装置は、ビデオの画像において仮想オブジェクトを挿入する挿入モジュールと、前記ビデオの前記画像のサリエンシーマップを生成するサリエンシーモジュールであって、前記サリエンシーマップが前記仮想オブジェクトの挿入後に当該サリエンシーモジュールによって生成される、前記サリエンシーモジュールと、挿入された前記仮想オブジェクトの少なくとも1つの視覚特性を調整することによって前記仮想オブジェクトの挿入を調整する調整モジュールとを有する。
また、ビデオの画像におけるビューアからの注視割り当てを特性化するサリエンシーマップを利用し、該サリエンシーマップに基づき前記ビデオの前記画像において仮想オブジェクトを挿入することによって、前記ビデオにおいて前記仮想オブジェクトを挿入する命令を記憶したコンピュータ可読媒体が提供される。コンピュータによって実行される場合に、前記命令は、前記コンピュータに、前記仮想オブジェクトの挿入後に前記ビデオの前記画像のサリエンシーマップを生成させ、挿入された前記仮想オブジェクトの少なくとも1つの視覚特性を調整することによって前記サリエンシーマップに基づき前記仮想オブジェクトの挿入を調整させる。
本発明の実施形態によれば、挿入が十分に顕示的でありながらビューアにとって過度に煩わしくないようにビデオにおいて仮想オブジェクトを挿入する改善された解決法が提供される。
本発明に従ってビデオにおいて仮想オブジェクトを挿入する方法を表すフローチャートである。 本発明に従ってビデオにおいて領域を選択するステップを表すフローチャートである。 本発明に従う仮想オブジェクト挿入方法を実施する装置を表す概略図である。
より良い理解のために、本発明は目下、図面を参照して以下の説明においてより詳細に説明されるべきである。本発明は、この開示される実例となる実施形態に制限されず、特定される特徴は、特許請求の範囲において定義される本発明の適用範囲から逸脱することなしに、便宜上結合及び/又は変更され得ることが理解される。
以下で、本発明は、ビデオにおいて、例えば、ビデオの画像において、ビデオのサリエンシーマップ(saliency map)を利用して、仮想オブジェクトを挿入する方法及び装置に関して、説明されるべきである。サリエンシーマップは、対象のビデオにおける、例えば、ビデオの画像におけるビューアからの注視割り当てを特性化するために使用され、当該分野において知られている如何なる方法又は技術によっても計算され得る。例えば、サリエンシーマップは、Urban, F.等、“Medium Spatial Frequencies, a Strong Predictor of Saliency”、Cognitive Computation 3(1)、37-47(2011)において、及びLe Meur, O.等、“Predicting visual fixations on video based on low-level visual features”、Vision Research、Vol.47/19、2483-2498(2007)において記載されている方法を用いて計算され得る。
図1を参照すると、本発明に従う方法の好適実施形態は、ビデオにおいて領域を選択するステップ10と、ビデオにおいて、望ましくは、選択された領域において、仮想オブジェクトを挿入するステップ11と、仮想オブジェクトの挿入後にビデオのサリエンシーマップを生成するステップ12と、挿入された仮想オブジェクトの少なくとも1つの視覚特性を調整することによってサリエンシーマップに基づき仮想オブジェクトの挿入を調整するステップ13とを有する。望ましくは、方法は、ビデオのサリエンシーマップを生成するステップと、サリエンシーマップに基づき仮想オブジェクトの挿入を調整するステップとを繰り返すステップ14を更に有する。例えば、挿入された仮想オブジェクトの視覚特性は、仮想オブジェクトの透明度、輝度又は色であってよく、調整可能であり且つ挿入の視機能にとって影響力が大きい。仮想オブジェクトは、例えば、しばしば商業目的でビデオシーケンスにおいて挿入される2Dイメージ又はビデオ広告であってよい。任意に、仮想オブジェクトの挿入は、オーバレイ挿入又はインシーン挿入であってよく、それらのいずれも、当該分野においてよく知られており、幅広く適用されている。オーバレイ挿入は、仮想オブジェクトが対象のビデオの原コンテンツ上に流れる挿入を指し、一方、インシーン挿入に関し、挿入される画像は、ビデオの原コンテンツに埋め込まれる。
本発明に従う方法の利点の1つは、仮想オブジェクトの挿入が調整可能である点である。サリエンシーマップが仮想オブジェクトの挿入後に生成されるので、挿入の効果と、結果として得られるビデオの視機能とは、ユーザによって見直され得る。仮想オブジェクトの挿入は、ビューアにとっての知覚性及び煩わしさに基づき調整可能であり、よって、挿入結果、例えば、仮想オブジェクトのシームレスな挿入、を改善し最適化する。例えば、仮想オブジェクトの透明度及び輝度は、挿入が過度に派手であって且つ押しつけがましい場合に低減され得る。これに反して、挿入は、広告効果又は挿入の目的が達成されるように、適切に目立つよう調整され得る。任意に、挿入の調整は、ユーザの要求に依存して繰り返し行われ得る。
例えば、仮想オブジェクトの挿入11及びサリエンシーマップの生成12の後、ビデオの全体的なサリエンシーマップの平均サリエンシー値が、当該技術における何らかの既知の技術を用いて、定義され測定され得る。任意に、ユーザは手動により、ユーザの要求に応じて予め平均サリエンシー値のための閾値Tを定義し選択することができる。仮想オブジェクトの挿入のための調整は、例えば、サリエンシーマップの結果として得られる平均サリエンシー値が閾値Tによって境界されるように、挿入される仮想オブジェクトの透明度アルファを調整することによって、行われ得る。任意に、調整は、最適な挿入結果を達成するよう繰り返され得る。当然に、閾値Tは、調整の間のいずれかの時点に再定義又は再選択され得る。加えて、1よりも多い閾値T又は他のリファレンス値が、調整を改善するために定義され選択され得る。当然に、挿入される仮想オブジェクトの透明度アルファに加えて、輝度及び色のような、挿入される仮想オブジェクトの他の視覚特性も調整のために調整され得る。1つの優先は、挿入後のサリエンシーマップの結果として得られる平均サリエンシー値が、挿入前の測定される平均サリエンシー値に近いことである。
図2を参照して、好適には、本発明の好適実施形態の、ビデオにおいて領域を選択するステップ10は、領域の幾何学特性に基づき領域を選択するステップ101と、選択された幾何学領域を計算するステップ102と、ビデオの予備的なサリエンシーマップを生成するステップ103と、被視認性に基づき領域を選択するステップ104と、ビデオにおける仮想オブジェクトの挿入(11)のために候補領域を選択するステップ105とを有する。生成ステップ103及び選択ステップ104は、選択ステップ101及び計算ステップ102の前、後又はそれらと同時に遂行され得る。つまり、領域の幾何学特性に基づく選択及びビデオの被視認性に基づく選択のためのシーケンスは柔軟である。
ビデオにおける領域の幾何学特性に基づく領域の選択101は、ユーザによって手動で、又はプロセッサによって自動で、行われ得る。好適に、選択された領域は、広告バナー、トラックの外側部、建物等のように、四角形の領域である。例えば、ユーザは手動により、Lucas, B. D.及びKanade, T.、“An iterative image registration technique with an application to stereo vision”、International Joint Conference on Artificial Intelligence、674-679(1981)において記載されるKLT Trackerのようなトラッカによってビデオ全体においてその後に見つけ出されるビデオの第1のフレームにおける領域の4つの極値点を示すことによって、ビデオにおいて四角形の領域を選択することができる。
領域を選択するための自動的な方法は、例えば、ロバストエッジ検出器を使用することができる。領域は、領域のエッジがビデオにおいて平行四辺形を形成する場合且つ領域の形状がビデオシーケンスに沿って実行される動き推定と一致する場合に検出器によって抽出され選択される。
領域の幾何学特性に基づく領域の選択101の後、選択された幾何学領域は、幾何学特性、例えば、ポーズ及びサイズ、並びに測光的特性、例えば、局所的変化及び領域と挿入される仮想オブジェクトとの間の色距離のような様々な特性についてステップ12で解析される。例えば、選択された領域にわたる強度の変化が計算され、そして、ビデオの画像を構成するパッチに関する平均分散を計算することによって推定されるビデオの画像ノイズと比較される。強度の変化が小さく且つ鏡面性が低い領域が、仮想オブジェクトの挿入のための候補領域であるよう好まれる。これは、シームレスな挿入にとって有益である。
ビデオにおけるビューアからの注視割り当て(gaze allocation)、すなわち、被視認性(conspicuousness)の程度を表す予備的なサリエンシーマップの生成103は、上述されたような当該分野において何らかのよく知られている技術によって行われ得る。被視認性に基づく領域の選択104は、予備的なサリエンシーマップにより遂行される。好適に、選択された領域は、ビューアにとって視覚的に顕著であるよう十分に高く、しかしながら、良好に自然であって、ビューアにとって過度に派手でも且つ押しつけがましくもないよう十分に低いサリエンシーを有する。代替的に、選択された領域は、ビデオのサリエンシーマップにおける最高又は最低のサリエンシーを有してよい。
ビデオにおける仮想オブジェクトの挿入11のために候補領域を選択するステップ105は、例えば、投票方法(voting method)によって、行われ得る。例えば、投票方法は、ステップ101及び102において計算される領域の幾何学特性及び測光的特性と、上述されたような予備的なサリエンシーマップに基づく領域の被視認性とを含む様々な基準の線形重み付け平衡であってよい。当然に、領域の如何なる他の特性も投票方法において考慮され得る。基準の夫々1つは、テストデータベースにおいて学習されるか又はユーザによって手動で合わせられるかのいずれかである何らかのパラメータによって重み付けされる。夫々の領域は、このようにして、候補領域を区別するために使用され得るスコアを与えられる。つまり、候補領域は、様々な状況のための異なる基準及び異なるユーザの要求に応じて選択され得る。例えば、候補領域は、最も低い画像ノイズ及び最も低い鏡面性を有する領域であってよく、該領域は、挿入される仮想オブジェクトの色と比較される色に関して最も適当であり、該領域は、予備的なサリエンシーマップにおける最高又は最低のサリエンシーを有し、あるいは、該領域は、ビデオの画像中心に最も近い。
好適に、選択された候補領域は、投票方法によって決定される最適な領域である。
任意に、本発明に従う、ビデオにおいて仮想オブジェクトを挿入する方法は、ビデオを一連の場面に分解するステップを更に有し、場面の夫々は、例えば、ビデオの1以上の画面を含む。分解ステップは、図1及び2において示される方法のいずれの段階でも遂行され得る。ビデオの分解によれば、本発明の方法の各ステップは、ビデオシーケンス全体について、又はビデオの場面の一部についてのみ、行われ得る。挿入プロシージャは従って簡略化され、その時間消費は削減される。
図3は、本発明に従ってビデオにおいて仮想オブジェクトを挿入する方法を実行するよう構成される装置20のための好適実施形態を概略的に表す。装置20は、仮想オブジェクトの挿入のためにビデオにおいて領域を選択する選択モジュール21と、ビデオにおいて仮想オブジェクトを挿入する挿入モジュール22と、ビデオのサリエンシーマップを生成するサリエンシーモジュール23と、挿入された仮想オブジェクトの少なくとも1つの視覚特性を調整することによって仮想オブジェクトの挿入を調整する調整モジュール24とを有する。サリエンシーモジュール23は、仮想オブジェクトの挿入後のサリエンシーマップ、及び仮想オブジェクトの挿入前の、ビデオにおいて領域を選択するために使用される予備的なサリエンシーマップの両方を生成するために使用され得る。任意に、装置20は、ビデオを一連の場面に分解する分解モジュール25を更に有する。ビデオの分解は、上述されたようにプロシージャのいずれの段階でも行われ得る。実際には、装置20は、本発明の方法が様々な装置において実行され得るように、STB、サーバ、ブロードキャストヘッドエンド、等であってよい。当然に、装置20の様々なモジュールは同様に、部分的に、完全に単一のモジュールにまとめられても、又はプロセッサで実行されるソフトウェアとして実施されてもよい。
20 装置
21 選択モジュール
22 挿入モジュール
23 サリエンシーモジュール
24 挿入モジュール
25 分解モジュール

Claims (14)

  1. ビデオにおける仮想オブジェクトの挿入方法であって、前記ビデオの画像におけるビューアからの注視割り当てを特性化するサリエンシーマップを利用し、該サリエンシーマップに基づき前記ビデオの前記画像において前記仮想オブジェクトを挿入する方法において、
    前記仮想オブジェクトの挿入後に前記ビデオの前記画像のサリエンシーマップを生成するステップと、
    挿入された前記仮想オブジェクトの少なくとも1つの視覚特性を調整することによって前記サリエンシーマップに基づき前記仮想オブジェクトの挿入を調整するステップと
    を有することを特徴とする方法。
  2. 前記ビデオの前記画像のサリエンシーマップを生成するステップと、前記サリエンシーマップに基づき前記仮想オブジェクトの挿入を調整するステップとを繰り返す
    ことを特徴とする請求項1に記載の方法。
  3. 前記仮想オブジェクトの挿入の前に、前記ビデオの前記画像において領域を選択する
    ことを特徴とする請求項1又は2に記載の方法。
  4. 前記領域を選択することは、前記領域の幾何学特性に基づく、
    請求項3に記載の方法。
  5. 選択された前記領域は平行四辺形である、
    ことを特徴とする請求項4に記載の方法。
  6. 前記画像において領域を選択する前に前記ビデオの前記画像の予備的なサリエンシーマップを生成し、前記領域を選択することは、前記予備的なサリエンシーマップに基づく、
    ことを特徴とする請求項3に記載の方法。
  7. 当該方法は、前記ビデオを一連の場面に分解するステップを有し、前記場面の夫々は、少なくとも1つの画像を含む、
    ことを特徴とする請求項1乃至3のうちいずれか一項に記載の方法。
  8. 前記仮想オブジェクトの視覚特性は、前記仮想オブジェクトの透明度及び/又は輝度である、
    ことを特徴とする請求項1又は2に記載の方法。
  9. 前記仮想オブジェクトの挿入は、前記仮想オブジェクトが前記ビデオの前記画像における原コンテンツ上に流れるようなオーバレイ挿入、又は前記仮想オブジェクトが前記ビデオの前記画像に埋め込まれるようなインシーン挿入である、
    ことを特徴とする請求項1又は2に記載の方法。
  10. 挿入される前記仮想オブジェクトは、2Dイメージ広告又はビデオ広告である、
    ことを特徴とする請求項1又は2に記載の方法。
  11. ビデオにおいて仮想オブジェクトを挿入するよう構成される装置であって、前記ビデオの画像におけるビューアからの注視割り当てを特性化するサリエンシーマップを利用し、該サリエンシーマップに基づき前記ビデオの前記画像において前記仮想オブジェクトを挿入する装置において、
    ビデオの画像において仮想オブジェクトを挿入する挿入モジュールと、
    前記ビデオの前記画像のサリエンシーマップを生成するサリエンシーモジュールであって、前記サリエンシーマップが前記仮想オブジェクトの挿入後に当該サリエンシーモジュールによって生成される、前記サリエンシーモジュールと、
    挿入された前記仮想オブジェクトの少なくとも1つの視覚特性を調整することによって前記仮想オブジェクトの挿入を調整する調整モジュールと
    を有する装置。
  12. 前記仮想オブジェクトの挿入のために前記ビデオの前記画像において領域を選択する選択モジュール
    を更に有する請求項11に記載の装置。
  13. 前記ビデオを一連の場面に分解する分解モジュールを更に有し、前記場面の夫々は少なくとも1つの画像を含む、
    請求項11又は12に記載の装置。
  14. ビデオの画像におけるビューアからの注視割り当てを特性化するサリエンシーマップを利用し、該サリエンシーマップに基づき前記ビデオの前記画像において仮想オブジェクトを挿入することによって、前記ビデオにおいて前記仮想オブジェクトを挿入する命令を記憶したコンピュータ可読媒体であって、
    コンピュータによって実行される場合に、前記命令が、前記コンピュータに、
    前記仮想オブジェクトの挿入後に前記ビデオの前記画像のサリエンシーマップを生成させ、
    挿入された前記仮想オブジェクトの少なくとも1つの視覚特性を調整することによって前記サリエンシーマップに基づき前記仮想オブジェクトの挿入を調整させる、
    ことを特徴とするコンピュータ可読媒体。
JP2014127040A 2013-06-24 2014-06-20 ビデオにおいて仮想オブジェクトを挿入する方法及び装置並びにコンピュータ可読媒体 Pending JP2015008461A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP13305859.4 2013-06-24
EP20130305859 EP2819095A1 (en) 2013-06-24 2013-06-24 Method and apparatus for inserting a virtual object in a video

Publications (1)

Publication Number Publication Date
JP2015008461A true JP2015008461A (ja) 2015-01-15

Family

ID=48771372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014127040A Pending JP2015008461A (ja) 2013-06-24 2014-06-20 ビデオにおいて仮想オブジェクトを挿入する方法及び装置並びにコンピュータ可読媒体

Country Status (6)

Country Link
US (1) US20140380355A1 (ja)
EP (2) EP2819095A1 (ja)
JP (1) JP2015008461A (ja)
KR (1) KR20150000434A (ja)
CN (1) CN104244021A (ja)
TW (1) TW201511543A (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110047768A (ko) * 2009-10-30 2011-05-09 삼성전자주식회사 멀티미디어 컨텐츠 재생 장치 및 방법
US10412447B2 (en) * 2015-12-16 2019-09-10 Gracenote, Inc. Dynamic video overlays
EP3296950A1 (en) * 2016-09-15 2018-03-21 Thomson Licensing Method and device for blurring a virtual object in a video
EP3533229A4 (en) * 2016-10-28 2020-06-24 Axon Enterprise, Inc. SYSTEMS AND METHODS FOR ENRICHING CAPTURED DATA
EP3336805A1 (en) 2016-12-15 2018-06-20 Thomson Licensing Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment
US11032607B2 (en) 2018-12-07 2021-06-08 At&T Intellectual Property I, L.P. Methods, devices, and systems for embedding visual advertisements in video content
EP3680811A1 (en) * 2019-01-10 2020-07-15 Mirriad Advertising PLC Visual object insertion classification for videos
CN109993579B (zh) * 2019-03-28 2021-04-02 北京酷云互动科技有限公司 广告投放区域确定方法、系统、服务器和计算机可读介质
CN110213629B (zh) * 2019-06-27 2022-02-11 腾讯科技(深圳)有限公司 一种信息植入方法、装置、服务器及存储介质
CN115209180A (zh) * 2022-06-02 2022-10-18 阿里巴巴(中国)有限公司 视频生成方法以及装置
CN116665004B (zh) * 2023-07-31 2023-11-10 深圳海岸线数据技术有限公司 一种扩展现实图像处理方法、系统、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7130461B2 (en) * 2002-12-18 2006-10-31 Xerox Corporation Systems and method for automatically choosing visual characteristics to highlight a target against a background
CN101621636B (zh) * 2008-06-30 2011-04-20 北京大学 基于视觉注意力模型的广告标志自动插入和变换方法及系统
EP2173090B1 (en) * 2008-10-02 2014-11-05 Thomson Licensing Method for insertion of a layout in a source image
WO2012006007A2 (en) * 2010-07-07 2012-01-12 3M Innovative Properties Company Systems and methods for improving visual attention models
US20120180084A1 (en) * 2011-01-12 2012-07-12 Futurewei Technologies, Inc. Method and Apparatus for Video Insertion
US9013553B2 (en) * 2011-08-31 2015-04-21 Rocks International Group Pte Ltd. Virtual advertising platform

Also Published As

Publication number Publication date
US20140380355A1 (en) 2014-12-25
EP2819096A1 (en) 2014-12-31
KR20150000434A (ko) 2015-01-02
CN104244021A (zh) 2014-12-24
TW201511543A (zh) 2015-03-16
EP2819095A1 (en) 2014-12-31

Similar Documents

Publication Publication Date Title
JP2015008461A (ja) ビデオにおいて仮想オブジェクトを挿入する方法及び装置並びにコンピュータ可読媒体
RU2609760C2 (ru) Устройства и способы усовершенствованного кодирования изображений
US9007435B2 (en) Real-time depth-aware image enhancement system
US8488901B2 (en) Content based adjustment of an image
US9509886B2 (en) Flicker removal for high speed video
CN103353982A (zh) 一种基于直方图均衡化的色调映射方法
CN107016718B (zh) 一种场景渲染方法和装置
CN107111866B (zh) 用于基于对象检测生成外推图像的方法和装置
US9824429B2 (en) Image processing apparatus and method, and program
US11587526B2 (en) Luminance adaption to minimize discomfort and improve visibility
US20170084307A1 (en) Method and apparatus for editing video scenes based on learned user preferences
CN113329252A (zh) 一种基于直播的人脸处理方法、装置、设备和存储介质
US10580154B2 (en) Method and apparatus for determining a depth map for an image
CN103065284A (zh) 图像数据的去雾方法及装置
US11051376B2 (en) Lighting method and system to improve the perspective colour perception of an image observed by a user
EP2515544A1 (en) 3D image processing apparatus and method for adjusting 3D effect thereof
KR101373631B1 (ko) 실시간 크로마키 합성 시스템 및 방법
US20170244972A1 (en) Methods and apparatus for mapping input image
KR20150040559A (ko) 관심영역 기반의 화질개선 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체
KR102519288B1 (ko) 콘텐츠 에코시스템에서 콘텐츠의 명암비 제어 장치 및 방법
JP5166794B2 (ja) 視聴環境制御装置および視聴環境制御方法
JP4789592B2 (ja) 視聴環境制御装置及び視聴環境制御方法
WO2019158129A1 (zh) 增强现实视觉元素显示的方法和装置
Tariq et al. Perceptually Adaptive Real-Time Tone Mapping
CN113724275B (zh) 一种投影画面分割方法和装置