JP7080400B2 - ビデオコンテンツから光効果のための色を抽出するための方法の選択 - Google Patents

ビデオコンテンツから光効果のための色を抽出するための方法の選択 Download PDF

Info

Publication number
JP7080400B2
JP7080400B2 JP2021523684A JP2021523684A JP7080400B2 JP 7080400 B2 JP7080400 B2 JP 7080400B2 JP 2021523684 A JP2021523684 A JP 2021523684A JP 2021523684 A JP2021523684 A JP 2021523684A JP 7080400 B2 JP7080400 B2 JP 7080400B2
Authority
JP
Japan
Prior art keywords
color
light
color extraction
extraction method
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021523684A
Other languages
English (en)
Other versions
JP2022506359A (ja
Inventor
シモン ライクロフト
トビアス ボッラ
ドラガン セクロフスキ
ディミトリ ヴィクトロヴィッチ アリアクセイエウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Signify Holding BV
Original Assignee
Signify Holding BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Signify Holding BV filed Critical Signify Holding BV
Publication of JP2022506359A publication Critical patent/JP2022506359A/ja
Application granted granted Critical
Publication of JP7080400B2 publication Critical patent/JP7080400B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/155Coordinated control of two or more light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、ビデオコンテンツの分析に基づいて1つ以上の光効果(light effect)を決定するためのシステムに関する。
本発明はさらに、ビデオコンテンツの分析に基づいて1つ以上の光効果を決定する方法に関する。
本発明はまた、コンピュータシステムがそのような方法を実行することを可能にするコンピュータプログラムプロダクトに関する。
Philips Hue(登録商標) Entertainment等の動的な照明システムは、特に抽出された色がソースコンテンツのルック&フィールとマッチする場合、オーディオビジュアル素材の体験及び印象に劇的な影響を与えることができる。しかしながら、最良のユーザエクスペリエンスを提供することができる抽出方法は、コンテンツごとに異なり得る。
WO 2017/182365 A1は、ビデオデータのフレーム画像データから少なくとも1つのカラーパレットを決定する、及び、ビデオコンテンツの出力中にレンダリングされるべき照明効果のシーケンスを表示することにより光を生成することを開示している。この照明効果のシーケンスは、決定されたカラーパレットから得られる少なくとも1つの照明色を伝え、ユーザによって修正されることができる。この方法の不利な点は、かなりの量のユーザ入力を必要とすることである。
Philips Hue(登録商標) Syncは、リアルタイムでビデオコンテンツから色を自動抽出し、この情報を1つ以上のランプに送るソフトウェアである。その現在の形態では、単一の色抽出方法が、現在のビデオフレーム内のゾーンをサンプリングし、ライトに現れる色を決定するために使用される。この方法は、さまざまなコンテンツタイプにうまく機能するために選ばれたが、必ずしもすべてのコンテンツタイプに最適ではない。
本発明の第1の目的は、かなりの量のユーザ入力を必要とすることなく決定される、ビデオコンテンツにフィットする光効果を決定することができる、システムを提供することである。
本発明の第2の目的は、かなりの量のユーザ入力を必要とすることなく決定される、ビデオコンテンツにフィットする光効果を決定することができる、方法を提供することである。
本発明の第1の態様では、ビデオコンテンツの分析に基づいて1つ以上の光効果を決定するためのシステムは、少なくとも1つの入力インターフェースと、少なくとも1つの出力インターフェースと、メディアコンテンツ及び前記メディアコンテンツに関する情報を得るために前記少なくとも1つの入力インターフェースを使用し、前記メディアコンテンツは、ビデオコンテンツを含む、前記得られた情報に基づいて複数の色抽出方法から色抽出方法を選択し、前記複数の色抽出方法は、同じピクセルから異なる色を抽出するという点で互いに異なる、前記選択された色抽出方法を適用することにより前記ビデオコンテンツの1つ以上のフレームから色を抽出する、前記1つ以上のフレームがレンダリングされている際に1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定し、前記1つ以上の光効果は、前記抽出された色に基づいて決定される、及び、前記1つ以上の光効果を指定する光スクリプトを保存する及び/又は前記1つ以上の光効果をレンダリングするように前記1つ以上の光源を制御するために前記少なくとも1つの出力インターフェースを使用するように構成される、少なくとも1つのプロセッサとを含む。
このようにして、使用される色抽出方法が、メディアコンテンツから導出される又はメディアコンテンツに関連する抽出された又は既存の情報に基づいてメディア主導の光効果(media-driven light effect)を作成するために動的且つ自動的に選択される。本発明は、メディア主導型の光効果をより反応性の高いものにし、最適な色抽出方法とコンテンツとのマッチングによりユーザを惹きつける。これは、事前スクリプト化(pre-scripted)自動抽出及びリアルタイム抽出プロセスの両方に同様に適用されることができる。
すべてのタイプのコンテンツにうまく機能する色抽出方法を探そうとする又はすべてのスクリプト作成者若しくは消費者が所与のコンテンツに対して正しい色抽出方法を選択することを期待するのではなく、さまざまな色抽出方法から自動的に選択するメカニズムが提供される。これは、異なる色抽出方法が、異なるコンテンツに対して使用されるだけでなく、同じコンテンツの異なる部分に対して使用されることも可能にする。
当該システムは、例えば、前記1つ以上の光源を含む照明システムの一部であってもよく、又は、前記1つ以上の光源を含む照明システムにおいて用いられてもよい。前記コンテンツに関する前記情報は、例えば、ダイナミシティレベル(level of dynamicity)、コントラスト情報、彩度情報(saturation information)、オーディオレベル、ジャンル、シーンロケーション(scene location)、シーンタイプ、及び/又は曲名を含んでもよい。前記色抽出方法はさらに、光効果を定義するために何フレームから色が抽出されるべきか、例えば、色はスクリーン全体から抽出されるべきか、映画のショット(shot)から抽出されるべきかを定義する1つ以上のパラメータを含んでもよい。
前記少なくとも1つのプロセッサは、複数のセクションについてセクションごとに1つ以上の色を抽出するように構成され、各セクションは、シーン、ショット又は単一のフレームを含み、前記シーン及び前記ショットは、複数のフレームを含み、単一の色が前記セクションのすべてのフレームからセクションごとに抽出される及び/又は色が前記セクションのすべてのフレームにおけるサブエリアからサブエリアごとにセクションごとに抽出されてもよい。
異なる色抽出方法が、例えば、コンテンツのタイプ及びユーザの照明セットアップにおける光源のタイプに依存して、セクションの異なるサブエリア(すなわち、スクリーンの異なるエリア)に対して選択されてもよい。例えば、トリムミーン判定(trimean determination)が、スクリーンの中央エリアにマッピングされる光源のためにスクリーンの中央で使用されてもよく、ドミナント色判定(dominant color determination)が、スクリーンの左及び右エリアにマッピングされる光源のためにスクリーンの左及び右で使用されてもよい。斯くして、複数の異なる色抽出方法が、あるセクションの複数の異なるサブエリアから色を抽出するために当該セクションに対して選択されてもよい。
前記複数の色抽出方法は、異なるタイプの色抽出方法及び/又は単一のタイプの色抽出方法に対する異なるセットのパラメータを含んでもよい。前記異なるタイプの色抽出方法は、例えば、平均色判定(average color determination)(例えば、トリムミーン色判定(trimean color determination)、ミーン色判定(mean color determination)、メジアン色判定(median color determination)、又はモード色判定(mode color determination))、ドミナント色判定、ドミナント照明色判定(dominant illumination color determination)、可視光源色判定(visible light source color determination)、及び/又は特徴色判定(feature color determination)を含んでもよい。平均色が、フレーム(サブエリア)ごとに決定されてもよく、複数のフレームの平均が、それら自体で平均化(例えば、トリムミーンのトリムミーン)されてもよい。異なる平均化方法が、フレーム(サブエリア)ごとの平均を決定することと、平均の平均を決定することとで用いられてもよい。前記異なるセットのパラメータは、例えば、同じタイプの色抽出方法(例えば、トリムミーン判定又は他の平均色判定)で使用される色空間の異なる領域を識別してもよい。
前記少なくとも1つのプロセッサは、前記得られた情報が前記シーンはスローシーンであることを示すと判断するとシーンから色を抽出するために前記ドミナント色判定を選択する、及び/又は、前記得られた情報が前記シーンはアクションシーンであることを示すと判断するとシーンから色を抽出するために前記特徴色判定を選択するように構成されてもよい。これは、シーンのダイナミシティにフィットする色が抽出されることを可能にする。
前記少なくともつのプロセッサは、トリムミーン判定(又は他の平均色判定)の結果、望ましくない色になる場合、前記1つ以上のフレームにドミナント色がない場合、及び/又は、動いている、鮮明な(sharp)及び/又は高コントラストのオブジェクトが前記1つ以上のフレームに検出される場合、前記特徴色判定を選択するように構成されてもよい。例えば、暗いシーンの結果、非常に暗い色のトリムミーン判定(又は他の平均色判定)になる場合、シーン内の特徴、例えば、建物の色を判断するのが良い。動いている、鮮明な及び/又は高コントラストのオブジェクトがシーンに存在する場合、(特徴はこのオブジェクトである)特徴色判定が、典型的には、このシーンをより良く表す色を判断する。
前記少なくとも1つのプロセッサは、ユーザが、前記光スクリプトを保存する前に前記抽出された色及び/又は前記選択された色抽出方法を確認することを可能にするように構成されてもよい。光スクリプトが生成される場合、ユーザは、光スクリプトがファイナライズされ光源を制御するために使用される前に最終チェックを行いたい可能性がある。
前記少なくともつのプロセッサはさらに、ユーザの照明セットアップに関する情報にさらに基づいて前記色抽出方法を選択し、前記ユーザの照明セットアップは、前記1つ以上の光源を含む、及び、前記1つ以上の光効果をレンダリングするように前記ユーザの照明セットアップの前記1つ以上の光源を制御するために前記少なくとも1つの出力インターフェースを使用するように構成されてもよい。これは、ユーザの照明セットアップが、色抽出がリアルタイムで行われ、1つ以上の光源がリアルタイムで制御される場合に考慮されることを可能にする。ユーザの照明セットアップに関する情報は、例えば、光源の量、光源の空間的位置、光源のタイプ、及び光源の能力(capability)(例えば、これらが白色及び/又は色調整可能(color tunable)、調光可能であるかどうか等)を含んでもよい。例えば、ユーザの照明セットアップが、(例えば、Philips HueGo等)ディープ調光(deep diming)が可能な光源を含む場合、ユーザの照明セットアップが(例えば、Philips Hue(登録商標) bulb E27等)ディープ調光を持つ光源を含まない場合に選択される色抽出方法とは異なる色を暗いシーンから抽出する色抽出方法が選択されてもよい。
前記少なくとも1つのプロセッサは、潜在的な照明セットアップの第1のタイプに対する前記1つ以上の光効果を決定する、前記得られた情報に基づいて前記複数の色抽出方法からさらなる色抽出方法を選択する、前記選択されたさらなる色抽出方法を適用することにより前記ビデオコンテンツの前記1つ以上のフレームからさらなる色を抽出する、潜在的な照明セットアップの第2のタイプに対する1つ以上のさらなる光効果を決定し、前記1つ以上のさらなる光効果は、前記抽出されたさらなる色に基づいて決定される、及び、前記光スクリプトで前記1つ以上のさらなる光効果を指定するために前記少なくとも1つの出力インターフェースを使用し、前記1つ以上の光効果は、前記光スクリプトで前記第1のタイプの照明セットアップと関連付けられ、前記1つ以上のさらなる光効果は、前記光スクリプトで前記第2のタイプの照明セットアップと関連付けられる、ように構成されてもよい。これは、ユーザの照明セットアップが、抽出された色が光スクリプトを作成するために使用される場合に考慮されることを可能にする。その結果、照明セットアップで利用可能な光源と光効果との整合性(alignment)がさらに改善され得る。
プロセッサはまた、ユーザの照明セットアップ自体(as such)に関する情報に基づいて色抽出方法を選択するように構成されてもよい。
前記少なくとも1つのプロセッサは、前記ビデオコンテンツの2つのセクションの各々から色を抽出する、前記2つの色間の色空間における遷移パスを選択する、及び、前記2つのセクション間に位置する1つ以上の中間セクションに適用されるべき色抽出方法を選択することにより前記色抽出方法を選択するように構成され、前記色抽出方法は、前記選択された遷移パスに基づいて選択され、前記1つ以上の中間セクションは、前記1つ以上のフレームを含む、ように構成されてもよい。光効果間の遷移を決定することにより、鮮明な遷移(sharp transition)が回避され得る。得られた情報に基づいて遷移パスを選択することにより、例えば、気持ちを盛り上げるシーン(uplifting scene)の2つのショット間の遷移を反映するために飽和色(saturated color)を用いる、又は、気が重くなるシーン(depressing scene)の2つのショット間の遷移を反映するために非飽和色(desaturated color)を用いる等、適切な遷移パスが選択されてもよい。
前記少なくとも1つのプロセッサは、前記2つのセクション及び前記1つ以上の中間セクションがレンダリングされている際にレンダリングされるべき少なくとも1つの光効果を決定することによって前記1つ以上の光源にレンダリングされるべき前記1つ以上の光効果を決定するように構成され、前記少なくとも1つの光効果は、前記2つのセクションから抽出される前記2つの色及び前記1つ以上の中間セクションから抽出される前記色に基づいて決定されてもよい。典型的には、異なる光効果が、前記2つのセクションの各々と、前記中間セクションの各々とに対して決定される。
本発明の第2の態様では、ビデオコンテンツの分析に基づいて1つ以上の光効果を決定する方法は、メディアコンテンツ及び前記メディアコンテンツに関する情報を得ることであって、前記メディアコンテンツは、ビデオコンテンツを含む、ことと、前記得られた情報に基づいて複数の色抽出方法から色抽出方法を選択することであって、前記複数の色抽出方法は、同じピクセルから異なる色を抽出するという点で互いに異なる、ことと、ユーザの照明セットアップに関する情報にさらに基づいて前記色抽出方法を選択することであって、前記ユーザの照明セットアップは、1つ以上の光源を含む、ことと、前記選択された色抽出方法を適用することにより前記ビデオコンテンツの1つ以上のフレームから色を抽出することと、前記1つ以上のフレームがレンダリングされている際に前記1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定することであって、前記1つ以上の光効果は、前記抽出された色に基づいて決定される、ことと、前記1つ以上の光効果を指定する光スクリプトを保存すること及び/又は前記1つ以上の光効果をレンダリングするように前記1つ以上の光源を制御することと、を含む。前記方法は、プログラマブルデバイスで実行されるソフトウェアによって実行されてもよい。このソフトウェアは、コンピュータプログラムプロダクトとして提供されてもよい。
さらに、本明細書で説明される方法を実践するためのコンピュータプログラム、並びに、そのコンピュータプログラムを記憶している非一時的コンピュータ可読記憶媒体が提供される。コンピュータプログラムは、例えば、既存のデバイスによってダウンロードされるか、又は、既存のデバイスにアップロードされてもよく、あるいは、これらのシステムの製造時に記憶されてもよい。
非一時的コンピュータ可読記憶媒体は、ソフトウェアコード部分を記憶し、ソフトウェアコード部分は、コンピュータによって実行又は処理されると、メディアコンテンツ及び前記メディアコンテンツに関する情報を得ることであって、前記メディアコンテンツは、ビデオコンテンツを含む、ことと、前記得られた情報に基づいて複数の色抽出方法から色抽出方法を選択することであって、前記複数の色抽出方法は、同じピクセルから異なる色を抽出するという点で互いに異なる、ことと、前記選択された色抽出方法を適用することにより前記ビデオコンテンツの1つ以上のフレームから色を抽出することと、前記1つ以上のフレームがレンダリングされている際に1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定することであって、前記1つ以上の光効果は、前記抽出された色に基づいて決定される、ことと、前記1つ以上の光効果を指定する光スクリプトを保存すること及び/又は前記1つ以上の光効果をレンダリングするように前記1つ以上の光源を制御することと、を含む、実行可能オペレーションを実行するように構成される。前記方法は、プログラマブルデバイスで実行されるソフトウェアによって実行されてもよい。
当業者には理解されるように、本発明の諸態様は、デバイス、方法、又はコンピュータプログラム製品として具現化されてもよい。したがって、本発明の諸態様は、完全にハードウェアの実施形態、完全にソフトウェアの実施形態(ファームウェア、常駐ソフトウェア、マイクロコード等を含む)、あるいは、ソフトウェアの態様とハードウェアの態様とを組み合わせた実施形態の形態を取ってもよく、それらは全て、本明細書では「回路」、「モジュール」、又は「システム」と総称されてもよい。本開示で説明される機能は、コンピュータのプロセッサ/マイクロプロセッサによって実行される、アルゴリズムとして実装されてもよい。更には、本発明の諸態様は、1つ以上のコンピュータ可読媒体として具現化されている、コンピュータプログラム製品の形態を取ってもよく、1つ以上のコンピュータ可読媒体は、その上に具現化されている、例えば記憶されている、コンピュータ可読プログラムコードを有する。
1つ以上のコンピュータ可読媒体の任意の組み合わせが、利用されてもよい。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であってもよい。コンピュータ可読記憶媒体は、例えば、限定するものではないが、電子、磁気、光学、電磁気、赤外線、又は半導体の、システム、装置、若しくはデバイス、あるいは、上述の任意の好適な組み合わせであってもよい。より具体的なコンピュータ可読記憶媒体の例としては、限定するものではないが、1つ以上のワイヤを有する電気的接続、ポータブルコンピュータディスケット、ハードディスク、ランダムアクセスメモリ(random access memory;RAM)、読み出し専用メモリ(read-only memory;ROM)、消去可能プログラマブル読み出し専用メモリ(erasable programmable read-only memory;EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用メモリ(portable compact disc read-only memory;CD-ROM)、光学記憶デバイス、磁気記憶デバイス、又は上述の任意の好適な組み合わせを挙げることができる。本発明の文脈では、コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを含むか、又は記憶することが可能な、任意の有形媒体であってもよい。
コンピュータ可読信号媒体としては、例えばベースバンド内又は搬送波の一部として、その内部に具現化されているコンピュータ可読プログラムコードを有する、伝搬データ信号を挙げることができる。そのような伝搬信号は、限定するものではないが、電磁気、光学、又はこれらの任意の好適な組み合わせを含めた、様々な形態のうちのいずれを取ってもよい。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではなく、命令実行システム、装置、若しくはデバイスによって、又はそれらに関連して使用するためのプログラムを、通信、伝搬、又は伝送することが可能な、任意のコンピュータ可読媒体であってもよい。
コンピュータ可読媒体上に具現化されているプログラムコードは、限定するものではないが、無線、有線、光ファイバ、ケーブル、RF等、又は上述の任意の好適な組み合わせを含めた、任意の適切な媒体を使用して送信されてもよい。本発明の諸態様に関する動作を実施するためのコンピュータプログラムコードは、Java(登録商標)、Smalltalk(登録商標)、C++等のオブジェクト指向プログラミング言語、「C」プログラミング言語又は同様のプログラミング言語等の従来の手続き型プログラミング言語、及び、Scala、Haskel等の関数型プログラミング言語を含めた、1つ以上のプログラミング言語の任意の組み合わせで書き込まれてもよい。このプログラムコードは、スタンドアロン型ソフトウェアパッケージとして、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で実行されてもよく、部分的にユーザのコンピュータ上かつ部分的にリモートコンピュータ上で、又は完全にリモートコンピュータ若しくはサーバ上で実行されてもよい。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(local area network;LAN)若しくは広域ネットワーク(wide area network;WAN)を含めた任意のタイプのネットワークを通じて、ユーザのコンピュータに接続されてもよく、又は、この接続は、外部コンピュータに対して(例えば、インターネットサービスプロバイダを使用してインターネットを通じて)実施されてもよい。
本発明の実施形態による方法、装置(システム)、及びコンピュータプログラム製品の、フローチャート図及び/又はブロック図を参照して、本発明の諸態様が以下で説明される。フローチャート図及び/又はブロック図の各ブロック、並びに、フローチャート図及び/又はブロック図内のブロックの組み合わせは、コンピュータプログラム命令によって実装されることができる点が理解されるであろう。これらのコンピュータプログラム命令は、マシンを作り出すために、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置の、プロセッサ、特にマイクロプロセッサ又は中央処理ユニット(central processing unit;CPU)に提供されてもよく、それにより、コンピュータ、他のプログラマブルデータ処理装置、又は他のデバイスのプロセッサを介して実行される命令が、フローチャート及び/又はブロック図のブロック内で指定されている機能/行為を実施するための手段を作り出す。
これらのコンピュータプログラム命令はまた、コンピュータ、他のプログラマブルデータ処理装置、又は他のデバイスに、特定の方式で機能するように指示することが可能な、コンピュータ可読媒体内に記憶されてもよく、それにより、コンピュータ可読媒体内に記憶されている命令が、フローチャート及び/又はブロック図のブロック内で指定されている機能/行為を実施する命令を含む、製品を作り出す。
コンピュータプログラム命令はまた、コンピュータ実施プロセスを作り出すために、コンピュータ、他のプログラマブルデータ処理装置、又は他のデバイス上にロードされて、それらのコンピュータ、他のプログラマブルデータ処理装置、又は他のデバイス上で一連の動作ステップを実行させてもよく、それにより、コンピュータ又は他のプログラマブル装置上で実行される命令が、フローチャート及び/又はブロック図のブロック内で指定されている機能/行為を実施するためのプロセスを提供する。
図におけるフローチャート及びブロック図は、本発明の様々な実施形態によるデバイス、方法、及びコンピュータプログラム製品の可能な実装の、アーキテクチャ、機能性、及び動作を示す。この点に関して、フローチャート又はブロック図内の各ブロックは、指定されている論理関数を実施するための1つ以上の実行可能命令を含む、コードのモジュール、セグメント、又は部分を表してもよい。また、一部の代替的実装形態では、ブロック内に記されている機能は、それらの図に記されている順序と異なる順序で行われてもよい点にも留意されたい。例えば、連続して示されている2つのブロックは、実際には、実質的に同時に実行されてもよく、又は、それらのブロックは、関与している機能性に応じて、逆の順序で実行される場合があってもよい。また、ブロック図及び/又はフローチャート図の各ブロック、並びに、それらブロック図及び/又はフローチャート図内のブロックの組み合わせは、指定されている機能若しくは行為を実行する専用ハードウェアベースのシステム、又は、専用ハードウェアとコンピュータ命令との組み合わせによって実施されることができる点にも留意されたい。
本発明のこれらの態様及び他の態様は、以下の図面から明らかであり、例として、それらの図面を参照して更に解明されるであろう。
システムの一実施形態のブロック図である。 オフスクリーン色抽出方法の第1の実施形態のフロー図である。 いくつかは明るい光源を捕捉しているビデオフレームの例を示す。 図3のビデオフレームの各々について明るい光源の位置を反映した光設定の例を示す。 オフスクリーン色抽出方法の第2の実施形態のフロー図である。 オフスクリーン色抽出方法の第3の実施形態のフロー図である。 現在のフレーム及び9つの隣接するフレームで構成されるスーパーフレームの一例を示す。 図7のスーパーフレームにおける分析エリアの例を示す。 オフスクリーン色抽出方法の第4の実施形態のフロー図である。 スーパーフレームにおける異なる分析エリアの例を示す。 色抽出選択方法の第1の実施形態のフロー図である。 色抽出選択方法の第2の実施形態のフロー図である。 色抽出選択方法の第3の実施形態のフロー図である。 色抽出選択方法の第4の実施形態のフロー図である。 色空間における最短距離の色遷移の一例を示す。 色空間における等飽和の色遷移の一例を示す。 色空間における脱飽和の最短距離の色遷移の一例を示す。 重み付け影響光効果作成方法の第1の実施形態のフロー図である。 重み付け影響光効果作成方法の第2の実施形態のフロー図である。 重み付け影響光効果作成方法の第3の実施形態のフロー図である。 オフスクリーン色抽出方法の第5の実施形態、色抽出選択方法の第5の実施形態、及び重み付け影響光効果作成方法の第4の実施形態のフロー図である。 本発明の方法を実行するための例示的なデータ処理システムのブロック図である。 スーパーフレームのピクセルから単一の色を決定するためにこれらのピクセルに重みを割り当てる関数の一例を示す。
図面中の対応する要素は、同じ参照番号によって示される。
図1は、上述したシステムの一実施形態、モバイルデバイス1を示している。モバイルデバイス1は、無線LANアクセスポイント23に接続されている。また、ブリッジ11が、例えば、Ethernet(登録商標)を介して、無線LANアクセスポイント23に接続されている。光源13~17は、ブリッジ11と、例えばZigbee(登録商標)プロトコルを用いて無線通信し、ブリッジ11を介して、例えばモバイルデバイス1によって制御されることができる。例えば、ブリッジ11は、Philips Hue(登録商標)ブリッジであってもよく、光源13~17は、Philips Hue(登録商標)ライトであってもよい。代替的な実施形態では、ライトデバイスは、ブリッジなしで制御される。
また、TV27が、無線LANアクセスポイント23に接続されている。メディアコンテンツは、例えば、モバイルデバイス1又はTV27によってレンダリングされてもよい。無線LANアクセスポイント23は、インターネット24に接続されている。インターネットサーバ25も、インターネット24に接続されている。モバイルデバイス1は、例えば、携帯電話又はタブレットであってもよい。モバイルデバイス1は、例えば、Philips Hue(登録商標) Syncアプリを実行してもよい。モバイルデバイス1は、プロセッサ5、レシーバ3、トランスミッタ4、メモリ7、及びディスプレイ9を備える。図1の実施形態では、ディスプレイ9は、タッチスクリーンを備える。モバイルデバイス1、ブリッジ11、及び光源13~17は、照明システム21の一部である。
図1の実施形態では、プロセッサ5は、オフスクリーン色抽出方法(offscreen color extraction method)を実行するように構成される。それゆえ、プロセッサ5は、ビデオコンテンツを得るためにレシーバ3を使用する、ビデオコンテンツの複数のフレームに対して分析を実行する、分析に基づいて複数のフレームにおけるカメラの動き(camera movement)を決定する、決定されたカメラの動きに基づいて複数のフレームのうちの少なくとも1つからオフスクリーン色情報を抽出する、及び、ビデオコンテンツのさらなるフレームがレンダリングされている際に1つ以上の光源13~17にレンダリングされるべき1つ以上の光効果を決定するように構成される。色は、例えば、色度(chromaticity)及び明度(brightness)を含んでもよい。
さらなるフレームは、複数のフレームに隣接し、1つ以上の光効果は、オフスクリーン色情報に基づいて決定される。プロセッサ5はさらに、1つ以上の光効果を指定する光スクリプトを保存する及び/又は1つ以上の光効果をレンダリングするように1つ以上の光源13~17を制御するためにトランスミッタ4を使用するように構成される。
図1の実施形態では、プロセッサ5はさらに、色抽出選択方法(color extraction selection method)を実行するように構成される。プロセッサ5はさらに、メディアコンテンツ及びメディアコンテンツに関する情報を得るためにレシーバ3を使用するように構成される。メディアコンテンツは、ビデオコンテンツを含む。プロセッサ5はさらに、得られた情報に基づいて複数の色抽出方法から色抽出方法を選択するように構成される。色抽出方法は、同じピクセルから異なる色を抽出するという点で互いに異なる。
プロセッサ5はさらに、選択された色抽出方法を適用することによりビデオコンテンツの1つ以上のフレームから色を抽出する、及び、1つ以上のフレームがレンダリングされている際に1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定するように構成される。色は、オンスクリーンコンテンツ(onscreen content)及び/又はオフスクリーンコンテンツ(offscreen content)から抽出されてもよい。1つ以上の光効果は、抽出された色に基づいて決定される。プロセッサ5はさらに、1つ以上の光効果を指定する光スクリプトを保存する及び/又は1つ以上の光効果をレンダリングするように1つ以上の光源を制御するためにトランスミッタ4を使用するように構成される。
図1の実施形態では、プロセッサ5はさらに、重み付け影響光効果作成方法(weighted influence light effect creation method)を実行するように構成される。それゆえ、プロセッサ5はさらに、ユーザが1つ以上の光効果の決定に使用されるビデオの重み(video weight)及びオーディオの重み(audio weight)に影響を与えることを可能にするためにタッチスクリーンディスプレイ9を使用するように構成される。ビデオの重みは、1つ以上の光効果の決定におけるビデオコンテンツの重みを表し、オーディオの重みは、該決定におけるオーディオコンテンツの重みを表す。オーディオの重みは、ミュージックの重み、すなわち、ミュージックコンテンツに関連する情報に基づいてどのように光効果が決定されるかを重み付けするためにのみ使用される重みであってもよく、又は、オーディオの重みはまた、他のタイプのオーディオ、例えば、スピーチ及び/若しくはオーディオエフェクトに適用されてもよい。
プロセッサ5はさらに、ビデオコンテンツに関連する情報及び/又はオーディオコンテンツに関連する情報を得るためにレシーバ3を使用する、及び、メディアコンテンツがレンダリングされている際に1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定するように構成される。1つ以上の光効果は、ビデオの重みに依存してビデオコンテンツに関連する情報に基づいて決定される、及び、オーディオの重みに依存してオーディオコンテンツに関連する情報に基づいて決定される。
例えば、色抽出方法は、ビデオの重み及びオーディオの重みに依存して得られた情報に基づいて選択されてもよい。その後、色抽出方法は、オンスクリーンコンテンツ及び/又はオフスクリーンコンテンツから色を抽出するために使用されてもよい。ビデオの重みは、どのようにオフスクリーンコンテンツから抽出される色及びオンスクリーンコンテンツから抽出される色が重み付けされるべきかを示すために使用されてもよい。例えば、ユーザがより高いビデオの重みを示す、又は、ビデオの重みの成分(component)としてより高いオフスクリーン貢献度(offscreen contribution)を示す場合、オフスクリーンコンテンツから抽出される色は、それ以外で与えられるものよりも高い重みを与えられてもよい。
プロセッサ5はさらに、1つ以上の光効果を指定する光スクリプトを保存する及び/又は1つ以上の光効果をレンダリングするように1つ以上の光源を制御するためにトランスミッタ4を使用するように構成される。 図1の実施形態では、プロセッサ5は、3つの方法のすべてを実行するように構成される。代替的な実施形態では、プロセッサ5は、3つの方法のうち1つ又は2つを実行するように構成される。
図1に示されるモバイルデバイス1の実施形態では、モバイルデバイス1は、1つのプロセッサ5を含む。代替的な実施形態では、モバイルデバイス1は、複数のプロセッサを含む。モバイルデバイス1のプロセッサ5は、例えばQualcomm(登録商標)からの若しくはARMベースの、汎用プロセッサ、又は特定用途向けプロセッサであってよい。モバイルデバイス1のプロセッサ5は、例えば、Android(登録商標)又はiOS(登録商標)オペレーティングシステムを実行してもよい。メモリ7は、1つ以上のメモリユニットを含んでもよい。メモリ7は、例えば、固体メモリを含んでもよい。メモリ7は、例えば、オペレーティングシステム、アプリケーション及びアプリケーションデータを記憶するために使用されてもよい。
レシーバ3及びトランスミッタ4は、例えば、無線LANアクセスポイント23と通信するためにWi-Fi(登録商標)(IEEE 802.11)等の1つ以上の無線通信技術を使用してもよい。代替的な実施形態では、単一のレシーバ及び単一のトランスミッタに代えて、複数のレシーバ及び/又は複数のトランスミッタが使用される。図1に示される実施形態では、別個のレシーバ及び別個のトランスミッタが使用される。代替的な実施形態では、レシーバ3及びトランスミッタ4は、トランシーバに組み合わされる。ディスプレイ9は、例えば、LCD又はOLEDパネルを含んでもよい。モバイルデバイス1は、バッテリ及び電源コネクタ等のモバイルデバイスに典型的な他の構成要素を含んでもよい。本発明は、1つ以上のプロセッサで実行されるコンピュータプログラムを使用して実装されてもよい。
図1の実施形態では、本発明のシステムは、モバイルデバイスである。代替的な実施形態では、本発明のシステムは、異なるデバイス、例えば、PC又はビデオモジュールである、又は、複数のデバイスを含む。ビデオモジュールは、例えば、HDMI(登録商標)入力を分析することができるようにTV及びHDMI(登録商標)入力を提供するデバイスの間に置かれることができる専用のHDMI(登録商標)モジュールであってもよい。
オフスクリーン色抽出方法の第1の実施形態が、図2に示されている。ステップ101は、ビデオコンテンツを得ることを含む。ステップ103は、ビデオコンテンツの複数のフレームに対して分析を実行することを含む。ステップ105は、分析に基づいて複数のフレームにおけるカメラの動きを決定することを含む。カメラの動きは、例えば、チルト、ズーム、横方向のカメラの動き(lateral camera movement)、又は旋回するカメラの動き(swiveling camera movement)であってもよい。ステップ107は、決定されたカメラの動きに基づいて複数のフレームのうちの少なくとも1つからオフスクリーン色情報を抽出することを含む。
ステップ109は、ビデオコンテンツのさらなるフレームがレンダリングされている際に1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定することを含む。さらなるフレームは、複数のフレームに隣接し、1つ以上の光効果は、オフスクリーン色情報に基づいて決定される。複数のフレームは、フレームに先行する1つ以上のフレーム及び/又はフレームに後続する1つ以上のフレームを含む。ステップ109の後、ステップ111及び/又はステップ113が実行される。ステップ111は、1つ以上の光効果を指定する光スクリプトを保存することを含む。ステップ113は、1つ以上の光効果をレンダリングするように1つ以上の光源を制御することを含む。
例えば、以下のプロセスが、光スクリプトを作成するために使用されてもよい。
1. ビジュアルメディアの事前分析が、ビデオの連続したセグメント(「ショット(shot)」)で発生するカメラの動きに関するカメラの動き情報(camera movement information)を得るために(人手を介す又は介さずに)行われる。追跡プロセス(tracking process)が、共に働くべきより多くのデータセットを得るために順方向及び逆方向の両方に適用されてもよい。
2. ショット内の各フレームが、ステップ1で収集された情報に基づいて、ショット内の他のフレームに関係して仮想的に位置付けられる。
3. 各フレームについて、オフスクリーン色情報の位置に関するデータが保存される。
4. (オプション)手動編集が行われる(例えば、所与のカットに対してオフスクリーンコンテンツを使用するかしないかを選択する)。
5. 最終的なスクリプトが作成され、スクリプトの一部はオフスクリーン色情報を含む。
リアルタイム光効果レンダリングのために、(十分な処理リソースがあれば)リアルタイムで(逆分析を除いた)上記のすべてのステップを実行することが可能であってもよい。しかしながら、通常は、(前述のビデオモジュールで実現されてもよい)バッファを用いてビデオ出力が数フレーム遅延されなければ、スクリーンに入ってくる色情報(すなわち、未来のフレームの一部)を検出することはできない。
図2の実施形態では、ステップ107は、サブステップ121及び123を含む。ステップ121は、1つ以上の光源の光源の空間的位置及び決定されたカメラの動きに基づいてフレームを選択することにより複数のフレームから少なくとも1つのフレームを選択することを含む。ステップ123は、選択されたフレームにおける光源に対するオフスクリーン色情報を抽出するための分析エリアを決定することを含む。
斯くして、視聴者に対するオフスクリーンコンテンツの仮想的なロケーションが推定され、光源の空間的位置に基づいてマッピングされることができる。例えば、カメラが180°の旋回動作を行う場合、ユーザの背後にある光源にレンダリングされる光効果は、(0°の回転を反映する)カメラの動きの開始に対応するフレームからの(色)情報を使用してもよい。この例は水平方向の動きのみを述べているが、この原理は、水平方向の動き及び/又は垂直方向の動きに使用されてもよい。
図3は、カメラがこのような180°の旋回動作を行う場合に捕捉された連続したビデオフレーム31~38の一例である。ビデオフレーム31~38は、単一のショットの部分である。フレーム31~34は、明るい光源である太陽を捕捉しており、その色は、これらのフレームにおいてドミナント色である。図4は、図3のビデオフレーム31~38の各々に対する瞬時(moment)41~48における光設定の例を示し、どのように光源の光設定が太陽の明るい白色を追従しているかを描写している。
カメラの動きは、フレーム31で始まると判断される。フレーム31内の太陽の位置の結果、中央及び右前方の光源が、瞬時41において太陽の明るい白色にマッチした光効果をレンダリングする。フレーム31~34において、太陽は依然オンスクリーンで見えている。フレーム35~38において、太陽はオンスクリーンでもはや見えないが、光設定では依然表現されている。フレーム38について、カメラは180°旋回されていて、視聴者の背後にある光源に対して、色情報がフレーム31から抽出されるべきであると判断される。瞬時48において、左後及び右後の光源は、それゆえ、太陽の明るい白色にマッチした光効果をレンダリングする。
オフスクリーン色抽出方法の第2の実施形態が、図5に示されている。この第2の実施形態は、図2の第1の実施形態の拡張である。この第2の実施形態では、方法は、追加のステップ167を含み、ステップ107は、2つの追加のサブステップ、ステップ161及び165を含み、ステップ123は、サブステップ163を含む。ステップ161は、少なくとも1つのフレームが動いているオブジェクトを捕捉しているかどうかを判断することを含み、ステップ163は、動いているオブジェクトを捕捉していない少なくとも1つのフレームの1つ以上のエリアからオフスクリーン色情報を抽出することを含む。ステップ165は、ビデオコンテンツのさらなるフレームからオンスクリーン色情報(onscreen color information)をさらに抽出することを含み、ステップ167は、オンスクリーン色情報に基づいて1つ以上のさらなる光効果を決定することを含む。
オフスクリーン色抽出方法の第3の実施形態が、図6に示されている。図6の実施形態では、ステップ107は、図2のサブステップ121及び123に代えて、サブステップ131、141及び133を含み、ステップ109は、サブステップ135を含む。ステップ131は、さらなるフレーム(すなわち、現在のフレーム)と、少なくとも1つのフレームの一部とを含むスーパーフレームを構成する(compose)ことを含む。スーパーフレームは、決定されたカメラの動きに基づいて構成される。ステップ141は、光源の空間的位置及びカメラの動きに関する情報に基づいてスーパーフレームから1つ以上の光源の光源に対するオフスクリーン色情報を抽出するための分析エリアを決定することを含む。ステップ141は、1つ以上の光源のサブセット又はすべてに対して実行されてもよい。
カメラの動きに関する情報は、例えば、カメラの動きが横方向のカメラの動きであるか、旋回するカメラの動きであるかを示してもよい。横方向のカメラの動きと旋回するカメラの動きとを区別するために、エッジ検出が使用されてもよく、及び/又は、運動視差(motion parallax)が決定されてもよい。ステップ133は、ステップ141で決定される(複数の)分析エリアを用いてスーパーフレームからオンスクリーン色情報及びオフスクリーン色情報を決定することを含む。ステップ135は、オンスクリーン色情報及びオフスクリーン色情報に基づいて1つ以上の光効果を決定することを含む。
図7は、現在のフレームの境界を延長するためにカメラの動きに起因するフレームをコラージュして、スーパーフレームを作成する一例である。過去のフレーム50~54及び未来のフレーム56~59の一部が、現在のフレーム55とともにスーパーフレーム61に含まれる。図7の例では、まず現在のフレーム55がスーパーフレーム61に追加されている。次に、フレーム55の一部ではないフレーム54及びフレーム56の一部が、スーパーフレーム61に追加されている。次に、まだスーパーフレーム61の一部ではないフレーム53及びフレーム57の一部が、スーパーフレーム61に追加されている。同様の原理が、フレーム50~52及び58~59に用いられている。
図8は、スーパーフレーム61のオフスクリーンコンテンツが、ユーザのスクリーンに対する(例えば、ユーザの照明セットアップ情報で指定される)光源の空間的位置に依存して、光源にオフスクリーンコンテンツの異なる部分をレンダリングするために使用されてもよいことを示している。分析エリア73及び74は、より高く、スクリーンから遠くに位置付けられている光源を有する第1のユーザのために使用されてもよく、分析エリア76及び77は、より低く、スクリーンの近くに位置付けられている光源を有する第2のユーザのために使用されてもよい。分析エリア73は、図7のフレーム51から得られる部分に位置し、分析エリア74は、図7のフレーム57から得られる部分に位置し、分析エリア76は、図7のフレーム54から得られる部分に位置し、分析エリア77は、図7のフレーム56から得られる部分に位置する。
図8の例では、分析エリアは、オフスクリーンコンテンツからしか決定されていないが、分析エリアは、オンスクリーンコンテンツから決定されてもよい。分析エリアがマッピングされる光源は、すべて異なるライトデバイスの部分であってもよく、又は、1つ以上のライトデバイスは、複数の光源を含んでもよく、例えばピクセル化されたライトを使用してもよい。ピクセル化されたライトの場合、そのある部分は、オンスクリーンコンテンツに基づいて作成される光効果をレンダリングしてもよく、その別の部分は、オフスクリーンコンテンツに基づいて作成される光効果をレンダリングしてもよい。斯くして、ピクセル化されたライトスリップは、図8のスーパーフレーム61全体に基づいて作成される光効果をレンダリングすることができてもよい。
オフスクリーン色抽出方法の第4の実施形態が、図9に示されている。第4の実施形態では、図6の第3の実施形態のステップ141が、ステップ151に置き換えられている。ステップ151は、オンスクリーン色情報及びオフスクリーン色情報の両方を抽出するための単一の分析エリアを決定することを含む。単一の分析エリアの位置及び/又はサイズは、分析エリアの一部がさらなるフレーム(すなわち、現在/オンスクリーンフレーム)と重なり、分析エリアの一部が(オフスクリーン色情報が抽出される)少なくとも1つのフレームの一部と重なるように決定される。
これは、図10を用いて例示されている。フレーム81~83では、分析エリアが、スーパーフレーム内のオンスクリーンコンテンツ及びオフスクリーンコンテンツの両方をカバーするために移動され得ることが示されている。フレーム81は、カメラの動きの開始を反映しており、分析エリア91は、通常の位置にある。スーパーフレーム82及び83は、複数の過去のフレームの一部を含む。スーパーフレーム82では、分析エリア92は、現在のフレームの一部及び1つの過去のフレームの一部の両方をカバーするように右に移動されている。分析エリア93は、現在のフレーム及び2つの過去のフレームに重なるように移動されている。
フレーム85~86では、分析エリアは移動されるだけでなく、伸ばされている。どのくらいエリアが「伸びる(stretch)」かは、スクリプト作成者によって又は自動的に定義されてもよい。分析エリア92と比較して、分析エリア95は、2つのフレームのより大きな部分をカバーするように拡大されている。分析エリア93と比較して、分析エリア96は、3つのフレームのより大きな部分をカバーするように拡大されている。フレーム85~86は、分析エリアが異なることを除いて、フレーム82~83と同じである。
オフスクリーン色情報及びオンスクリーン色情報の両方を抽出して、両方に基づいて光効果を作成する場合、例えば、オフスクリーン色情報の影響を減らす又は増やすために、オンスクリーンエリアに対する色値とオフスクリーンエリアに対する色値とで異なる重みが割り当てられてもよい。例えば、オンスクリーンエリア内のピクセルから抽出される色に1の重みを与え、オフスクリーンエリア内のピクセルから抽出される色に低減された重みを与え、ピクセルがオンスクリーンエリアから離れるほど重みが低くなるようなアルゴリズムが使用されてもよい。
このアルゴリズムは、例えば、離散関数又は連続(例えば、線形)関数によって実装されてもよい。後者の一例が、図23に示されている。図23は、図7のスーパーフレーム61の部分601を示している。部分601は、現在のフレーム55の一部と、過去のフレーム51~54の一部とから成る。部分601内のあるピクセルの列から抽出される色に与えられるべき重み(0~1の範囲)は、該ピクセルの列の下のライン603の対応する部分から決定されることができる。図23では、スーパーフレーム61の一部のみが示されている。同じ原理が、スーパーフレーム61の他のピクセルに適用されてもよい。ユーザが、どの重み付け(weighting)が適用されるかを指定できてもよい。
色抽出選択方法の第1の実施形態が、図11に示されている。ステップ201は、メディアコンテンツ及びメディアコンテンツに関する情報を得ることを含む。メディアコンテンツは、ビデオコンテンツを含み、オーディオコンテンツをさらに含んでもよい。コンテンツに関する情報は、例えば、ダイナミシティレベル(level of dynamicity)、コントラスト情報、彩度情報(saturation information)、明るさレベル及び/若しくは分布情報(brightness level and/or distribution information)、(例えば、ビデオフレーム又は複数のビデオフレームの異なる領域の)色分布情報(color distribution information)、オーディオレベル、ジャンル、シーンロケーション(scene location)、シーンタイプ、並びに/又は曲名を含んでもよい。
ステップ203は、得られた情報に基づいて複数の色抽出方法から色抽出方法を選択することを含む。色抽出方法は、同じピクセルから異なる色を抽出するという点で互いに異なる。複数の色抽出方法は、例えば、異なるタイプの色抽出方法及び/又は単一のタイプの色抽出方法に対する異なるセットのパラメータを含んでもよい。
異なるタイプの色抽出方法は、例えば、平均色判定(average color determination)(例えば、トリムミーン色判定(trimean color determination)、ミーン色判定(mean color determination)、メジアン色判定(median color determination)、又はモード色判定(mode color determination))、ドミナント色判定、ドミナント照明色判定(dominant illumination color determination)、可視光源色判定(visible light source color determination)、及び/又は特徴色判定(feature color determination)を含んでもよい。平均色が、フレーム(サブエリア)ごとに決定されてもよく、複数のフレームの平均が、それら自体で平均化(例えば、トリムミーンのトリムミーン)されてもよい。異なる平均化方法が、フレーム(サブエリア)ごとの平均を決定することと、平均の平均を決定することとで用いられてもよい。
色抽出を実行する異なる方法は、例えばムードに基づいて、色空間の異なる領域に対して異なる重みを使用してもよい。例えば、ムードが、気が重いもの(depressing)であると判断される場合、非飽和色(desaturated color)により高い重みを与える(すなわち、好む)色抽出方法が使用されてもよい。トリムミーン判定(又は他の平均色決定)を実行する異なる方法はさらに、フレームの異なる分析エリアに対して異なる重みを使用してもよく、例えば、スーパーフレームのオフスクリーンコンテンツにおける分析エリア(例えば、1つ以上のピクセルの列)から決定されるトリムミーンは、スーパーフレームのオンスクリーンコンテンツにおける分析エリアから決定されるトリムミーンとは異なる重みを与えられてもよく、その後、異なる分析エリアのトリムミーンの平均(例えば、トリムミーン)が決定されてもよい。
ステップ205は、選択された色抽出方法を適用することによりビデオコンテンツの1つ以上のフレームから色を抽出することを含む。図11の実施形態では、1つ以上の色が、複数のセクションに対してセクションごとに抽出される。各セクションは、シーン、ショット又は単一のフレームを含む。シーン及びショットは、複数のフレームを含む。単一の色が、セクションのすべてのフレームからセクションごとに抽出されてもよく、及び/又は、色が、セクションのすべてのフレームにおけるサブエリアからサブエリアごとにセクションごとに抽出されてもよい。図11の実施形態では、光スクリプトが保存されるべき場合、ステップ205の後にステップ203が、異なるセクションに対して繰り返されてもよい。
異なる色抽出方法が、例えば、コンテンツのタイプ及びユーザの照明セットアップにおける光源のタイプに依存して、セクションの異なるサブエリア(すなわち、スクリーンの異なるエリア)に対して選択されてもよい。例えば、トリムミーン判定(trimean determination)が、スクリーンの中央エリアにマッピングされる光源のためにスクリーンの中央で使用されてもよく、ドミナント色判定(dominant color determination)が、スクリーンの左及び右エリアにマッピングされる光源のためにスクリーンの左及び右で使用されてもよい。斯くして、複数の異なる色抽出方法が、あるセクションの複数の異なるサブエリアから色を抽出するために当該セクションに対して選択されてもよい。
異なるサブエリアから色が抽出される場合、複数の候補色が、(複数の)選択された色抽出方法を用いて1つ以上のサブエリアから抽出されてもよく、異なるサブエリアから抽出される異なる色が、例えば、美しい(aesthetically pleasing)、相補的(complementary)、色相が同一、又は明度が同一であるように、サブエリアごとに候補色から1つの色が選択されてもよい。例えば、プリセット(例えば、美的又は相補的)に依存して、異なる色の組み合わせが、例えば、フランキングランプ(flanking lamp)にレンダリングされてもよい。第1の例として、複数の候補色は、サブエリアにおける3つの最ドミナント色を決定することにより抽出されてもよい。第2の例として、複数の候補色は、平均色判定の異なる方法(例えば、トリムミーン、ミーン、メジアン及びモード)を使用して抽出されてもよい。
ステップ207は、1つ以上のフレームがレンダリングされている際に1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定することを含む。1つ以上の光効果は、抽出された色に基づいて決定される。ステップ207の後、ステップ209及び/又はステップ211が実行される。
ステップ209は、1つ以上の光効果を指定する光スクリプトを保存することを含む。図11の実施形態では、ステップ208は、サブステップ209を含む。ステップ208は、ユーザが、光スクリプトを保存する前に抽出された色及び/又は選択された色抽出方法を確認することを可能にすることを含む。この実施形態では、選択された色及び/又は(複数の)選択された色抽出方法がユーザの好みに合わない場合、ユーザは、ステップ208において、抽出された色を手動で修正する、又は、異なる色抽出方法を手動で選択することが可能である。ユーザがあるセクション又はすべてのセクションに対して異なる色抽出方法を選択する場合、ステップ205が、これらのセクションに対して繰り返される。
ステップ211は、1つ以上の光効果をレンダリングするように1つ以上の光源を制御することを含む。図11の実施形態では、1つ以上の光効果があるセクションについて決定され、レンダリングされた後、ステップ201が、コンテンツの次のセクションに対して繰り返される。ステップ211で1つ以上の光源が制御されるのと同時に、ステップ209で光スクリプトがリアルタイムで作成される場合、光効果は、セクションごとに決定され、光スクリプトに格納され、ステップ208は省略される。
例えば、以下のプロセスが、光スクリプトを作成するために使用されてもよい。
1. 情報が、以下の例示的な方法の1つ以上を用いて収集される。
オーディオビジュアルメディアの事前分析(ビジュアルダイナミクス(visual dynamic)、コントラスト、彩度、オーディオレベル等の量)。
メディアコンテンツに関する既存の情報(ジャンル、シーンロケーション及びタイプ、ミュージックタイトル等)についてデータベースを照会する。
2. その後、関連する情報が、コンテンツに使用する最良の色抽出方法を決定するために処理される。理想的な実施形態では、方法は、(例えば、シーン、カメラカット、フレーム、又は組み合わせにより)セクションごとに定義される。
3. その後、抽出方法が、各メディアセクションについて確認され、最終的な光スクリプトに「焼かれる(baked)」。ここで「抽出方法」という用語は、単純に、コンテンツに基づく、色/輝度信号の作成を指す。これは、結果としての信号が実際にソースに含まれていることを意味するものではない。相関関係はあり得るが、結果としての色度座標は、ソースに含まれている必要は定義上ない。
リアルタイム光効果レンダリングのために、例えば、以下の処理が用いられてもよい。
1. 情報が、以下の例示的な方法の1つ以上を用いて収集される。
コンテンツプロバイダにより提供されるメタデータからの抽出、又はメディアコンテンツに関する既存の情報(ジャンル、シーンロケーション及びタイプ、ミュージックタイトル等)についてデータベース(例えば、Gracenote)を照会する。
ストリーミングデータのリアルタイム分析(ダイナミクス、ラウドネス、彩度等の量)。
2. 関連する情報が、メディアコンテンツにおける現在の位置に使用する最良の色抽出方法を決定するためにリアルタイムで処理される。
3. 抽出がリアルタイムで適用され、照明源にレンダリングされる。
オプションとして、バッファが、例えばビデオモジュールにおいて、将来のフレームをいくつかバッファリングするために使用され、これらの将来のフレームがリアルタイム光効果レンダリング中に分析されることを可能にする。
色抽出選択方法の第2の実施形態が、図12に示されている。図11の第1の実施形態と比較して、第2の実施形態は、ステップ208及び209を含んでいない。この実施形態では、ただ光スクリプトが保存される。さらに、図12の第2の実施形態では、図11のステップ203及び211が、それぞれステップ221及び223を含む。ステップ221は、得られた情報に基づいて及びユーザの照明セットアップに関する情報に基づいて複数の色抽出方法から色抽出方法を選択することを含む。ユーザの照明セットアップは、1つ以上の光源を含む。ステップ223は、1つ以上の光効果をレンダリングするようにユーザの照明セットアップの1つ以上の光源を制御することを含む。
ユーザの照明セットアップに関する情報は、例えば、光源の量、光源の空間的位置、光源のタイプ、及び光源の能力(capability)を含んでもよい。例えば、ユーザの照明セットアップが、(例えば、Philips HueGo等)ディープ調光(deep diming)が可能な光源を含む場合、ユーザの照明セットアップが(例えば、Philips Hue(登録商標) bulb E27等)ディープ調光を持つ光源を含まない場合に選択される色抽出方法とは異なる色を暗いシーンから抽出する色抽出方法が選択されてもよい。
色抽出選択方法の第3の実施形態が、図13に示されている。この実施形態のステップ207では、1つ以上の光効果が、第1のタイプの潜在的な照明セットアップに対して決定される。方法はさらに、3つの追加のステップを含む。ステップ231は、得られた情報に基づいて複数の色抽出方法からさらなる色抽出方法を選択することを含む。ステップ233は、選択されたさらなる色抽出方法を適用することによりビデオコンテンツの1つ以上のフレームからさらなる色を抽出することを含む。
ステップ235は、第2のタイプの潜在的な照明セットアップに対して1つ以上のさらなる光効果を決定することを含む。1つ以上のさらなる光効果は、抽出されたさらなる色に基づいて決定される。さらに、ステップ209は、ステップ237を含む。ステップ237は、光スクリプトで1つ以上のさらなる光効果を指定することを含む。1つ以上の光効果は、光スクリプトで第1のタイプの照明セットアップと関連付けられ、1つ以上のさらなる光効果は、光スクリプトで第2のタイプの照明セットアップと関連付けられる。光スクリプトが後にレンダリングされる場合、マッチする光効果が、ユーザの実際の照明セットアップに基づいて選択されてもよい。代替的なの実施形態では、同様のアプローチが、3つ以上の潜在的な照明セットアップに対して用いられる。
斯くして、図12及び図13の実施形態では、ユーザの照明セットアップも、色抽出方法のタイプを決定又は選択するために使用されることができる。スクリプト化コンテンツ(scripted content)の場合、スクリプトは、異なる方法を用いて作成されたカラーパレットを含み、これらのパレットの1つが、ユーザのセットアップに基づいて再生時に選択されてもよい。リアルタイム光効果レンダリングの場合、ユーザのセットアップは、どの色抽出方法を使用するかを決定するために(例えば、ストリーミングデータ及びコンテンツデータに加えて)重み付けファクタ(weighted factor)になってもよい。ユーザのセットアップに関する情報は、例えば、光源のタイプ、光源の位置、及び/又は光源の数を含んでもよい。
色抽出選択方法の第4の実施形態が、図14に示されている。この第4の実施形態では、複数の色抽出方法は、単一のタイプの色抽出方法に対する異なるセットのパラメータを含み、これらの異なるセットのパラメータは、同じタイプの色抽出方法(例えば、トリムミーン判定又は他の平均色判定)で使用される色空間の異なる領域を識別する。斯くして、色遷移がどのように起こるかが、得られた情報に基づいて決定されてもよい。例えば、点Xから点Yまで特定の色空間を直進するのではなく、このパスが、得られた情報によって影響を受けてもよい。この一例は、知覚されるライトネス(lightness)又は彩度を一定に保つ色遷移である。
図14のステップ201では、4つのセクションS~Sk+3、例えば、同じシーン内の4つのショットが得られる。ステップ203の第1の反復(iteration)において、セクションSが分析され、この分析に基づいて色抽出方法が選択される。この抽出方法は、色Cを決定するためにステップ205の第1の反復においてセクションSに適用される。ステップ203の第2の反復において、セクションSk+3が分析され、この分析に基づいて色抽出方法が選択される。この抽出方法は、色Ck+3を決定するためにステップ205の第2の反復においてセクションSk+3に適用される。
次のステップ251は、2つの色C及びCk+3間の色空間における遷移パスを選択すること、及び、2つのセクションS及びSk+3間に位置する中間セクションSk+1及びSk+2に適用されるべき色抽出方法を選択することとを含む。色抽出方法は、選択された遷移パスに基づいて選択される。この抽出方法は、色Ck+1を決定するためにステップ205の第3の反復においてセクションSk+1に適用され、色Ck+2を決定するためにステップ205の第4の反復においてセクションSk+2に適用される。
ステップ207では、セクションS~Sk+3に対してレンダリングされるべき光効果が、2つのセクションS及びSk+3から抽出される2つの色C及びCk+3、並びに、中間セクションSk+1及びSk+2から抽出される色Ck+1及びCk+2に基づいて決定される。例えば、セクションSに対する光効果は色Cに基づいて決定され、セクションSk+1に対する光効果は色Ck+1に基づいて決定され、セクションSk+2に対する光効果は色Ck+2に基づいて決定され、セクションSk+3に対する光効果は色Ck+3に基づいて決定される。ステップ209は、光効果を指定する光スクリプトを保存することを含む。
図15~17は、異なる色遷移パスの例を示している。図15~17は、CIEL*a*b* 1976色空間、及び点X(座標271)から点Y(座標272)まで空間を通る様々なパスを表している。例えば、座標271は、Cに対応してもよく、座標272は、Ck+3に対応してもよい。説明を容易にするために、L(Lightness:ライトネス)はX及びYともに一定であり、a*及びb*(緑赤及び青黄色成分)のみが可変である。抽出された色のライトネスは、同じ又は異なることが予想され、色空間を通るパスはさらに、X及びYのライトネス間で直線ではないパスを含むことができる。一例として、X及びY間のライトネスパス(lightness path)は、パス上のいくつかの点がX及びYの両方よりも低いライトネスを有するような放物線であることができる。図15は、直線進路(direct line of travel)を示し、その結果、このライン、ライン275上のすべての点は、点X及びYよりも飽和されないことになる。
図16は、遷移中彩度を最大にする最大彩度アルゴリズム(max saturation algorithm)を示している(ライン276上のすべての点は、原点から等距離にある)。最後に、図17は、遷移中ライン277上の色度座標を非飽和する(desaturate)するアルゴリズムを示している。例えば、色C及びCk+3に基づいて、シーンのムードが気が重いものであると判断される場合、図17に描写される遷移パスが、中間セクションSk+1及びSk+2に対して選択されてもよい。
重み付け影響光効果作成方法の第1の実施形態が、図18に示されている。重み付け影響光効果作成方法では、1つ以上の光効果が、メディアコンテンツの分析に基づいて決定される。メディアコンテンツは、ビデオコンテンツ及びオーディオコンテンツを含む。ステップ301は、ユーザが1つ以上の光効果の決定に使用されるビデオの重み(video weight)及びオーディオの重み(audio weight)に影響を与えることを可能にすることを含む。ビデオの重みは、1つ以上の光効果の決定におけるビデオコンテンツの重みを表し、オーディオの重みは、該決定におけるオーディオコンテンツの重みを表す。ビデオの重みは、異なるタイプのビデオ情報に対する複数の重み成分を含んでもよく、及び/又は、オーディオの重みは、異なるタイプのオーディオ情報に対する複数の重み成分、例えば、ミュージックのリズムに対する特定の重を含んでもよい。
ユーザは、ビデオの重み及びオーディオの重みの両方を指定及び/若しくは適応させる(adapt)ことができてもよく、又は、ユーザは、2つの重みのうち1つを指定及び/若しくは適応させることができてもよい。後者の場合、ユーザが第1の重みを指定又は適応させた後、第2の重みは、第1の重みに基づいて自動的に決定されてもよい。ユーザは、重みについて、単一の値又は複数の値、例えば範囲を指定してもよい。ユーザが複数の値を指定する場合、システム自身が、例えば、オーディオコンテンツのタイプ、どのチャンネルのミュージックが再生されているか、及び/又は、ビデオコンテンツのタイプに依存して、これらの値のうちの1つを選択してもよい。例えば、映画のあるシーンが非常にカラフルで、トリムミーン又はドミナント色(trimean or dominant color)がビデオコンテンツをうまく表さない場合、ユーザが、例えば同様のオーディオ及びビデオの重みの範囲を選択したとしても、システムは、よりオーディオに影響された色を目指すことを決定してもよい。
ステップ303は、ビデオコンテンツに関連する情報及び/又はオーディオコンテンツに関連する情報を得ることを含む。ビデオコンテンツに関連する情報は、例えば、色情報を含んでもよい。オーディオコンテンツに関連する情報は、例えば、ハーモニー、バレンス(valence)、エネルギ、ムード、及び/又はダンサビリティ(danceability)情報を含んでもよい。バレンス、エネルギ及びダンサビリティ情報は、例えば、Spotifyによって提供される。Spotifyのバレンス情報は、トラックによって伝えられる音楽的なポジティブさ(musical positiveness)を記述する0.0から1.0までの尺度である。バレンスが高いトラックは、よりポジティブなサウンド(例えば、ハッピー、陽気、多幸感)であり、バレンスが低いトラックは、よりネガティブなサウンド(例えば、悲しみ、落ち込み、怒り)である。
Spotifyのエネルギ情報は、インテンシティ(intensity)及びアクティビティ(activity)の知覚的な尺度を表す0.0から1.0までの尺度である。典型的には、エネルギッシュなトラックは、速くて、うるさくて、騒々しい感じがする。例えば、デスメタルは高いエネルギを持ち、バッハのプレリュードはスケール上で低いスコアである。この属性に寄与する知覚的特徴は、ダイナミックレンジ、知覚されるラウドネス、音色(timbre)、オンセットレート(onset rate)、一般的なエントロピ(general entropy)を含む。Spotifyのダンサビリティ情報は、テンポ、リズムの安定性、ビートの強さ、及び全体的な規則性を含む音楽的要素の組み合わせに基づいてトラックがダンスにどの程度適しているかを記述する。0.0の値は最もダンサブルではなく、1.0の値は最もダンサブルである。
ステップ305は、メディアコンテンツがレンダリングされている際に1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定することを含む。1つ以上の光効果は、ビデオの重みに依存してビデオコンテンツに関連する情報に基づいて決定される、及び、オーディオの重みに依存してオーディオコンテンツに関連する情報に基づいて決定される。
図18の実施形態では、1つ以上の光効果は、1つ以上の光効果の各々の色、開始時間及び持続時間を決定することにより、及び、1つ以上の光源のうちの少なくとも1つに1つ以上の光効果の各々を割り当てることにより決定される。色抽出方法、持続時間及び空間的割り当ては、ビデオの重み及びオーディオの重みに基づいて選択されてもよい。第1の例として、色抽出方法は、ミュージックのバレンス若しくはムードに基づいて、又は、シーンが(ビデオコンテンツの観点から)遅いか速いかに基づいて選択されてもよい。第2の例として、光効果の持続時間は、シーンが遅いか速いかに依存してもよく、又は、ミュージックのビート(beat)、バー(bar)、及び/又はリズムと光効果を同期するように決定されてもよい。
第3の例として、ある光源に対する色を決定するために使用されるビデオ分析エリアは、この光源の空間的位置に依存してもよく、又は、ある光源に対する色及び/若しくは持続時間を決定するために使用されるオーディオチャネル(例えば、左又は右)は、この光源の空間的位置に依存してもよい。第4の例として、サラウンドサウンドシステムの場合、後方オーディオチャンネル/スピーカでのみミュージックが再生される場合、(ユーザが持っている場合)背後の光源のみが、ミュージックコンテンツに関連する情報に基づいて光効果をレンダリングしてもよい。ユーザが背後の光源を持っていない場合、光効果は、ミュージックコンテンツに関連する情報に基づかなくてもよい。斯くして、オーディオチャンネルが、どのようにビデオ及びオーディオ主導の光効果作成間のバランスをとるかを決定するために使用されてもよい。
ステップ305の後、ステップ307及び/又はステップ309が実行される。ステップ307は、1つ以上の光効果を指定する光スクリプトを保存することを含む。ステップ309は、1つ以上の光効果をレンダリングするように1つ以上の光源を制御することを含む。
斯くして、ユーザは、ビジュアルコンテンツ及びミュージカルコンテンツの相対的な影響、並びに、どのように各々が結果としての光効果に影響を与えるかを重み付けすることを選択してもよい。例えば、-1の値は、ミュージックの態様のみへの依存性を意味してもよく、+1の値は、ビデオコンテンツへの依存性を意味してもよい。その間の値は、両方のコンテンツ及びそれらの光効果への影響の「ブレンディング(blending)」を意味する。値が-1の場合、光効果は、例えば、メディアに含まれるミュージックから得られる情報のみによって決定されてもよい。この場合、光効果は、(存在する場合)メディアのビジュアル部分との直接的な相関関係は持たないことになる。
ミュージックから得られる異なるタイプの情報が、別個に露にされ、各々に異なる重み付けが適用されることを可能にしてもよい。例えば、ユーザは、照明効果に対してミュージックトラックのリズムの態様(rhythmic aspect)が持つ影響量(amount of influence)を選択してもよい。
同様のアプローチは、光スクリプト生成及び光効果のリアルタイム作成の両方に適用されてもよい。例えば、オーディオ/ビデオの重みが異なる複数のプリセット、例えば、オーディオの重みが高い「ミュージックビデオ」、並びに/又は、オーディオ及びビデオの重みが中程度(medium)である「映画」、がユーザに提供されてもよい。
どのミュージックトラックがメディアコンテンツの一部であるかを決定するために、例えば、この情報は、メディアコンテンツのタイトル若しくは他の識別子に基づいてインターネット若しくはコンテンツプロバイダから得られてもよく、又は、この情報は、オーディオコンテンツをローカルに分析することによって決定されてもよい。この情報はさらに、メディアコンテンツにおけるミュージックトラックの位置及びミュージックに関するコンテキスト情報(contextual information)(例えば、ハーモニー、バレンス、ムード、エネルギ等)を含んでもよい。
この情報が得られると、該情報は、事前定義されたルールのセットに従って光効果生成のためのパラメータを設定するために使用されてもよい。例えば、ルールは、ミュージックトラックのエネルギ及び平滑化(smoothing)の間に逆相関を指定してもよく、すなわち、エネルギの低いミュージックを含む映画の部分は、高い平滑化が適用され、その逆もなされてもよい。同様に、これは、映画の中の単一のミュージックトラックの様々なセクションに適用してもよい。
重み付け影響光効果作成方法の第2の実施形態が、図19に示されている。ステップ301(図18参照)が実行された後、ビデオコンテンツが、ステップ321で得られ、ローカルに分析される。ステップ323では、オーディオ及びビデオの重みに基づいて次にどのステップを実行するかが決定される。オーディオの重みが0である場合、次にステップ325が実行される。オーディオの重みが1である場合、次にステップ327が実行される。
ステップ325は、デフォルトのパラメータに基づいて又はビデオの重みに基づいて選択されるパラメータに基づいて、ビデオコンテンツを分析する、例えば、ビデオコンテンツから色を抽出することを含む。ステップ327は、オーディオコンテンツに関連するメタデータの要求をインターネットサーバに送信することを含む。ステップ341は、インターネットサーバが要求を受け、ステップ343で要求に応じて要求されたメタデータを送信することを含む。ステップ329は、システムがメタデータを受けることを含む。
次に、ステップ331は、システムが、受けたメタデータからパラメータを決定することを含む。ステップ333は、システムが、ステップ331で決定されるパラメータに基づいて、ビデオコンテンツを分析する、例えば、ビデオコンテンツから色を抽出することを含む。ステップ305では、1つ以上の光効果が、ビデオコンテンツの分析に基づいて決定される。ステップ307は、1つ以上の光効果を指定する光スクリプトを保存することを含む。
重み付け影響光効果作成方法の第3の実施形態が、図20に示されている。図20の第3の実施形態では、オーディオコンテンツに関連するメタデータがインターネットサーバから得られず、代わりにローカルオーディオ分析が実行される。このため、図19のステップ321は、ビデオ及びオーディオコンテンツの両方が得られるステップ351に置き換えられる。ステップ323でオーディオの重みが1であると判断される場合、ステップ353が実行される。ステップ353は、オーディオコンテンツを分析すること、及び、オーディオコンテンツからパラメータを決定することを含む。その後、これらのパラメータは、ステップ333において、ビデオコンテンツを分析する、例えば、ビデオコンテンツから色を抽出するために使用される。
図19の実施形態及び図20の実施形態の両方において、ビデオ分析はローカルに実行される。代替的なの実施形態では、ビデオコンテンツに関連するメタデータが、インターネットサーバから得られる。
オフスクリーン色抽出方法の第5の実施形態、色抽出選択方法の第5の実施形態、及び重み付け影響光効果作成方法の第4の実施形態が、図21に示されている。ステップ401は、図18~図20のステップ301と同様である。ステップ401は、ユーザが1つ以上の光効果の決定に使用されるビデオの重み及びオーディオの重みに影響を与えることを可能にすることを含む。ステップ403は、図20のステップ351と同様である。ステップ403は、ビデオコンテンツ及びオーディオコンテンツを得ることを含む。ステップ405は、ビデオコンテンツに関連する情報及び/又はオーディオコンテンツ、例えばミュージックコンテンツに関連する情報を得ることを含む。
ステップ411では、オーディオ及びビデオの重みに基づいて次にどのステップを実行するかが決定される。オーディオの重みが0で、ビデオの重みが1である場合、次にステップ421が実行される。オーディオの重みが1で、ビデオの重みが0である場合、次にステップ441が実行される。オーディオの重みが1で、ビデオの重みが1である場合、次にステップ431が実行される。図21の実施形態では、オーディオの重みは0又は1であり、ビデオの重みは0又は1である。代替的な実施形態では、オーディオの重み及びビデオの重みは、1よりも高くすることができる。この代替的な実施形態では、例えば、ステップ421は、オーディオの重みが0であり、ビデオの重みが1以上である場合に実行されてもよく、ステップ441は、オーディオの重みが1以上であり、ビデオの重みがゼロである場合に実行されてもよく、ステップ431は、オーディオの重みが1以上であり、ビデオの重みが1以上である場合に実行されてもよい。
次にステップ421が実行される場合、色抽出方法が、ビデオコンテンツのコンテンツに基づいて(例えば、ビデオコンテンツのローカル分析に基づいて又はインターネットサーバから得られるメタデータに基づいて)複数の色抽出方法から選択される。この実施形態では、複数の色抽出方法は、異なるタイプの色抽出方法を含む。ステップ421は、シーンが遅いシーンであるか、速いシーン(アクションシーン)であるか、通常のシーンであるかを判断することを含む。これは、例えば、圧縮ビデオで典型的に使用される動きベクトルに基づいて、1つのフレームから次のフレームへ何個のピクセルが移動するか、及び/又は、1つのフレームから次のフレームへどのくらい速くピクセルが移動するかを検出することを伴ってもよい。この検出に基づいて単一の動き値が決定される場合、遅いシーン、通常のシーン、及び速い(アクション)シーンを区別するために、2つの閾値が使用されてもよい。
ステップ422では、ステップ421において、得られた情報がシーンは遅いシーンであることを示すと判断するとシーンから色を抽出するために、ドミナント色判定が選択される。シーンのドミナント色は、典型的には、シーン内で最も出現する色である。例えば、色ごとに、この色を持つピクセルの数を示すカラーヒストグラムが作られてもよく、最高のピクセル数を持つ色が選択されてもよい。平均色(average color)は、典型的には、ドミナント色とは異なり、シーン内のピクセルのいずれかが持つ色でさえない可能性がある。
ステップ424では、ステップ421において、得られた情報がシーンはアクションシーンであることを示すと判断するとシーンから色を抽出するために、(例えば、車又は建物等のドミナント特徴(dominant feature)の色を決定する)特徴色判定が選択される。ステップ423では、ステップ421において、得られた情報がシーンは通常のシーン、すなわちスローでもアクションシーンでもないことを示すと判断すると各フレームから色を抽出するために、トリムミーン判定が選択される。この実施形態では、トリムミーンのトリムミーンが、フレームごとの色からシーンごとの色を決定するために決定される。ステップ425が、ステップ423の後に実行される。
ステップ425は、決定されたトリムミーンの結果、所望の色になるかどうかを判断することを含む。そうである場合、ステップ426が実行される。そうではない場合、すなわち、トリムミーン判定の結果、望ましくない色になる場合、ステップ424においてシーンから色を抽出するために特徴色判定が選択される。どのような色が望ましい、又は望ましくないかは、事前構成(pre-configure)されてもよく、又はユーザによって指定されてもよい。例えば、暗い色は、望ましくなくてもよい。ステップ426は、ステップ422及びステップ424の後にも実行される。ステップ426では、1つ以上の色が、選択された色抽出方法を用いてシーンから抽出される。色は、例えば、異なる分析エリアを用いて、光源ごとに決定されてもよい。図21の実施形態では、1つ以上の色は、図2、5、6及び9に関連して述べられたように、オンスクリーンコンテンツから、及びオフスクリーンコンテンツから決定される。
図21の実施形態では、トリムミーン判定の結果、望ましくない色になる場合、特徴色判定が選択される。代替的な実施形態では、1つ以上のフレームにドミナント色がない場合、並びに/又は、動いている、鮮明な(sharp)及び/若しくは高コントラストのオブジェクトが1つ以上のフレームに検出される場合、特徴色判定が代替的又は追加的に選択される。
ステップ431は、ミュージックコンテンツに対して光スクリプトが利用可能であるかどうかを判断すること、及び、ミュージックコンテンツがある量を超えるダイアログを含むかどうかを判断することを含む。光スクリプトが利用可能であり、ミュージックコンテンツがある量を超えるダイアログを含まない場合、ステップ439が実行される。ステップ439は、光スクリプトから光効果に対するパラメータ、例えば、開始時間、持続時間及び色を抽出することを含む。ステップ407は、ステップ439の後に実行される。
光スクリプトが利用可能ではない場合、及び/又は、ミュージックコンテンツがある量を超えるダイアログを含む場合、ステップ432が実行される。ステップ432が実行される場合、色抽出方法が、ミュージックコンテンツに関連する情報(例えば、オーディオコンテンツのローカル分析を用いて決定される情報又はインターネットサーバから得られる情報)に基づいて選択される。ステップ432は、ミュージックコンテンツが低エネルギ値を含むか、高エネルギを含むかを判断すること、及び、ミュージックコンテンツが低バレンス値を含むか、高バレンス値を含むかを判断することを含む。
図21の実施形態では、ある閾値を超えるエネルギ値は高エネルギ値とみなされ、このある閾値以下のエネルギ値は低エネルギ値とみなされ、ある閾値を超えるバレンス値は高バレンス値とみなされ、このある閾値以下のバレンス値は低バレンス値とみなされる。代替的な実施形態では、2つの閾値が、エネルギ及び/又はバレンスに使用されてもよく、2つの閾値間の値が、通常の(エネルギ又はバレンス)値であってもよい。
ステップ432で(ミュージックの)エネルギ値が低いと判断され、(ミュージックの)バレンス値が低いと判断される場合、ステップ433で第1の色抽出方法が選択される。ステップ432でエネルギ値が高いと判断され、バレンス値が低いと判断される場合、ステップ434で第2の色抽出方法が選択される。ステップ432でエネルギ値が低いと判断され、バレンス値が高いと判断される場合、ステップ435で第3の色抽出方法が選択される。ステップ432でエネルギ値が高いと判断され、バレンス値が高いと判断される場合、ステップ436で第4の色抽出方法が選択される。例えば、ミュージックトラックのバレンスは、トラックによって伝えられる音楽的なポジティブさを表し、この情報は、例えばSpotifyによって提供される。
ステップ434及び436でそれぞれ選択される第2及び第4の色抽出方法は、ステップ433及び435でそれぞれ選択される第1及び第3の色抽出方法よりも低い平滑化の程度(degree of smoothing)を伴う。平滑化は、例えば、トリムミーンのトリムミーンを決定する場合に使用される。ステップ435及び436でそれぞれ選択される第3及び第4の色抽出方法は、ステップ433及び434でそれぞれ選択される第1及び第2の色抽出方法により決定される色よりも飽和されている色を決定する。
ステップ437では、1つ以上の色が、選択された色抽出方法を用いてシーンから抽出される。色は、例えば、異なる分析エリアを用いて、光源ごとに決定されてもよい。図21の実施形態では、1つ以上の色が、オンスクリーンコンテンツのみから決定される。ステップ441は、1つ以上の光効果がミュージックコンテンツのビート、バー、及び/又はリズムと同期されるように1つ以上の光効果の開始時間及び持続時間を決定することを含む。光効果に対する色は、例えば、オーディオコンテンツに基づいて、任意に又は所定の順序で決定されてもよい。ステップ407は、ステップ441の後に実行される。
ステップ407及び409は、それぞれ、図18のステップ305及び309に対するステップと同様である。ステップ407では、1つ以上の光効果が、抽出された色及び/又は決定された他のパラメータに基づいて決定される。ステップ409は、1つ以上の光効果をレンダリングするように1つ以上の光源を制御することを含む。
図22は、図2、5、6、9、11~14及び18~21を参照して述べられたような方法を実行し得る、例示的なデータ処理システムを示すブロック図を示す。
図22に示されるように、データ処理システム500は、システムバス506を介してメモリ要素504に結合される、少なくとも1つのプロセッサ502を含んでもよい。それゆえ、データ処理システムは、メモリ要素504内にプログラムコードを記憶してもよい。さらに、プロセッサ502は、システムバス506を介してメモリ要素504からアクセスされるプログラムコードを実行してもよい。一態様では、データ処理システムは、プログラムコードを記憶及び/又は実行するために好適な、コンピュータとして実装されてもよい。しかしながら、データ処理システム500は、本明細書内で述べられる機能を実行することが可能な、プロセッサ及びメモリを含む任意のシステムの形態で実装されてもよい点を理解されたい。
メモリ要素504は、例えば、ローカルメモリ508及び1つ以上の大容量記憶デバイス510などの、1つ以上の物理メモリデバイスを含んでもよい。ローカルメモリとは、プログラムコードの実際の実行中に一般に使用される、ランダムアクセスメモリ又は他の非永続的メモリデバイスを指してもよい。大容量記憶デバイスは、ハードドライブ又は他の永続的データ記憶デバイスとして実装されてもよい。処理システム500はまた、実行中に大容量記憶デバイス510からプログラムコードが取得されなければならない回数を低減するために、少なくとも一部のプログラムコードの一時記憶を提供する、1つ以上のキャッシュメモリ(図示せず)を含んでもよい。また、処理システム500は、例えば、処理システム500がクラウドコンピューティングプラットフォームの一部である場合、別の処理システムのメモリ要素を使用することができてもよい。
入力デバイス512及び出力デバイス514として示される、入出力(input/output;I/O)デバイスが、オプションとして、データ処理システムに結合されることができる。入力デバイスの例としては、限定するものではないが、キーボード、マウス等のポインティングデバイス、(例えば、ボイス及び/又はスピーチ認識のための)マイク等を挙げることができる。出力デバイスの例としては、限定するものではないが、モニタ又はディスプレイ、スピーカ等を挙げることができる。入力デバイス及び/又は出力デバイスは、直接、又は介在I/Oコントローラを介して、データ処理システムに結合されてもよい。
一実施形態では、入力デバイス及び出力デバイスは、複合型入力/出力デバイス(入力デバイス512及び出力デバイス514を取り囲む破線で図22に示されるもの)として実装されてもよい。そのような複合型デバイスの一例は、「タッチスクリーンディスプレイ」又は単に「タッチスクリーン」と称される場合もある、タッチ感知ディスプレイである。そのような実施形態では、デバイスへの入力は、タッチスクリーンディスプレイ上、又はタッチスクリーンディスプレイの近くでの、例えばスタイラス又はユーザの指等の、物理的実体の移動によって提供されてもよい。
ネットワークアダプタ516もまた、データ処理システムに結合されて、介在する私設ネットワーク又は公衆ネットワークを介して、そのデータ処理システムが、他のシステム、コンピュータシステム、リモートネットワークデバイス、及び/又はリモート記憶デバイスに結合されることを可能にしてもよい。ネットワークアダプタは、上述のシステム、デバイス、及び/又はネットワークによってデータ処理システム500に送信されるデータを受信するための、データ受信機と、データ処理システム500から上述のシステム、デバイス、及び/又はネットワークにデータを送信するための、データ送信機とを含んでもよい。モデム、ケーブルモデム、及びEthernet(登録商標)カードは、データ処理システム500と共に使用されてもよい、種々のタイプのネットワークアダプタの例である。
図22に示されるように、メモリ要素504は、アプリケーション518を記憶してもよい。様々な実施形態では、アプリケーション518は、ローカルメモリ508、1つ以上の大容量記憶デバイス510内に記憶されてもよく、あるいは、それらローカルメモリ及び大容量記憶デバイスとは別個であってもよい。データ処理システム500は、アプリケーション518の実行を容易にすることが可能なオペレーティングシステム(図22には示さず)を、更に実行してもよい点を理解されたい。アプリケーション518は、実行可能プログラムコードの形態で実装されており、データ処理システム500によって、例えばプロセッサ502によって、実行されることができる。アプリケーションの実行に応答して、データ処理システム500は、本明細書で述べられる1つ以上の動作又は方法ステップを実行するよう構成されてもよい。
本発明の様々な実施形態は、コンピュータシステムと共に使用するためのプログラム製品として実装されてもよく、このプログラム製品のプログラムは、(本明細書で説明される方法を含めた)実施形態の機能を定義する。一実施形態では、このプログラムは、様々な非一時的コンピュータ可読記憶媒体上に含まれることができ、本明細書で使用されるとき、「非一時的コンピュータ可読記憶媒体」という表現は、全てのコンピュータ可読媒体を含むが、唯一の例外は一時的な伝搬信号である。別の実施形態では、このプログラムは、様々な一時的コンピュータ可読記憶媒体上に含まれることができる。例示的なコンピュータ可読記憶媒体としては、限定するものではないが、(i)情報が永続的に記憶される、書き込み不可記憶媒体(例えば、CD-ROMドライブによって読み取り可能なCD-ROMディスク、ROMチップ、又は任意のタイプの不揮発性固体半導体メモリ等の、コンピュータ内部の読み出し専用メモリデバイス)、及び(ii)変更可能な情報が記憶される、書き込み可能記憶媒体(例えば、フラッシュメモリ、ディスケットドライブ若しくはハードディスクドライブ内部のフロッピーディスク、又は任意のタイプのランダムアクセス固体半導体メモリ)が挙げられる。コンピュータプログラムは、本明細書で述べられるプロセッサ502上で実行されてもよい。
本明細書で使用される用語法は、特定の実施形態を説明することのみを目的とするものであり、本発明を限定することを意図するものではない。本明細書で使用されるとき、単数形「a」、「an」、及び「the」は、文脈がそうではないことを明確に示さない限り、複数形も含むことが意図される。本明細書で使用されるとき、用語「含む(comprises)」及び/又は「含んでいる(comprising)」は、記述された特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するものであるが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらの群の存在若しくは追加を排除するものではない点が、更に理解されるであろう。
以下の請求項における全てのミーンズプラスファンクション又はステッププラスファンクションの要素の、対応する構造、材料、行為、及び均等物は、具体的に特許請求される他の特許請求要素と組み合わせて機能を実行するための、任意の構造、材料、又は行為を含むことが意図される。本発明の実施形態の説明は、例示を目的として提示されてきたが、網羅的であるか、又は開示された形態の実装形態に限定されることを意図するものではない。実施形態は、本発明の原理及び一部の実際的応用を最良に説明し、想到される特定の用途に適するような様々な修正を有する様々な実施形態に関して、他の当業者が本発明を理解することを可能にするために、選択及び説明されるものとした。

Claims (15)

  1. ビデオコンテンツの分析に基づいて1つ以上の光効果を決定するためのシステムであって、当該システムは、
    少なくとも1つの入力インターフェースと、
    少なくとも1つの出力インターフェースと、
    メディアコンテンツ及び前記メディアコンテンツに関する情報を得るために前記少なくとも1つの入力インターフェースを使用し、前記メディアコンテンツは、ビデオコンテンツを含む、
    前記得られた情報に基づいて複数の色抽出方法から色抽出方法を選択し、前記複数の色抽出方法は、同じピクセルから異なる色を抽出するという点で互いに異なる、
    ユーザの照明セットアップに関する情報にさらに基づいて前記色抽出方法を選択し、前記ユーザの照明セットアップは、1つ以上の光源を含む、
    前記選択された色抽出方法を適用することにより前記ビデオコンテンツの1つ以上のフレームから色を抽出する、
    前記1つ以上のフレームがレンダリングされている際に前記1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定し、前記1つ以上の光効果は、前記抽出された色に基づいて決定される、及び
    前記1つ以上の光効果を指定する光スクリプトを保存する及び/又は前記1つ以上の光効果をレンダリングするように前記1つ以上の光源を制御するために前記少なくとも1つの出力インターフェースを使用する、
    ように構成される、少なくとも1つのプロセッサと、
    を含む、システム。
  2. 前記少なくとも1つのプロセッサは、複数のセクションについてセクションごとに1つ以上の色を抽出するように構成され、各セクションは、シーン、ショット又は単一のフレームを含み、前記シーン及び前記ショットは、複数のフレームを含み、単一の色が前記セクションのすべてのフレームからセクションごとに抽出される及び/又は色が前記セクションのすべてのフレームにおけるサブエリアからサブエリアごとにセクションごとに抽出される、請求項1に記載のシステム。
  3. 前記複数の色抽出方法は、異なるタイプの色抽出方法及び/又は単一のタイプの色抽出方法に対する異なるセットのパラメータを含む、請求項1又は2に記載のシステム。
  4. 前記異なるタイプの色抽出方法は、平均色判定、トリムミーン色判定、ミーン色判定、メジアン色判定、モード色判定、ドミナント色判定、ドミナント照明色判定、可視光源色判定、及び/又は特徴色判定を含む、請求項3に記載のシステム。
  5. 前記少なくとも1つのプロセッサは、前記得られた情報が前記シーンはスローシーンであることを示すと判断するとシーンから色を抽出するために前記ドミナント色判定を選択する、及び/又は、前記得られた情報が前記シーンはアクションシーンであることを示すと判断するとシーンから色を抽出するために前記特徴色判定を選択するように構成される、請求項4に記載のシステム。
  6. 前記少なくとも1つのプロセッサは、トリムミーン判定の結果、望ましくない色になる場合、前記1つ以上のフレームにドミナント色がない場合、及び/又は、動いている、鮮明な及び/又は高コントラストのオブジェクトが前記1つ以上のフレームに検出される場合、前記特徴色判定を選択するように構成される、請求項4又は5に記載のシステム。
  7. 前記異なるセットのパラメータは、同じタイプの色抽出法で使用される色空間の異なる領域を識別する、請求項3に記載のシステム。
  8. 前記少なくとも1つのプロセッサは、ユーザが、前記光スクリプトを保存する前に前記抽出された色及び/又は前記選択された色抽出方法を確認することを可能にするように構成される、請求項1乃至7のいずれか一項に記載のシステム。
  9. 前記ユーザの照明セットアップに関する情報は、前記光源の量、前記光源の空間的位置、前記光源のタイプ、及び前記光源の能力のうちの1つ以上を含む、請求項1乃至8のいずれか一項に記載のシステム。
  10. 前記少なくとも1つのプロセッサは、潜在的な照明セットアップの第1のタイプに対する前記1つ以上の光効果を決定する、前記得られた情報に基づいて前記複数の色抽出方法からさらなる色抽出方法を選択する、前記選択されたさらなる色抽出方法を適用することにより前記ビデオコンテンツの前記1つ以上のフレームからさらなる色を抽出する、潜在的な照明セットアップの第2のタイプに対する1つ以上のさらなる光効果を決定し、前記1つ以上のさらなる光効果は、前記抽出されたさらなる色に基づいて決定される、及び、前記光スクリプトで前記1つ以上のさらなる光効果を指定するために前記少なくとも1つの出力インターフェースを使用するように構成され、前記1つ以上の光効果は、前記光スクリプトで前記第1のタイプの照明セットアップと関連付けられ、前記1つ以上のさらなる光効果は、前記光スクリプトで前記第2のタイプの照明セットアップと関連付けられる、請求項1乃至9のいずれか一項に記載のシステム。
  11. 前記少なくとも1つのプロセッサは、前記ビデオコンテンツの2つのセクションの各々から色を抽出する、前記2つの色間の色空間における遷移パスを選択する、及び、前記2つのセクション間に位置する1つ以上の中間セクションに適用されるべき色抽出方法を選択することにより前記色抽出方法を選択するように構成され、前記色抽出方法は、前記選択された遷移パスに基づいて選択され、前記1つ以上の中間セクションは、前記1つ以上のフレームを含む、請求項1乃至10のいずれか一項に記載のシステム。
  12. 前記少なくとも1つのプロセッサは、前記2つのセクション及び前記1つ以上の中間セクションがレンダリングされている際にレンダリングされるべき少なくとも1つの光効果を決定することによって前記1つ以上の光源にレンダリングされるべき前記1つ以上の光効果を決定するように構成され、前記少なくとも1つの光効果は、前記2つのセクションから抽出される前記2つの色及び前記1つ以上の中間セクションから抽出される前記色に基づいて決定される、請求項11に記載のシステム。
  13. 請求項1乃至12のいずれか一項に記載のシステムと、前記1つ以上の光源とを含む、照明システム。
  14. ビデオコンテンツの分析に基づいて1つ以上の光効果を決定する方法であって、当該方法は、
    メディアコンテンツ及び前記メディアコンテンツに関する情報を得ることであって、前記メディアコンテンツは、ビデオコンテンツを含む、ことと、
    前記得られた情報に基づいて複数の色抽出方法から色抽出方法を選択することであって、前記複数の色抽出方法は、同じピクセルから異なる色を抽出するという点で互いに異なる、ことと、
    ユーザの照明セットアップに関する情報にさらに基づいて前記色抽出方法を選択することであって、前記ユーザの照明セットアップは、1つ以上の光源を含む、ことと、
    前記選択された色抽出方法を適用することにより前記ビデオコンテンツの1つ以上のフレームから色を抽出することと、
    前記1つ以上のフレームがレンダリングされている際に前記1つ以上の光源にレンダリングされるべき1つ以上の光効果を決定することであって、前記1つ以上の光効果は、前記抽出された色に基づいて決定される、ことと、
    前記1つ以上の光効果を指定する光スクリプトを保存すること及び/又は前記1つ以上の光効果をレンダリングするように前記1つ以上の光源を制御することと、
    を含む、方法。
  15. 少なくとも1つのソフトウェアコード部分を含むコンピュータプログラム若しくはコンピュータプログラム一式又は少なくとも1つのソフトウェアコード部分を記憶するコンピュータ可読記憶媒体であって、前記ソフトウェアコード部分は、コンピュータシステムで実行されると、請求項14に記載の方法が実行されることを可能にするように構成される、コンピュータプログラム若しくはコンピュータプログラム一式又はコンピュータ可読記憶媒体。
JP2021523684A 2018-11-01 2019-10-28 ビデオコンテンツから光効果のための色を抽出するための方法の選択 Active JP7080400B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18203930 2018-11-01
EP18203930.5 2018-11-01
PCT/EP2019/079356 WO2020089150A1 (en) 2018-11-01 2019-10-28 Selecting a method for extracting a color for a light effect from video content

Publications (2)

Publication Number Publication Date
JP2022506359A JP2022506359A (ja) 2022-01-17
JP7080400B2 true JP7080400B2 (ja) 2022-06-03

Family

ID=64267435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021523684A Active JP7080400B2 (ja) 2018-11-01 2019-10-28 ビデオコンテンツから光効果のための色を抽出するための方法の選択

Country Status (5)

Country Link
US (1) US20210410251A1 (ja)
EP (1) EP3874912B1 (ja)
JP (1) JP7080400B2 (ja)
CN (1) CN112913330B (ja)
WO (1) WO2020089150A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021032811A1 (en) * 2019-08-22 2021-02-25 Signify Holding B.V. Selecting an image analysis area based on a comparison of dynamicity levels
US20230360352A1 (en) 2020-05-25 2023-11-09 Signify Holding B.V. Determining an image analysis region for entertainment lighting based on a distance metric
WO2023131498A1 (en) 2022-01-04 2023-07-13 Signify Holding B.V. Extracting a color palette from music video for generating light effects
WO2023139044A1 (en) 2022-01-21 2023-07-27 Signify Holding B.V. Determining light effects based on audio rendering capabilities

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008509453A (ja) 2004-06-30 2008-03-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 非演色色空間を介して変換されたビデオコンテンツからの周囲光のためのドミナントカラーの抽出
JP2009021847A (ja) 2007-07-12 2009-01-29 Sharp Corp 視聴環境制御装置、視聴環境制御システム及び視聴環境制御方法
JP2015537248A (ja) 2012-11-27 2015-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. スクリーンに表示されるビデオコンテンツのコピープロテクションのための環境光の使用

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090167192A1 (en) * 2004-06-30 2009-07-02 Koninklijke Philips Electronics, N.V. Active frame system for ambient lighting using a video display as a signal source
JP4870665B2 (ja) * 2004-06-30 2012-02-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ・コンテンツから導出した周辺光を生成するための知覚規則を用いた支配色抽出
CN1977569A (zh) * 2004-06-30 2007-06-06 皇家飞利浦电子股份有限公司 来自视频内容的环境照明和伴随受感知规律和用户偏好影响的发射
JP2008505384A (ja) * 2004-06-30 2008-02-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオ・コンテンツに由来し、知覚ルール及びユーザ嗜好によって影響される放送による周辺光発生
KR20070037584A (ko) * 2004-06-30 2007-04-05 코닌클리케 필립스 일렉트로닉스 엔.브이. 신호 소스로서 비디오 디스플레이를 사용하는 주변 조명을위한 액티브 프레임 시스템
WO2007052395A1 (ja) * 2005-10-31 2007-05-10 Sharp Kabushiki Kaisha 視聴環境制御システム
RU2444153C2 (ru) * 2006-12-07 2012-02-27 Конинклейке Филипс Электроникс Н.В. Система внешней подсветки для устройства отображения
TWI466093B (zh) * 2007-06-26 2014-12-21 Apple Inc 用於視訊播放的管理技術
EP2605622B1 (en) * 2011-12-15 2020-04-22 Comcast Cable Communications, LLC Dynamic ambient lighting
US8928811B2 (en) * 2012-10-17 2015-01-06 Sony Corporation Methods and systems for generating ambient light effects based on video content
CN103561345B (zh) * 2013-11-08 2017-02-15 冠捷显示科技(厦门)有限公司 一种基于智能电视的多节点环境光照明控制方法
KR102157245B1 (ko) * 2014-02-18 2020-09-18 삼성디스플레이 주식회사 광원 구동 방법 및 이를 수행하기 위한 표시 장치
KR20170052364A (ko) * 2015-11-04 2017-05-12 삼성전자주식회사 디스플레이장치 및 그 제어방법
EP3378282B1 (en) * 2015-11-16 2020-02-19 Signify Holding B.V. Controller for controlling a light source and method thereof
US10003485B2 (en) * 2016-01-25 2018-06-19 Lumic Technology Inc. Systems of synchronizing lighting effect control signals and patterns for controlling interactive lighting effect devices
EP3446551B1 (en) 2016-04-22 2019-08-14 Signify Holding B.V. Controlling a lighting system
WO2018153713A1 (en) * 2017-02-22 2018-08-30 Philips Lighting Holding B.V. Optimizing multichannel luminaire control using a color coefficient matrix
US10771835B1 (en) * 2018-04-09 2020-09-08 Amazon Technologies, Inc. Controlling configurable lights using color metadata of a media stream

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008509453A (ja) 2004-06-30 2008-03-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 非演色色空間を介して変換されたビデオコンテンツからの周囲光のためのドミナントカラーの抽出
JP2009021847A (ja) 2007-07-12 2009-01-29 Sharp Corp 視聴環境制御装置、視聴環境制御システム及び視聴環境制御方法
JP2015537248A (ja) 2012-11-27 2015-12-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. スクリーンに表示されるビデオコンテンツのコピープロテクションのための環境光の使用

Also Published As

Publication number Publication date
CN112913330A (zh) 2021-06-04
EP3874912B1 (en) 2022-07-13
CN112913330B (zh) 2024-04-02
US20210410251A1 (en) 2021-12-30
EP3874912A1 (en) 2021-09-08
WO2020089150A1 (en) 2020-05-07
JP2022506359A (ja) 2022-01-17

Similar Documents

Publication Publication Date Title
JP7080400B2 (ja) ビデオコンテンツから光効果のための色を抽出するための方法の選択
KR102575013B1 (ko) 전자 장치 및 전자 장치의 음악 컨텐츠 시각화 방법
JP7080399B2 (ja) ビデオ及びオーディオの重みに依存したビデオ及びオーディオ情報に基づく光効果の決定
JP6854987B1 (ja) 1つ以上の光設定に基づく動的光シーンのレンダリング
US9557829B2 (en) Method and apparatus for editing video scenes based on learned user preferences
JP2024504984A (ja) 音声特徴に基づくアニメーションエフェクト付加
JP7194864B2 (ja) ダイナミック性レベルの比較に基づく画像解析領域の選択
JP2022513536A (ja) コンテンツにおける検出された遷移後の平均色に基づく光効果の決定
JP2021516363A (ja) 画素コントラスト制御システム及び方法
JP2023529073A (ja) 距離メトリックに基づくエンターテイメント照明のための画像分析領域の決定
WO2020074303A1 (en) Determining dynamicity for light effects based on movement in video content
JP2022511991A (ja) メディアコンテンツにおけるスピーチの度合に基づく光効果の決定
WO2023213750A1 (en) Selecting entertainment lighting devices based on dynamicity of video content
CN118044337A (zh) 基于第二音频声道内容有条件地调整光效果
WO2023169993A1 (en) Controlling lighting devices as a group when a light scene or mode is activated in another spatial area
JP2022501792A (ja) 光源を順次オンにすることによる合成画像の作成

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210629

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220524

R150 Certificate of patent or registration of utility model

Ref document number: 7080400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150