JP2017174416A - 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス - Google Patents

適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス Download PDF

Info

Publication number
JP2017174416A
JP2017174416A JP2017034569A JP2017034569A JP2017174416A JP 2017174416 A JP2017174416 A JP 2017174416A JP 2017034569 A JP2017034569 A JP 2017034569A JP 2017034569 A JP2017034569 A JP 2017034569A JP 2017174416 A JP2017174416 A JP 2017174416A
Authority
JP
Japan
Prior art keywords
image
region
depth
segmented
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017034569A
Other languages
English (en)
Other versions
JP2017174416A5 (ja
JP7120740B2 (ja
Inventor
バイヤール,カロリーヌ
Baillard Caroline
ジュエ,ピエリック
Jouet Pierrick
アローム,ヴァンサン
Alleume Vincent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2017174416A publication Critical patent/JP2017174416A/ja
Publication of JP2017174416A5 publication Critical patent/JP2017174416A5/ja
Application granted granted Critical
Publication of JP7120740B2 publication Critical patent/JP7120740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/02Non-photorealistic rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】同じシーンの少なくとも1つの画像の組(SI)からのノンフォトリアリスティック(NPR)コンテンツのレンダリング方法を提供する。【解決手段】画像の組の各領域が、所定のデプスの領域に対応する、領域の組を含むデプス画像において、所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含むセグメント化画像を生成する。21少なくとも1つのセグメント化領域が、領域の組の少なくとも1つの領域に対応し、所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含むバイナリエッジ画像を生成する。22少なくとも1つのバイナリエッジ領域は、領域の組の少なくとも1つの領域に対応し、セグメント化画像とバイナリエッジ画像を組み合わせることによってノンフォトリアリスティックコンテンツをレンダリングする23。【選択図】図2

Description

本開示は、画像処理の分野にあり、シーンのノンフォトリアリスティック表現のレンダリングに関する技術に関連する。より正確には、本開示は、シーンに関連するデプス画像(depth image)に関するノンフォトリアリスティックコンテンツ(non-photorealistic content)のレンダリング(rendering)に関する技術に関連する。本開示の技術は、ライトフィールドデータ取得デバイスを通して得られたライトフィールドコンテンツ(light field content)に排他的ではなく特に適用することができる。
本セクションは、技術の様々な態様を読者に紹介することを意図し、それは、以下で説明され及び/又は請求される本開示の様々な態様に関係し得る。この検討は、本発明の様々な態様のより良い理解を手助けする背景情報を読者に提供することに役立つと考える。その結果、これらの表現は、この観点で読まれるべきであり、従来技術を自白するためではないことを理解されたい。
ノンリフォトアリスティックレンダリングは、従来のフォトリアリスティックなコンピュータグラフィックスに代わるものである。アーティストに良く知られた抽象化の原理を使うことによって、ノンフォトリアリスティックレンダリングは、ペインティング、ドローイング、テクニカルイラストレーションなどの様々な美術のスタイルによるコンテンツ(画像又はビデオ)のレンダリングを含む。その意味を持つ構造を明確にするために、画像単純化に対する純粋な芸術的なゴールから、目的が変わるかも知れない。
多くのノンフォトリアリスティックレンダリング技術は、−シーンの漫画風イメージ抽出の作成に存在するような−シーン(例えば、写真又は3Dモデル)のリアリスティック表現上で実行される少なくとも2つの主な動作に依存する:それらはリージョンフラットニング(region flattening:領域のフラット化)とラインドローイング(line drawing:線による描画)である。
リージョンフラットニングは、色などのインスタンス画像プロパティに対して使用することによって、意味のある視覚情報(visual information)を保存する一方、不必要な細部を取り除くことによって画像コンテンツを単純化することを含む。
ラインドローイングは、シーンのコンテンツをコンパクト且つ審美的観点から記述するライン(line:線)の一貫性のある組を抽出することを含む。
ノンフォトリアリスティックレンダリングの問題は、シーンの3D(3次元)モデル又は2D(2次元)表現に基づいているかに依存して、非常に異なる点である。3Dモデルから2Dノンフォトリアリスティックコンテンツをレンダリングするとき、ラインドローイングは、例えば、見えない輪郭(contours)又はしわ(creases)から導き出すことができる。シーンの2D表現から2Dノンフォトリアリスティックコンテンツをレンダリングするとき(例えば、写真に基づいて、通常「画像ベースノンフォトリアリスティックレンダリング」として指される技術)、シーン内のオブジェクト(objects)の3D形状にアクセスする確実な方法はない。すべての意味のあるライン(線)及び領域は、それ故に、画像自体から抽出しなければならない。画像ベースのノンフォトリアリスティックレンダリングに関する殆どの既存技術は、画像抽象化に対する共通のアプローチである、エッジ検出(edge detection)方法及び/又はセグメンテーション(segmentation)方法に依存している。セグメンテーションは、例えば、平均シフトアルゴリズム(mean shift algorithm)の使用によって実行することができる。意味のあるラインの抽出に関して、ガウスの差分フィルタ(difference-of-Gaussian filter)又はフローガイドガウスの差分(flow-guided difference-of-Gaussian)などの拡張された関連技術(ノイズを抑制する一方で、ラインの一貫性を著しく改善する)は、芸術的なイラストレーションに対して特に効果的であることが証明されている。
しかしながら、画像ベースノンフォトリアリスティックレンダリングの既存のソリューションに対していくつかの制限がまだ残っている。
例えば、多くの写真は、エッジ検出及びセグメンテーションアルゴリズムが不完全に動作するアウトオブフォーカスエリア(out-of-focus areas:ピンぼけエリア)を含んでいる:これらのエリアでは、より正確ではなく、よりロバストでない。結果として、ラインドローイング及びフラット化領域(flattened-regions)の境界は、レンダリングされたノンフォトリアリスティックコンテンツの対応するエリアで不規則で一貫性がなく(irregular and inconsistent)、それは、目にとって不愉快で注意をそらせる結果となる。
従来のノンフォトリアリスティックレンダリング技術の別の欠点は、同じ方法で画像全体が処理され、そしてノンフォトリアリスティック効果は、それ故に、結果として生じたノンフォトリアリスティックコンテンツ全体に亘って一定である。デカルロ(DeCarlo)他の「写真のスタイライゼーション及び抽象化(Stylization and Abstraction of Photographs)」では、写真からノンフォトリアリスティックコンテンツをレンダリングする技術が提案され、意味があると予測される画像の領域が他の領域よりもより細かい基準で処理される。しかしながら、この技術は、画像自体の構成(composition)を考慮しないので(フォアグラウンド、バックグラウンドなどの観点で)、画像のコヒーレント(coherent)な部分の関数においてノンフォトリアリスティック効果を適用する(例えば、シーン内の特定されたオブジェクトなどの)。その上、これは、アウトオブフォーカスエリアにおける既に言及したセグメンテーション及びエッジ抽出の問題に対処しない。
従って、従来技術の少なくとも1つの欠点を防ぐコンテンツのノンフォトリアリスティックレンダリングに関する技術の提供が望ましいだろう。簡単化のために、説明の全体に亘って、コンテンツのノンフォトリアリスティックレンダリングに関する技術が、ノンフォトリアリスティックコンテンツのレンダリングに関する方法として単に言及されるが、とはいえ、それはコンテンツのノンフォトリアリスティックレンダリングを対象とする。
本開示の実施形態による、同じシーンの少なくとも1つの画像の組からノンフォトリアリスティックコンテンツをレンダリングする方法を提供する。少なくとも1つの画像の組は、領域の組を含むデプス画像と関連し、この領域の組の各領域は、所定のデプスの領域に対応している。このような方法は、下記を含む:
・セグメント化画像を生成することであって、セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準と共に生成された少なくとも1つのセグメント化領域を含み、少なくとも1つのセグメント化領域は、領域の組の少なくとも1つの領域に対応し、
・バイナリエッジ画像を生成することであって、バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準と共に生成された少なくとも1つのバイナリエッジ領域を含み、少なくとも1つのバイナリエッジ領域は、領域の組の少なくとも1つの領域に対応し、
・セグメント化画像とバイナリエッジ画像を組み合わせることによって、ノンフォトリアリスティックコンテンツをレンダリングすること。
従って、本開示は、ノンフォトリアリスティックコンテンツのレンダリングに関して異なるアプローチに依存する:シーンを表現する画像全体は同じように処理されず、シーンに関連するデプス画像において利用可能なデプス情報について画像に亘ってノンフォトリアリスティック効果が変化するノンフォトリアリスティックコンテンツをレンダリングすることができる。提案する技術と共に、領域フラットニング(例えば、色セグメンテーションを経由して取得される)、及びラインドローイング(エッジ抽出を経由して取得される)は、お互いに独立して画像に亘って変化することができる。
実施形態によれば、セグメンテーション基準は、領域の組の少なくとも1つの領域から決定される。
このようにして、セグメント領域に適用されるセグメンテーション基準は、この領域に関連するデプスの関数である。
実施形態によると、所定のセグメント化領域は、領域の組の所定の領域に対応し、所定のセグメント化領域に適用されるセグメンテーション基準は、所定のセグメント化領域に対応する領域の組の所定の領域のデプスと第1のリファレンスデプスとの間の差の関数である。
このようにして、セグメンテーション基準は、第1のリファレンスデプスに関して、画像の各部分の焦点ぼけの程度(defocus degree:ピンぼけの程度)に依存して変化する。
実施形態によると、エッジ抽出基準は、領域の組の少なくとも1つの領域から決定される。
このようにして、バイナリエッジ領域を取得するために適用されるエッジ抽出基準は、この領域に関連するデプスの関数である。
実施形態によると、所定のバイナリエッジ領域は、領域の組の所定の領域に対応し、所定のバイナリエッジ領域に適用されるエッジ抽出基準は、所定のバイナリエッジ領域に対応する領域の組の所定の領域のデプスと、第2のリファレンスデプスとの間の差の関数である。
このようにして、エッジ抽出基準は、第2のリファレンスデプスに関して画像の各部の焦点のぼけの程度に依存して変化する。
本開示の別の実施形態によると、セグメント化領域は、階層化画像表現から決定され、それは、同じシーンの少なくとも1つの画像の組から抽出されたオールインフォーカス画像(all-in-focus image:すべてピントが合った画像)の階層化セグメンテーションを通して取得される。
それ故に、階層化セグメンテーションプロセスは、オールインフォーカス画像―それはフィールドの拡張されたデプスを持ち−上で実行され、セグメンテーションプロセスは、画像のどこでも良く実行される。有利なことに、この階層化セグメンテーションは、その後取得される第1のリファレンスデプスから独立して一度実行される。言い換えれば、階層化画像表現は、例えば、プリプロセッシング段階で、オールインフォーカス画像から一度事前に計算され、その後、新しい第1のリファレンスデプスが所定のシーンに対して取得される度に、新しいノンフォトリアリスティックコンテンツをレンダリングするために使用される。このようにして、新しいノンフォトリアリスティックコンテンツをレンダリングするために必要な計算能力及び時間は、それ故に、最適化される。オールインフォーカス画像の階層化セグメンテーションは、例えば、ツリー表現の形式を取り、セグメント化領域は、例えば、ツリー表現の所定のレベルで、セグメント化オールインフォーカス画像から対応するセグメント化領域を抽出することによって取得され、レベルは、セグメント化領域に対して予想されるセグメンテーション基準に対応する。
本開示の別の実施形態によると、バイナリエッジ領域は、重み付けエッジ表現から決定され、それは、同じシーンの少なくとも1つの画像の組から得られたオールインフォーカス画像のエッジ抽出を通して取得される。
それ故に、エッジ抽出プロセスは、オールインフォーカス画像上で実行され−それは、フィールドの拡張されたデプスを持ち−エッジ抽出プロセスは、画像のどこでも良く実行される。有利なことに、このエッジ抽出プロセスは、その後取得され得る第2のリファレンスデプスから独立して、一度だけ行われる。言い換えれば、重み付けエッジ表現は、例えば、オールインフォーカス画像から一度、事前に計算され、そして、次に、新しい第2のリファレンスデプスが所定のシーンに対して取得されたときはいつでも、新しいノンフォトリアリスティックコンテンツをレンダリングするために使用される。このようにして、新しいフォトリアリスティックコンテンツのレンダリングのために必要な計算能力及び時間は、それ故に、最適化される。重み付けエッジ表現は、オールインフォーカス画像に適用されるエッジ抽出プロセスの結果であり(例えば、ガウシアン差分フィルタリング技術など)、すべての抽出されたエッジピクセルが評価された2D表現の形式を取る。バイナリエッジ領域は、例えば、オールインフォーカス画像の重み付けエッジ表現における対応する領域を抽出することによって、バイナリエッジ領域内の程度の差があるがエッジをキープするしきい値を使って次に取得され、しきい値は、バイナリエッジ領域に対する予想されるエッジ抽出基準に応答する。
実施形態によると、セグメント化領域デプスと第1のリファレンスデプスとの間の差が減少するにつれて、セグメンテーション基準の粒度レベルは、増加する。
このようにして、より詳細は、例えば、第1のリファレンスデプスに対応する関心領域(region of interest)に表示される。
実施形態によると、バイナリエッジ領域デプスと第2のリファレンスデプスの差が減少するにつれて、エッジ抽出基準の粒度レベルは、増加する。
このようにして、より詳細は、例えば、第2のリファレンスデプスに対応する関心領域に表示される。
実施形態によると、第1のリファレンスデプスは、注視トラッキング分析(gaze-tracking analysis)によって、自動的に取得される。
このようにして、第1のリファレンスデプスのマニュアルの選択に対する代替案が提案され、シーンの視覚に魅力的なエリア(eye-attractive area)に対応する第1のリファレンスデプスが自動的に取得される。
実施形態によると、第2のリファレンスデプスは、注視トラッキング分析により自動的に取得される。
このようにして、第2のリファレンスデプスのマニュアルの選択に対する代替案が提案され、シーンの視覚に魅力的なエリアに対応する第2のリファレンスデプスは、自動的に取得される。
1つの実施形態において、第1及び第2のリファレンスデプスは、1つの同じリファレンスデプスである。
1実施形態によると、同じシーンの少なくとも1つの画像の組は、ライトフィールドデータ取得デバイスによって供給されるライトフィールドコンテンツから得られる。
このようにして、データのこれらの部分―同じシーンの画像、オールインフォーカス画像及びデプス画像の組―は、周知のライトフィールドデータ取得デバイス出力であるので、本開示の1つの実施形態によるノンフォトリアリスティックコンテンツのレンダリング方法を実行するために使用されるデータの部分への容易なアクセスが提供される。
本開示は、同じシーンの少なくとも1つの画像の組からノンフォトリアリスティックコンテンツをレンダリングするためのデバイスにも関係する。画像の組は、領域の組を含むデプス画像に関連し、領域の組の各領域は、所定のデプスの領域に対応している。そのようなデバイスは、
・セグメント化画像を生成するモジュールであって、セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含み、少なくとも1つのセグメント化領域は、領域の組の少なくとも1つの領域に対応し、
・バイナリエッジ画像を生成するモジュールであって、バイナリエッジモジュールは、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、少なくとも1つのバイナリエッジ領域は、領域の組の少なくとも1つの領域に対応し、
・セグメント化画像とバイナリエッジ画像を組み合わせることによって、ノンフォトリアリスティックコンテンツをレンダリングするモジュールと、
を含む。
本開示は、また通信ネットワークからダウンロード可能な及び/又はコンピュータによって読取可能な媒体上に記録された及び/又はプロセッサによって実行可能な、上述の方法を実行するためのプログラムコード命令を含む、コンピュータプログラム製品に関係する。
本開示は、また、上述の方法を実行するためのプログラムコード命令を含み、その中に記憶されコンピュータプログラム製品を含み、プロセッサによって実行される能力がある非一時的コンピュータ読取可能媒体に関連する。
そのようなコンピュータプログラムは、コンピュータ読取可能記憶媒体上に記憶することができる。本明細書で使用されるコンピュータ読取可能記憶媒体は、その中に情報を記憶する特有の機能及びそこから情報を読み出すことを提供する特有の機能が与えられた非一時的な記憶媒体である。コンピュータ読取可能記憶媒体は、例えば、しかし制限されることなく、電子的、磁気的、光学式、電磁気的、赤外線の、又は半導体システム、装置、又はデバイス、又は上述のものの任意の適切な組み合わせであり得る。本原理が適用できるコンピュータ読取可能記憶媒体のより具体的な実例を提供するが、下記は、当業者によって容易に理解されるように、単に説明の目的であり、包括的なリストではないことを理解されたい:ポータブルコンピュータディスケット、ハードディスク、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、ポータブルコンパクトディスクリードオンリメモリ(CD−ROM)、光記憶デバイス、磁気記憶デバイス、又は上述の任意の適切な組み合わせ。
上述の一般的な説明及び以下の詳細な説明の両方は、典型的で、説明的であり、請求される発明の制限ではないことが理解される。
明細書中での参照「1つの実施形態(one embodiment)」又は「1実施形態(an embodiment)」は、説明した実施形態が、特定の機能、構造、又は特徴を含むことができ、すべての実施形態は、特定の機能、構造、又は特徴を必ずしも含む必要はないことを示すことも理解されたい。さらに、そのような語句は、必ずしも同じ実施形態を指す必要はない。さらにまた、特定の機能、構造、又は特徴が実施形態と関連して説明されたとき、明示的に記載されているか否かにかかわらず他の実施形態と関連して、そのような機能、構造、又は特徴に影響を及ぼす当業者の範囲内で提出される。
本開示の実施形態は、例として、保護の範囲を制限することなく、以下の説明及び図面を参照してより良く理解することができる。
3Dシーンの2D表現に関連するデプス画像の実例を示す。 本開示の実施形態による、ノンフォトリアリスティックコンテンツのレンダリングに関する提案された技術の一般的な原理を説明するフローチャートである。 本開示の実施形態による、ノンフォトリアリスティックコンテンツのレンダリングに関するプロセスを説明するフローチャートである。 本開示の実施形態による、ノンフォトリアリスティックコンテンツをレンダリングするのに有用なデータを生成するために実行されるプリプロセッシング段階を説明するフローチャートである。 本開示の実施形態によるノンフォトリアリスティックコンテンツのレンダリングに対する装置の実例を説明する概略的なブロック図である。
図中のコンポーネントは、発明の原理を説明することに応じて配置される代わりに、縮小拡大や強調する必要は必ずしもない。
本開示の一般的な原理は、同じシーンの少なくとも1つの画像の組からノンフォトリアリスティックコンテンツのレンダリングに関する特有の技術に依存する。従来技術との関係で既に示したように、ノンフォトリアリスティックレンダリングは、リージョンフラットニング及びラインドローイングという2つのタスクに通常主に依存する画像抽象(image abstraction)(漫画スタイルの画像抽象など)の作成にある。添付図面を参照して以下でより完全に説明されるように、本開示において、シーンの少なくとも1つの画像の組に関連するデプス画像において利用可能なデプス情報を使用して、画像ベースノンフォトリアリスティックレンダリング(NPR:Non-Photorealistic Rendering)を拡張することが提案される。
この開示は、しかしながら、多くの代替の形式で具体化することができ、本明細書に記載された実施形態に制限して解釈されるべきではない。その結果、本開示は、様々な変更や代替形式を受け入れる余地があり、それらについての特定の実施形態は、図面に例として示され、詳細は本明細書で説明される。しかしながら、開示された特定の形式に開示を制限する意図は無く、しかし、それどころか、本開示は、請求項によって定義される開示の趣旨と範囲内に含まれるすべての変更、均等物、及び代替案をカバーする点を理解すべきである。類似の番号は、図面の説明のあらゆる場合で同様の要素を指す。
用語、第1の、第2のなどが本明細書中で様々な要素を説明するために使用され得るが、これらの要素は、これらの用語によって制限されるべきではない点も理解されるだろう。これらの用語は、1つの要素を他の要素から区別するためだけに使用される。例えば、本開示の教える内容から逸脱することなく、第1の要素は、第2の要素と呼ぶこともでき、同様に、第2の要素を第1の要素と呼ぶことができる。
明示的に説明されていなくても、本実施形態及び変形は、任意の組合せ又はサブコンビネーションにおいて用いることができる。
上で紹介したように、提案の技術は、シーンの画像の組に関連するデプス画像の使用に依存して、かなり興味があるノンフォトリアリスティックコンテンツのレンダリングを行う。デプスデータ又はデプスマップとしてときどき指される用語、デプス画像(depth image:深度画像)は、文字通りの狭い意味で解釈されるべきではない。デプス画像は、例えば、3Dシーンの2D表現(すなわち、画像(イメージ))であり、各ピクセルがデプス又は視差情報(disparity information)に関連している。そのような情報は、基準点(reference point)からのシーンのオブジェクトの距離を表す(例えば、シーンの表現を取得するために使用される取得システムの位置、又はシーンにおける別のオブジェクトの位置など)。言い換えれば、デプス画像は、取得されたシーンにおけるオブジェクト間の距離を表すデプス情報を含み、デプス情報は、デジタルファイル又は任意のフォーマットの表として記憶することができる。任意の他の手段によって計算し、取得することもできる。図1は、2D表現(100)に関連するデプス画像(101)の実例を示す。この例において、デプス画像(101)の各ピクセルは、グレースケールでエンコードされたデプス情報に関連する(各ピクセルの光強度(light intensity)は、例えば、16ビットのグレースケールでエンコードされる)。もちろん、図1の実例は、説明に役立つだけのものであり、デプス画像は、他の形式を取ることができる。しかしながら、どのような形式を取っても、デプス画像は、領域の集合、すなわち領域の組として見ることができ、領域の組の各領域は所定のデプスの領域に対応する。
提案した技術によると、デプス画像は、シーンの2D表現(すなわち、画像)を領域の別の組に分割することを許し、領域の別の組の各領域は、デプス画像内で、所定のデプスの領域又は異なる所定のデプスのいくつかの領域の結合に対応する。本開示の一般的な原理は、異なる基準で領域の別の組の領域を処理することを含み、ノンフォトリアリスティック効果が画像に亘って変化するノンフォトリアリスティックコンテンツを最終的に再構成する。
本開示の1つの実施形態において、提案する技術は、図2に関連して説明されるように、3つの主なステップに依存する:
・シーンのセグメント化画像を生成するための第1のステップ21であって、シーンのセグメント化画像はセグメント化領域の組の集合によって形成され、各セグメント化領域は、セグメント化領域の組の別の領域に適用されたものから異なることができるセグメンテーション基準でセグメント化され、
・シーンのバイナリエッジ画像を生成するための第2のステップ22であって、シーンのバイナリエッジ画像はバイナリエッジ領域の組の集合によって形成され、各バイナリエッジ領域は、バイナリエッジ領域の組の別の領域に適用されたものから異なることができるエッジ抽出基準で処理され、
・シーンを表現するノンフォトリアリスティックコンテンツをレンダリングする第3のステップ23であって、第1のステップ21で生成されたセグメント化画像と第2のステップ22で生成されたバイナリエッジ画像を組み合わせることによって行われる。
セグメント化領域の組(ステップ21で)又はバイナリエッジ領域(ステップ22で)に含まれる領域は、デプス画像内で、所定のデプスの領域又は異なる所定のデプスのいくつかの領域の結合に対応する。
ステップ21で言及したセグメンテーションは、例えば、色ベースセグメンテーション(color-based segmentation)又はテクスチャベースセグメンテーション(texture-based segmentation)などの任意のタイプの画像セグメンテーション技術であり得る(たとえ、上述のように、典型的な実施形態が色ベースセグメンテーションに関連して説明されたとしても)。
第1及び第2のステップ(21、22)は、どのような順番だとしても、並行して又は順番に処理される。
セグメント化画像とバイナリエッジ画像を組合せることによって、ステップ23において、ステップ22で生成されたバイナリエッジ画像のエッジを、ステップ21で生成されたセグメント化画像上に重ね合わせることをここでは意味する。
本開示は、それ故に、シーンの画像全体が同じ方法で処理されない、オリジナルのノンフォトリアリスティックレンダリング技術を説明する。以下で示すように、本開示のいくつかの他の実施形態と関連して、提案された技術は非常に柔軟性があり、デプス情報の使用の結果、生成されたノンフォトリアリスティックコンテンツの画像構成の観点から一貫性の著しい程度を維持しながら、多くのノンフォトリアリスティック効果の可能性を提供する。
図3は、本開示の実施形態によるノンフォトリアリスティックコンテンツのレンダリングに関するプロセスを説明するフローチャートである。同じシーンの少なくとも1つの画像の組(SI:set of images)が利用可能である。画像の組(SI)に含まれる画像は、同じ視野角から見たシーンの2D表現に対応する。これらは、例えば、シーンを取得するために使用されるライトフィールドデータ取得デバイスによって供給されるライトフィールドコンテンツから得られる。代替案としては、これらは、同じ視野角だが違う焦点距離から従来のハンドヘルドカメラを使用して取られた各シーンの1連の2D画像に対応する。これらは、コンピュータ生成画像(CGI)でシミュレーションしたシーンの画像でもあり得る。
画像の組(SI)に関連するデプス画像も利用可能である。このデプス画像は、任意の手段で取得されることができる。例えば、シーンを取得するために使用されるライトフィールドデータ取得デバイスによって、又は従来のカメラを使用して異なる視点から取られたシーンのいくつかの画像から、供給されるライトフィールドコンテンツから計算される。
図3の特定の実施形態は、デプス画像に加えて、2つの追加のデータの部分の使用を含み、ノンフォトリアリスティックコンテンツのレンダリングを実行する。これらのデータの2つの部分は、一方は、階層化画像表現(hierarchical image representation)(後で使用され、シーンのデプスガイド(depth-guided)セグメント化画像を生成する)であり、他方は、重み付けエッジ表現(weighted-edge representation)(後で使用され、シーンのデプスガイドバイナリエッジ画像である)である。
1つの実施形態において、これらのデータの2つの部分は、例えば、プリプロセッシング段階で、図4を関連して説明される、ノンフォトリアリスティックコンテンツのレンダリングに先立って事前に生成される。プリプロセッシング段階の間、階層化セグメンテーションステップ41及びエッジ抽出ステップ42は、シーンの画像表現上で実行される。プリプロセッシング段階が適用される画像は、画像の組(SI)の任意の画像であり得る。さらに以下で説明されるように、好ましい実施形態によると、それは、この画像の組(SI)の間で選ばれた、又はこの画像の組(SI)から計算された、特定の画像である。1つの実施形態において、このプリプロセッシング段階は、また、ノンフォトリアリスティックコンテンツのレンダリングの実行に後に役に立つデプス画像の生成の機会も提供する。
ステップ41において、階層化画像表現は、シーンの画像から生成される。そのような表現は、シーン全体のセグメント化画像の順序付けられた組の形式を取り、各セグメント化画像は、他とは異なるセグメンテーション基準(segmentation scale)を有する。このような階層化画像を取得することを許す多くの複数の基準のセグメンテーションアルゴリズムが視覚のコミュニティに存在するので、この技術は、その結果、ここでは詳細に説明しない。例えば、既に先行技術と関連して引用した「写真のスタイライゼーション及び抽象化(Stylization and Abstraction of Photographs)」論文[DeCarlo 2002]は、色セグメンテーションに基づき、階層化画像表現を取得する1つの適切な技術を提案する。図4に説明されるように、この階層化画像表現は、ツリー(tree:木)のように表現することができる(図4のツリーの図は、「写真のスタイライゼーション及び抽象化(Stylization and Abstraction of Photographs)」論文から引用した)。一旦この階層化画像表現が生成されると、ツリーのレベル、多くの領域(第1の基準で)を含む色セグメント化画像(細かい基準)、又はそれとは逆に、それ故に取得可能な少ない領域(粗い基準で)、に依存して、利用可能な任意の所定の基準でセグメント化画像は、取得可能である。
ステップ42で、シーンの重み付けエッジ表現が生成される。重み付けエッジ表現は、シーンの画像に適用されるエッジ抽出プロセス(例えば、ガウシアンの差分又はガウシアンフィルタリング技術のフローガイド差分など)の結果であり、すべての抽出されたエッジピクセルが評価された2D表現の形式を取る。重み付けエッジ表現のエッジピクセルが評価されているので、この表現にしきい値を付して、しきい値に依存して多かれ少なかれエッジを含むシーンのバイナリエッジ画像を取得する。ある程度、このしきい値は、それ故に、エッジ抽出基準と見なすことができ、多くのエッジ(しきい値が低い場合)、又は反対に少ないエッジ(しきい値が高い場合)を含むバイナリエッジ画像を取得することができる。
1つの実施形態において、ステップ41の階層化セグメンテーションプロセス及びステップ42のエッジ抽出プロセスは、シーンの画像の組(SI)の中の任意の画像上で実行される。しかしながら、好ましい実施形態において、2つ以上の画像が、画像の組(SI)で利用可能な場合、当業者が良い結果を導くと分かっている画像上に階層化セグメンテーションとエッジ抽出プロセスを実行することは特に興味深い。これは例えば、「ベストインフォーカス(best-in focus:最もピントが合った)」画像、すなわち、フィールドのベストデプスを持つ画像を画像の組(SI)の中で特定することによって(手作業で又は自動的に)、これは行われる。いくつかの実施形態において、そのような画像は、画像の組(SI)からも計算される。例えば、画像の組(SI)がライトフィールドコンテンツから導かれた場合、それらのデプスが何であっても、すべてのピクセルがピントが合っているオールインフォーカス画像(AIF:all-in-focus)を計算することが可能であり得る。このオールインフォーカス画像は、フィールドの拡張したデプスを持つので、セグメンテーションとエッジ抽出アルゴリズムはどこでも良く実行される。結果として生じる階層化画像表現と重み付けエッジ表現の精度は、それ故に、改善され、以下で説明するように、ノンフォトリアリスティックコンテンツのレンダリングに対する利益を提示する。
図3に戻って参照すると、本開示の特定の実施形態による、デプス画像、階層化画像表現及び重み付けエッジ表現を使用したノンフォトリアリスティックコンテンツのレンダリングがこれから説明される。
既に前もって導入したように、提案された技術の一般的な原理によるノンフォトリアリスティックレンダリングは、シーンのセグメント化画像とバイナリ画像を組み合わせることを含み、シーンに関連するデプス画像に関連する特定の方法で、セグメント化画像とバイナリエッジ画像が生成される。
ステップ33で、デプス画像表現と階層化画像表現はシーンの色セグメント化画像を生成するために使用され、そこで、セグメンテーション基準は、画像に亘って変化する。異なるセグメンテーション基準での画像全体のセグメンテーションは、図4に関連して説明されたプリプロセッシング段階の間に既に実行されているので、階層化画像表現中に利用可能であり、ステップ33は、それ故に、純粋にセグメンテーションのステップよりもデプスガイドセグメンテーション基準選択として見られる。
ステップ33で実行されるメカニズムが、これから詳述される。
デプス画像中の所定のデプスの領域に対応する各領域に対して、所定のデプスに関連するレベルが、所定のマッピングに従って、階層化画像表現ツリー中で選択される。このレベルは、特定のセグメンテーション基準の表現であり、シーン全体の関連するセグメント化画像が、階層化画像表現中で利用可能である。デプス画像を使用して、シーン全体のこのセグメント化画像から、デプス画像中の考慮されるデプスの領域に対応するセグメント化領域を抽出することがそれ故に可能である。
この動作は、デプス画像中にある所定のデプスのすべての領域に対してセグメント化領域を読み出すことを繰り返す。
デプス画像にあるすべての領域に対応するすべてのセグメント化領域が一度読み出されると、パズルのように、すべてのセグメント化領域を一緒に元に戻すことによって、シーン全体のセグメント化画像を再構成することが次に可能になる。すべてのセグメント化領域は、異なる基準でセグメント化されるので、それ故に、ステップ33のプロセスは、シーン全体のセグメント化画像の生成を生じ、そこでは、セグメンテーション基準は画像に亘って変化する。
このデプスを有する領域に対する階層化画像表現中で選択するデプスとセグメンテーション基準の間のマッピングは、任意の所定の関数であり得る。
本開示の1つの実施形態において、このマッピングは、適応的で、例えば、デプス画像中で利用可能なデプスレベルの数によってインスタンスが決まる。例えば、シーンのフォアグラウンドに対応する領域は、階層化画像表現で利用可能なより細かいセグメンテーション基準で処理され、一方、シーンのバックグラウンドに対応する領域は、階層化画像表現で利用可能なより粗いセグメンテーション基準で処理される。すべての中間のデプスは、階層化画像表現中で利用可能な中間セグメンテーション基準で次に処理される。以前の実例は、もちろん、制限がなく、他の適応的マッピングは、以下で説明するように提案することができる。
本開示の別の実施形態において、オプションのステップ31で、ステップ33のデプスガイドセグメンテーション基準の前に、第1のリファレンスデプスが取得される。デプスガイドセグメンテーション基準の選択は、次に、実行され、画像の同じデプス領域に対して選択されたセグメンテーション基準は、領域のデプスと第1のリファレンスデプスとの間の差の関数である。言い換えれば、この実施形態によると、セグメンテーション基準は、第1のリファレンスデプスに関連して、画像の各部のピンボケのようなもの(a kind of defocus)の程度に依存して変化する。変形例において、この第1のリファレンスデプスは、例えば、入力デバイスとグラフィカルユーザインタフェースの使用を通して、スクリーンに表示されるシーンの画像内の特に感心領域(例えば、画像の組(SI)の画像)を選択することをユーザに許すことによって、手作業で行われる。代替案としては、第1のリファレンスデプスは、自動的に取得され、例えば、注視トラッキング技術のお蔭で、画像中の特に興味がある領域の検出が可能となる。この実施形態の特定の実装において、セグメント化領域デプスと第1のリファレンスデプスとの間の差が減少するにつれて、セグメンテーション基準の粒度レベルが増加する。第1のリファレンスデプスを持つ領域内で、階層化画像表現中で利用可能なより細かいセグメンテーション基準は、例えば、選択された1つである。階層化画像表現中で利用可能なより粗いセグメンテーション基準は、例えば、第1のリファレンスデプスの観点で最も大きいデプス差を持つ領域に対して選択される。
今説明された1つにかなり類似するプロセスは、エッジ抽出に関して、ステップ34で実行される。ステップ34で、デプス画像と重み付けエッジ表現は、シーンのバイナリエッジ画像を生成するために使用され、そこでは、エッジ抽出基準が画像に亘って変化する。図4に関連して説明されたプリプロセッシング段階の間、イメージ全体のエッジ抽出が既に行われるので、そのため、各検出されたエッジがシーンのその重要性(例えば、その勾配(gradient:グラディエント))を表す値と関連する重み付け表現の生成が起こり、ステップ34は、それ故、純粋なエッジ抽出のステップよりもデプスガイドエッジ抽出基準選択(depth-guided edge extraction scale selection)としてあり得る。
ステップ34で実行されるメカニズムがこれから詳述される。
デプス画像中の所定のデプスの領域に対応する各領域に対して、所定のデプスに関連するしきい値が、所定のマッピングに従って、選択される。このしきい値は、次に、重み付けエッジ表現にしきい値を付けるために使用され、多かれ(低いしきい値)少なかれ(高いしきい値)エッジを含むシーン全体のバイナリエッジ画像が取得される。このしきい値は、それ故に、特定のエッジ抽出基準を表す。デプス画像を使って、シーン全体のこのバイナリエッジ画像からデプス画像中で考慮されるデプスの領域に対応するバイナリエッジ領域を抽出することが次に可能である。
この動作は、デプス画像中にある所定のデプスのすべての領域に対するバイナリエッジ領域の読み出しを繰り返す。
デプス画像中にあるすべての領域に対応するすべてのバイナリエッジ領域が一度読み出されると、パズルのようにすべてのバイナリエッジ領域を一緒に戻すことによって、シーン全体のバイナリエッジ画像を再構成することが、次に可能である。すべてのバイナリエッジ領域が異なるエッジ抽出基準を持つので、ステップ34のプロセスは、それ故に、シーン全体のバイナリエッジ画像を生成する結果となり、そこでは、エッジ抽出基準が画像に亘って変化する。
重み付けエッジ表現に適用されるデプスとエッジ抽出基準の間のマッピングは、このデプスを持つ領域に対して、任意の所定の関数であり得る。
本開示の1つの実施形態において、このマッピングは適応的であり、デプス画像中で利用可能なデプスレベルの数に依存する。例えば、シーンのフォアグラウンドに対応する領域は、非常に低いしきい値(Hmin)で処理され、一方、シーンのバックグラウンドに対応する領域は、非常に高いしきい値(Hmax)で処理される。すべての中間的なデプスは、中間のエッジ抽出基準、すなわち、HminとHmaxとの間のしきい値で、次に処理される。以前の実例は、もちろん、非制限的であり、他の適応的マッピングは、以下に説明するように提案することができる。
本開示の別の実施形態において、オプションのステップ32で、ステップ34のデプスガイドエッジ抽出基準選択の前に、第2のリファレンスデプスが取得される。デプスガイドエッジ抽出基準選択は、次に、実行され、画像の同じデプス領域に対して選択されたエッジ抽出基準は、領域デプスと第2のリファレンスデプスとの間の差の関数である。言い換えれば、この実施形態に従って、エッジ抽出基準は、第2のリファレンスデプスに関連して、画像の各部のピントのずれたような程度に依存して変化する。この第2のリファレンスデプスは、手作業で取得することができ、例えば、入力デバイスとグラフィカルユーザインタフェースの使用を通して、スクリーン上に表示されるシーンの画像(例えば、画像の組(SI)の画像)内の特に感心領域を選択することをユーザに許す。代替案として、これは自動的に行うこともでき、例えば、注視トラッキング技術のお蔭で、画像中の特に興味がある領域の検出が許される。この実施形態の特定の実装において、バイナリエッジ領域デプスと第2のリファレンスデプスとの間の差が減少するにつれて、エッジ抽出基準の粒度レベルが増加する。例えば、第2のリファレンスデプスを有する領域内で、重み付けエッジ表現の対応する領域で利用可能なすべての抽出されたエッジは、ノンフォトリアリスティックコンテンツがレンダリングされたとき、表示される(非常に低いしきい値を使って)他の領域に対して、考慮される領域のデプスが第2のリファレンスデプスからより異なるようになるとき(より強い勾配を持つエッジのみが保持される)、次第に少ないエッジが表示されるような方法で、しきい値が増加される。1つの実装において、デプスにおける差が所定のしきい値より大きいときは、任意のエッジを表示しないことを人は決定することができる。
もちろん、ステップ33と34は、いかなる順番であろうとも、並行して、又は1つずつ処理することができる。
ステップ35で、ステップ33で生成されたセグメント化画像とステップ34で生成されたバイナリエッジ画像とを組み合わせことによって、ノンフォトリアリスティックコンテンツが、最終的にレンダリングされる。前に既に説明したように、セグメント化画像とバイナリエッジ画像を組み合わせることによって、セグメント化画像上にバイナリエッジ画像のエッジを重ねることは、それ故に、最終的なノンフォトリアリスティックコンテンツをレンダリングすることになることをここでは意味する。
提案された技術に関連してこれから様々な考察が示され、より正確には、図3と図4に関連して示された特定の実施形態に対する。
同じシーンのいくつかの異なるノンフォトリアリスティックレンダリングを生成するために後で使用することができるデータの部分の事前の計算を可能にするので、図4に関連して説明されたプリプロセッシング段階の実行は、多くの利点を有する。そのようにして、階層化画像表現と重み付けエッジ表現は、所定のシーンに対して一度計算され、そのシーンの任意のノンフォトリアリスティック表現のレンダリングに必要な計算能力と時間が削減される。
非常に精密な階層化画像表現と重み付けエッジ表現を取得することができるので、このプリプロセッシング段階を実行するベースとして、オールインフォーカス画像(又は少なくとベストインフォーカス画像)の使用は、また非常に重要である。結果として、本開示のそのような実施形態に従って生成されたノンフォトリアリスティックコンテンツ内の遷移は、一定で一貫性(regular and consistent)がある。このプリプロセッシング段階が直接通常の画像(例えば、シーンの画像の組(SI)からランダムに選択された)に適用される場合は、対象外になることに注意すべき点は重要である:そのような画像のピンボケした部分におけるブラー効果(blurring effect)のため、生成されたノンフォトリアリスティックコンテンツ内のラインドローイングとフラット化領域の境界は、不規則で一貫性がなく、それは、目とって不愉快又は魅力的ではない結果となり得る。ライトフィールドコンテンツは、通常、取得されたシーンに関連するデプス画像とオールインフォーカス画像の容易な生成を許すので、提案された技術は、従って、ライトフィールドコンテンツから得られた画像の組からノンフォトリアリスティックコンテンツを生成することに特に適合する。
アプリケーションの異なる分野に適合する実施形態は、それ故に、例えば、一方でライトフィールドコンテンツからのノンフォトリアリスティックレンダリングに適合する実施形態であり、他方で従来の画像からノンフォトリアリスティックレンダリングに適合する実施形態であると考えられる。
ライトフィールドコンテンツに関連する実施形態は、例えば、ライトフィールド取得デバイスに実装され、それは例えば、プレノプティックデバイス(plenoptic device)又はカメラアレイ、又はライトフィールドデータを扱う任意のデバイスである。プレノプティックデータの組は、シーンの正確な階層化画像表現と重み付けエッジ表現が生成できる、デプス画像及びオールインフォーカス画像を含む―又はこれらの計算を許す―ため、ある程度、提案された技術は、それ故に、シーンに関連するプレノプティックデータの組からノンフォトリアリスティックコンテンツのレンダリングを許す。これらの実施形態において、レンダリングされたノンフォトリアリスティックコンテンツに亘って変化するノンフォトリアリスティック効果だけではなく、ノンフォトリアリスティックコンテンツのレンダリングの一般的なプロセスも改善される(プリプロセッシング段階におけるオールインフォーカス画像の使用により、画像のピントが合っていない部分内でのノンフォトリアリスティックレンダリングの問題が解決される)。
従来の画像に関連する実施形態は、例えば、画像処理に興味がある任意のデバイス、例えば、従来からのカメラ、コンピュータ、TVセットなどで、実行される。そのような実施形態は、また、それらのデバイスに組み込まれた画像又はビデオ処理ソフトウェアに実装することもできる。これらの実施形態は、同じシーンの画像の組と関連するデプス画像の両方を使用するお蔭で、プレノプティック効果がコンテンツに亘って変化するノンフォトリアリスティックコンテンツのレンダリングも許す。画像の組において利用可能な画像に依存して、ベストインフォーカス画像は、プリプロセッシング段階で選択又は計算され、そして、使用され、それ故に、拡張されたノンフォトリアリスティックレンダリングを生じる。
提案した技術は、非常に柔軟性があり、取得可能であり得るノンフォトリアリスティック効果の観点でかなり実現性を提供する点にも留意されたい。例えば、図3において説明されたノンフォトリアリスティックレンダリングプロセスに関して、第1及び第2のリファレンスデプスは、1つの同じリファレンスデプスであることもあり、ないこともあり得る点に留意されたい。セグメンテーション基準選択とエッジ抽出基準をガイドするルール(すなわち、マッピング)は、お互いに非常に異なり得る点にも留意されたい。これらの基準を選択するために実行されるマッピングに依存して、ラインドローイング、又はその反対なしに、フラット化領域に限定してノンフォトリアリスティックレンダリングを実行することさえ可能である。
ノンフォトリアリスティック効果が画像に亘って変化することがあり、シーンのコヒーレントな部分に通常対応する(例えば、シーン内の特定のオブジェクトなど)画像の同じデプス領域のそれぞれに亘って一定であり得る、ノンフォトリアリスティックコンテンツのレンダリングを許すので、最終的に提案された技術とのいくらかの一貫性が、画像構成に関して維持される。
本開示は、様々な形式で具体化することができ、上述の実例に制限されないことを理解されたい。特に、提案の技術は、画像であるノンフォトリアリスティックコンテンツのレンダリングに関して主に説明してきたが、本開示の範囲から逸脱することなく、ビデオのノンフォトリアリスティックコンテンツのレンダリング対しても適用することもできる。
図5は、本開示の実施形態に従った、ノンフォトリアリスティックコンテンツのレンダリングに関連するデバイスの実例を説明する概略的ブロック図である。そのようなデバイスは、興味のあり得る画像処理の任意のデバイスであり、コンピュータ、セットトップボックス、TVセット又は例えばスマートフォン、タブレット、ライトフィールド取得デバイスなどのポータブルハンドヘルドデバイスである。
図5に説明される装置500は、プロセッサ501、記憶ユニット502、入力デイバス503、出力デバイス504、及びバス506によって接続されたインタフェースユニット505を含む。もちろん、コンピュータ装置500の構成要素は、バス506を使用したバス接続以外の接続によって接続することができる。
プロセッサ501は、装置500の動作を制御する。記憶ユニット502は、プロセッサ501によって実行される少なくとも1つのプログラム、例えばデプス画像、オールインフォーカス画像、計算された階層化画像表現や重み付けエッジ表現、プロセッサ501によって実行される計算によって使用されるパラメータ、プロセッサ501によって実行される計算の中間データなどを含む様々なデータを記憶する。プロセッサ501は、任意の既知の適切なハードウェア、又はソフトウェア、又はハードウェアとソフトウェアの組合せによって形成される。例えば、プロセッサ501は、例えば、処理回路などの専用のハードウェアによって、又はそのメモリに記憶されたプログラムを実行するCPU(中央処理装置)などのプログラマブル処理ユニットによって、形成される。
記憶ユニット502は、プログラム、データなどをコンピュータ読取可能な方法で記憶する能力を持つ任意の適切な記憶装置又は手段によって形成される。記憶ユニット502の実例は、例えば、読取及び書込ユニットに装着される例えば、半導体メモリデバイス、及び磁気、光学式、又は磁気光学式の記録媒体などの非一時的コンピュータ読取可能記憶媒体を含む。プログラムは、上述の本開示の実施形態に従って、プロセッサに501にノンフォトリアリスティックコンテンツをレンダリングするためのプロセスを実行させる。
入力デバイス503は、ユーザによってコマンドを入力するための例えば、キーボード、マウスのようなポインティングデバイスなどとして形成される。ノンフォトリアリスティックレンダリングが、例えば、ライトフィールド取得デバイス又は従来からのカメラなどの画像取得デバイス内で実行される実施形態において、入力デバイス503は、シーンを取得するために使用される光学デバイスも備える。他の追加のデバイスは、例えば、注視トラッキングを実行するカメラなどの入力デバイスの一部であり得る。
出力デバイス504は、例えば上述のレンダリングのための方法を適用することによって決定される最終的な画像を表示するための例えばディスプレイデバイスによって形成される。入力デバイス503と出力デバイス504は、例えばタッチスクリーンによって一体化して形成することができる。入力デバイス503は、第1及び/又は第2のリファレンスデプスを選択するためにオペレータによって使用することができ、第1及び/又は第2のリファレンスデプスは、さらに、これらのリファレンスデプスに関連するそのピンボケの程度に依存して各領域に適用されるセグメンテーション基準及びエッジ抽出基準を決定するために使用することができる。そのような第1と第2のリファレンスデプスは、次に、記憶ユニット502に記憶することができる。
インタフェースユニット505は、装置500と外部装置との間のインタフェースを提供する。インタフェースユニット505は、ケーブル又はワイヤレス通信を経由して外部装置と通信可能である。いくつかの実施形態において、外部装置は、ディスプレイデバイス、又は例えば、この実行が装置500自体によってサポートされないときに、上述のプリプロセッシング段階を実行するように構成されたデバイスであり得る。
ただ1つのプロセッサ501が図5に示されているが、そのようなプロセッサは、本開示の実施形態に従って装置500によって実行される機能を具体化する種々のモジュール及びユニットを備えることができることを理解されるべきであり、そられは、
・セグメント化画像を生成するモジュールであって、セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含み、少なくとも1つのセグメント化領域は、領域の組の少なくとも1つの領域に対応し、
・バイナリエッジ画像を生成するモジュールであって、バイナリエッジモジュールは、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、少なくとも1つのバイナリエッジ領域は、領域の組の少なくとも1つの領域に対応し、
・セグメント化画像とバイナリエッジ画像を組み合わせることによって、ノンフォトリアリスティックコンテンツをレンダリングするモジュールである。
これらのモジュール及びユニットは、相互に通信可能且つ協働可能ないくつかのプロセッサ501においても具体化することができる。

Claims (14)

  1. 同じシーンの少なくとも1つのイメージの組のノンフォトリアリスティックレンダリングの方法であって、デプス画像と関連する少なくとも1つの画像の前記組は、領域の組を含み、領域の前記組の各領域は、所定のデプスの領域に対応しており、
    前記方法は、
    セグメント化画像を生成することであって、前記セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成される少なくとも1つのセグメント化領域を含み、前記少なくとも1つのセグメント化領域は、領域の前記組の少なくとも1つの領域に対応し、
    バイナリエッジ画像を生成することであって、前記バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、前記少なくとも1つのバイナリエッジ領域は、領域の前記組の前記少なくとも1つの領域に対応し、
    前記セグメント化画像及び前記バイナリエッジ画像を組み合わせることによって少なくとも1つの画像の前記組をレンダリングすることと、
    を含む、方法。
  2. セグメンテーション基準は、領域の前記組の前記少なくとも1つの領域から決定される、請求項1に記載の方法。
  3. 所定のセグメント化領域は、領域の前記組の所定の領域に対応し、前記所定のセグメント化領域に適用される前記所定のセグメンテーション基準は、前記所定のセグメント化領域に対応する領域の前記組の前記所定の領域のデプスと第1のリファレンスデプスとの間の差の関数である、請求項1に記載の方法。
  4. エッジ抽出基準は、領域の前記組の前記少なくとも1つの領域から決定される、請求項1に記載の方法。
  5. 所定のバイナリエッジ領域は、領域の前記組の所定の領域に対応し、前記所定のバイナリエッジ領域に適用される前記所定のエッジ抽出基準は、前記バイナリエッジ領域に対応する領域の前記組の前記所定の領域のデプスと第2のリファレンスデプスとの間の差の関数である、請求項1に記載の方法。
  6. セグメント化領域は、階層化画像表現から決定され、前記階層化画像表現は、同じシーンの少なくとも1つの画像の前記組から抽出されたオールインフォーカス画像(AIF)の階層化セグメンテーションを通して取得される、請求項1に記載の方法。
  7. バイナリエッジ領域は、重み付けエッジ表現から決定され、前記重み付けエッジ表現は、同じシーンの少なくとも1つの画像の前記組から抽出されたオールインフォーカス画像(AIF)のエッジ抽出を通して取得される、請求項1に記載の方法。
  8. セグメント化領域のデプスと前記第1のリファレンスデプスとの間の前記差が減少するにつれて、セグメンテーション基準の粒度レベルが増加する、請求項3に記載の方法。
  9. バイナリエッジ領域のデプスと前記第2のリファレンスデプスとの間の前記差が減少するにつれて、エッジ抽出基準の粒度レベルが増加する、請求項5に記載の方法。
  10. 前記第1のリファレンスデプスが、注視トラッキング分析から自動的に取得される請求項3に記載の方法。
  11. 前記第2のリファレンスデプスが、注視トラッキング分析から自動的に取得される、請求項5に記載の方法。
  12. 同じシーンの少なくとも1つの画像の前記組が、ライトフィールドデータ取得デバイスによって供給されるライトフィールドコンテンツから得られる、請求項1に記載の方法。
  13. 同じシーンの少なくとも1つの画像の組のノンフォトリアリスティックレンダリングのためのデバイスであって、前記少なくとも1つの画像の組は、領域の組を含むデプス画像に関連し、領域の前記組の各領域は、所定のデプスの領域に対応し、
    前記デバイスは、
    セグメント化画像を生成するモジュールであって、前記セグメント化画像は、複数のセグメンテーション基準の所定のセグメンテーション基準で生成された少なくとも1つのセグメント化領域を含み、前記少なくとも1つのセグメント化領域は、領域の前記組の少なくとも1つの領域に対応し、
    バイナリエッジ画像を生成するモジュールであって、前記バイナリエッジ画像は、複数のエッジ抽出基準の所定のエッジ抽出基準で生成された少なくとも1つのバイナリエッジ領域を含み、前記少なくとも1つのバイナリエッジ領域は、領域の前記組の少なくとも1つの領域に対応し、
    前記セグメント化画像と前記バイナリエッジ画像を組み合わせることによって、少なくとも1つの画像の前記組をレンダリングするモジュールと、
    を含む、デバイス。
  14. コンピュータによって読み取り可能であり、プロセッサによって実行可能な、通信ネットワークからダウンロード可能な又は媒体に記録されたコンピュータプログラム製品であって、請求項1乃至12のいずれか1項に従う方法を実行するプログラムコード命令を含む、コンピュータプログラム製品。
JP2017034569A 2016-02-29 2017-02-27 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス Active JP7120740B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16305227.7A EP3211599A1 (en) 2016-02-29 2016-02-29 Adaptive depth-guided non-photorealistic rendering method, corresponding computer program product, computer-readable carrier medium and device
EP16305227.7 2016-02-29

Publications (3)

Publication Number Publication Date
JP2017174416A true JP2017174416A (ja) 2017-09-28
JP2017174416A5 JP2017174416A5 (ja) 2020-04-09
JP7120740B2 JP7120740B2 (ja) 2022-08-17

Family

ID=55586253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034569A Active JP7120740B2 (ja) 2016-02-29 2017-02-27 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス

Country Status (5)

Country Link
US (1) US11176728B2 (ja)
EP (2) EP3211599A1 (ja)
JP (1) JP7120740B2 (ja)
KR (1) KR20170101819A (ja)
CN (1) CN107133956B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109741248B (zh) * 2018-12-29 2023-06-13 深圳美图创新科技有限公司 水彩风格绘制方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341569A (ja) * 2004-05-17 2005-12-08 Mitsubishi Electric Research Laboratories Inc 物体を含むシーンの様式化された画像を生成する方法
US9607207B1 (en) * 2014-03-31 2017-03-28 Amazon Technologies, Inc. Plane-fitting edge detection

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5048095A (en) * 1990-03-30 1991-09-10 Honeywell Inc. Adaptive image segmentation system
US6476805B1 (en) 1999-12-23 2002-11-05 Microsoft Corporation Techniques for spatial displacement estimation and multi-resolution operations on light fields
US7738725B2 (en) * 2003-03-19 2010-06-15 Mitsubishi Electric Research Laboratories, Inc. Stylized rendering using a multi-flash camera
CN101542529B (zh) * 2006-11-21 2012-10-03 皇家飞利浦电子股份有限公司 图像的深度图的生成方法和图像处理单元
GB0712690D0 (en) * 2007-06-29 2007-08-08 Imp Innovations Ltd Imagee processing
EP2034436A1 (en) * 2007-09-06 2009-03-11 Thomson Licensing Method for non-photorealistic rendering
KR101468267B1 (ko) 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
CN101945295B (zh) 2009-07-06 2014-12-24 三星电子株式会社 生成深度图的方法和设备
US8860833B2 (en) 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
US20120200673A1 (en) * 2010-06-15 2012-08-09 Junichi Tagawa Imaging apparatus and imaging method
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
WO2012063449A1 (ja) * 2010-11-08 2012-05-18 パナソニック株式会社 撮像装置、撮像方法、プログラム、および集積回路
US20140176592A1 (en) 2011-02-15 2014-06-26 Lytro, Inc. Configuring two-dimensional image processing based on light-field parameters
US8928737B2 (en) 2011-07-26 2015-01-06 Indiana University Research And Technology Corp. System and method for three dimensional imaging
US20130070049A1 (en) * 2011-09-15 2013-03-21 Broadcom Corporation System and method for converting two dimensional to three dimensional video
CN102663766B (zh) * 2012-05-04 2014-10-22 云南大学 一种基于非真实感的艺术插画效果绘制方法
CN102831582B (zh) 2012-07-27 2015-08-12 湖南大学 一种微软体感装置深度图像增强方法
CN103067705B (zh) 2012-12-19 2016-06-08 宁波大学 一种多视点深度视频预处理方法
TWI538512B (zh) * 2013-06-27 2016-06-11 聚晶半導體股份有限公司 調整對焦位置的方法及電子裝置
AU2013206597A1 (en) * 2013-06-28 2015-01-22 Canon Kabushiki Kaisha Depth constrained superpixel-based depth map refinement
US20150104101A1 (en) 2013-10-14 2015-04-16 Apple Inc. Method and ui for z depth image segmentation
CN103942824B (zh) 2014-05-15 2017-01-11 厦门大学 一种三维点云直线特征提取方法
US9704250B1 (en) * 2014-10-30 2017-07-11 Amazon Technologies, Inc. Image optimization techniques using depth planes
WO2016135451A1 (en) * 2015-02-25 2016-09-01 Bae Systems Plc An image processing method and apparatus for determining depth within an image
US10482586B2 (en) * 2015-05-18 2019-11-19 Nokia Technologies Oy Filtering depth map image
CN105069808B (zh) 2015-08-31 2017-09-26 四川虹微技术有限公司 基于图像分割的视频图像深度估计方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341569A (ja) * 2004-05-17 2005-12-08 Mitsubishi Electric Research Laboratories Inc 物体を含むシーンの様式化された画像を生成する方法
US9607207B1 (en) * 2014-03-31 2017-03-28 Amazon Technologies, Inc. Plane-fitting edge detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FRITZ ALBREGTSEN: "REGION & EDGE BASED SEGMENTATION", INF 4300 - DIGITAL IMAGE ANALYSIS, JPN6021011501, 22 September 2010 (2010-09-22), pages 1 - 58, ISSN: 0004648662 *

Also Published As

Publication number Publication date
US20170249775A1 (en) 2017-08-31
JP7120740B2 (ja) 2022-08-17
US11176728B2 (en) 2021-11-16
EP3211599A1 (en) 2017-08-30
EP3211600B1 (en) 2021-09-29
KR20170101819A (ko) 2017-09-06
CN107133956B (zh) 2022-04-05
CN107133956A (zh) 2017-09-05
EP3211600A1 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
Winnemöller Xdog: advanced image stylization with extended difference-of-gaussians
Zollmann et al. Image-based ghostings for single layer occlusions in augmented reality
Gong et al. Guided depth enhancement via a fast marching method
Afifi et al. MPB: A modified poisson blending technique
CN111066026B (zh) 用于向图像数据提供虚拟光调节的技术
US10198794B2 (en) System and method for adjusting perceived depth of an image
Kumar et al. Structure-preserving NPR framework for image abstraction and stylization
CN111681198A (zh) 一种形态学属性滤波多模融合成像方法、系统及介质
CN106447756B (zh) 用于生成用户定制的计算机生成动画的方法和系统
Kim et al. Layered non-photorealistic rendering with anisotropic depth-of-field filtering
Rosin et al. Towards artistic minimal rendering
To et al. Bas-relief generation from face photograph based on facial feature enhancement
Cong et al. Selective image abstraction
CN116612263B (zh) 一种感知潜视觉合成一致性动态拟合的方法及装置
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
JP7120740B2 (ja) 適応的デプスガイドノンフォトリアリスティックレンダリング方法、対応するコンピュータプログラム製品、コンピュータ読取可能搬送媒体及びデバイス
Liu et al. Stereo-based bokeh effects for photography
Liao et al. Depth annotations: Designing depth of a single image for depth-based effects
KR101715266B1 (ko) 그래픽 가속기에 기반한 3d 모델의 라인 드로잉 방법 및 이를 이용한 프로그램이 기록된 컴퓨터 판독가능 기록매체
Zhao et al. Image aesthetics enhancement using composition-based saliency detection
Pavan Kumar et al. A refined structure preserving image abstraction framework as a pre-processing technique for desire focusing on prominent structure and artistic stylization
Rosin et al. Watercolour rendering of portraits
Jeong et al. Photo quality enhancement by relocating subjects
Rezaei et al. Hybrid filter blending to maintain facial expressions in rendered human portraits
KR102606373B1 (ko) 영상에서 검출되는 얼굴의 랜드마크를 조절하기 위한 방법 및 장치

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181220

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181227

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220804

R150 Certificate of patent or registration of utility model

Ref document number: 7120740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150