JP7489960B2 - 画像の合成のための方法及びデータ処理システム - Google Patents

画像の合成のための方法及びデータ処理システム Download PDF

Info

Publication number
JP7489960B2
JP7489960B2 JP2021503548A JP2021503548A JP7489960B2 JP 7489960 B2 JP7489960 B2 JP 7489960B2 JP 2021503548 A JP2021503548 A JP 2021503548A JP 2021503548 A JP2021503548 A JP 2021503548A JP 7489960 B2 JP7489960 B2 JP 7489960B2
Authority
JP
Japan
Prior art keywords
frames
objective lens
generating
camera
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021503548A
Other languages
English (en)
Other versions
JP2021532649A (ja
Inventor
ヴィック,ミヒャエル
ヴォジェク,クリスティアン
ブラニク,ヴラダン
ジーファース,トルステン
Original Assignee
カール・ツアイス・アーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カール・ツアイス・アーゲー filed Critical カール・ツアイス・アーゲー
Publication of JP2021532649A publication Critical patent/JP2021532649A/ja
Application granted granted Critical
Publication of JP7489960B2 publication Critical patent/JP7489960B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Image Input (AREA)
  • Image Generation (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、第1の連続フレームを用いて第2の連続フレームを生成するための方法に関し、上記第1の連続フレームのフレームは、対物レンズの助けを借りて撮影される。特に本発明は、所定のパラメータに基づいて動画を修正及び/又は生成するための、ソフトウェアベースの方法に関する。
現在、例えば劇映画、コンピュータゲーム、医療用撮像、顔認識用セキュリティアプリケーションのためのアニメーション、コンピュータベースのシミュレーションにおけるアニメーション、仮想現実アプリケーションにおけるアニメーション、又は産業的測定技法におけるアニメーションは、レンダー又はレンダリングとも呼ばれる画像合成を用いて生成される。例えばここで使用される1つの技法は、仮想センサポイントからピンホールカメラ開口部を通って仮想3次元シーンに至る仮想ビーム経路を計算し、上記仮想シーンの衝突点に応じて、対応する色及び強度を上記センサポイントに割り当てるというものである。
多くの場合、このような形式の画像合成によって生成されたフィルムシーケンスを実際に撮影されたシーンと重ね合わせる、又は一体化することが望まれる。例えば実際の俳優を伴うスタジオの状況を示す、実際に撮影された画像シーケンスに、例えば仮想のコンピュータアニメーションによる生物又は背景を示す、上述のように生成された画像コンテンツを、埋め込むことになる。
ここで目的となるのは、実際の画像シーケンスに埋め込まれることになる画像コンテンツを可能な限りシームレスに統合することである。画像コンテンツによっては、実際に実物のコンテンツであることを視聴者に対して示唆することではなく、画像コンテンツ全体が、後処理を行うことなくネイティブに生成されているという印象を与えることが必要となる。現在、このような印象のために相当な努力が払われており、これにはポストプロダクションにおける画像毎の操作が主に含まれる。画像処理プログラムを用いて、実際に撮影された風景に可能な限り適合させることを目的として、個々の画像コンテンツに変更が加えられる。この画像後処理はほとんどの場合手動で実施しなければならず、また経験値に基づくものである。説得力のある視聴体験のためには、モデル化された特殊効果が実際の画像コンテンツといわば融合し、視聴者が断絶を感じないことが重要である。各状況のために適用される設定(FOV、開口、入射瞳、位置、焦点距離等)は、物理モデルを用いてシミュレートされる。
本発明の目的は、第1の連続フレームを用いて第2の連続フレームを生成する方法を提示することであり、上記方法は、上述の要件を満たし、より高いレベルのシームレスな統合を提供し、また同時に必要な手作業を削減する。
この目的は、独立請求項1に記載の方法によって達成される。第1の連続フレームを用いて第2の連続フレームを生成する本発明による方法(ここで上記第1又は第2の連続フレームのフレームは、対物レンズの助けを借りて撮影される)は、上記第1の連続フレームの上記フレームに関する上記対物レンズ内での光ビームの特性を決定するステップ、及び上記第1の連続フレームの各上記フレームの上記対物レンズ内での光ビームの特性を考慮に入れて、上記第2の連続フレームの上記フレームを生成する、又は適合させるステップを含む。
上記第2の連続フレームの上記フレームの画像コンテンツを適合させる上記ステップは、既に計算された又は他の方法で生成されたフレームシーケンスを後で変換するステップを伴う場合がある。ここで例えば、上記第1の連続フレームの上記フレームを、上記第2の連続フレームの上記画像と、正確に結合させることができる。上記第2の連続フレームの上記フレームを生成する上記ステップは、対物レンズを用いたフレームシーケンスを生成するステップ、即ち従来の意味で画像シーケンスを撮影するステップ、又は仮想シーンに基づく画像合成(レンダリング)の意味でフレームシーケンスを計算するステップを伴う場合がある。ここで、上記第2の連続フレームの画像から、例えば人物又は物体といった個々の要素を抽出し、上記第1の連続フレームの画像に統合できる。
好ましい実施形態では、上記対物レンズ内での光ビームの特性を決定する上記ステップは、上記第1の連続フレームの上記フレームに関する上記対物レンズの入射瞳及び視野を決定するステップを含む。
上記対物レンズの入射瞳、及びFoV(Field of View)とも呼ばれる視野を決定する上記ステップにより、上記第2の連続フレームの上記フレームの画像コンテンツを適合させる又は生成する上記ステップにおいて、上記第2の連続フレームの画像コンテンツを計算又は変換するために、正確な視線方向、上記対物レンズが実際にキャプチャする視野、及び入射瞳を考慮できる。
例えば、異なる対物レンズ‐被写体間距離に適合するための上記対物レンズのピント合わせプロセスにおいて、入射瞳及び/又は視野がわずかに、しかしながら明確に変化する場合がある。この効果は特に画像セクションの変化として知覚可能となり、画角変動(ドイツ語:Pumpen、英語:focus breathing)として知られている。この効果は、個々の撮影ではほとんど無関係であるが、フィルムシーケンスでは知覚可能となり、特にシミュレートされた又は仮想の、即ち計算された画像コンテンツを後で挿入する際に、従来のアプローチにとって大きな課題となる。追加されることになる画像コンテンツの計算の際に、入射瞳及び視野が既に考慮されていれば、画像コンテンツをはるかに容易な方法で、特に手作業をほとんど伴うことなく、結合させることができる。
本発明の好ましい実施形態は、第1の連続フレームの画像コンテンツと、第2の連続フレームの画像コンテンツとを結合させるステップを含み、上記結合させるステップは、上記第2の連続フレームのフレームの画像コンテンツを上記第1の連続フレームのフレームの画像コンテンツに適合させるステップ、又は上記第2の連続フレームのフレームを生成するステップを含み、これらはそれぞれ、上記第1の連続フレームの各フレームの対物レンズの入射瞳及び視野を考慮して行われる。対物レンズの入射瞳の場所及び視野に関する情報を把握した上で、上記第2の連続フレームを生成した又は適合させた後、過度の適合を実施することなく、2つの上記画像シーケンスを結合させる、例えば2つの画像シーケンスを重ね合わせる、又は第2のフレームシーケンスの画像コンテンツを第1の画像シーケンスの画像コンテンツに挿入することができる。
本発明の更なる実施形態では、フレームを適合させる又は生成する上記ステップにおいて、入射瞳及び視野に加えて、射出瞳の位置、被写界深度、場合によっては色依存性のビネッティング、歪み、ぼけ、色誤差、焦点、対物レンズ内のレンズ素子の位置、アパーチャ、露光時間、色の見え及び/又はカメラ内での反射を考慮に入れることが提供される。上述のパラメータは、個別に、又は任意の組み合わせで考慮できる。更に例えば光源の位置、光源の種類、影の分布及び強度、モーションブラー等といった他の関連するパラメータも検出できる。光源では、例えば光のスペクトル分布、放射特性、ビームの強度等を検出できる。対物レンズ又はシーンのより多くの特性を、上記適合させる又は生成するステップで利用できるようにし、また考慮に入れるほど、第2の画像シーケンスの画像コンテンツを第1の画像シーケンスの画像コンテンツにより良好に適合させることができる。
フレームを適合させる、又は特に生成する上記ステップにおいて、十分に多数の上述のパラメータを考慮すると、視聴者は、結合された画像シーケンスが、その後に結合されることなく作成されたものであろうという印象を得ることができる。
本発明のある実施形態では、上記第2の連続フレームの上記フレームを生成する上記ステップは、仮想シーンのレンダリングによって上記フレームを生成するステップを含む。これは一般的な要件であり、第1の連続フレームのフレームに関して、シーン内の入射瞳の場所及び対物レンズの視野を検出することによって、容易に実現できる。
あるいは、本発明のある実施形態では、上記第2の連続フレームの上記フレームを適合させる上記ステップに、カメラ用の対物レンズを用いて上記フレームを生成するステップが先行してよい。このカメラ用の対物レンズは、第1の連続フレームの撮影に用いられた対物レンズと同一である必要はない。むしろ、第1及び第2の連続フレームの問題のない結合を実現できるように、入射瞳及び視野の決定に基づいて、第2のフレームシーケンスの画像コンテンツを変換できる。
本発明のある発展形態では、上記決定するステップは、第1の連続フレームの撮影時に対物レンズの1つ以上の撮像パラメータを記録するステップを含む。例えば各フレームに関して又は複数のフレームに関してこのようにして検出された撮像パラメータ、例えば入射瞳、視野等は、第2の連続フレームを生成する又は適合させる際に使用できる。これにより、第1及び第2の連続フレームの結合のための労力が削減される。例えば、俳優又は物体がニュートラルな(例えば青色又は緑色の)背景の前で撮影される、いわゆるブルースクリーン又はグリーンスクリーン撮影では、このような撮影に使用されるパラメータを検出し、特に時間分析して、この撮影に基づく仮想シーンの生成において使用できる。これは、使用され得る設定に関して後で計算を実施する必要がないという利点を有し、これにより、これら2つのフレームシーケンスの画像コンテンツを容易に結合させることができ、また最終結果が極めてリアルな/本物らしいものとなる。
この実施形態の更なる発展形態では、対物レンズの撮像パラメータは、第2の連続フレームのフレームを生成するためにリアルタイムで使用される。これを用いて、例えば、グリーンスクリーン/ブルースクリーンのシーンを、生成中、即ち撮影中にシミュレーションコンピュータへとリアルタイムで転送でき、上記シミュレーションコンピュータは、準備が終わった画像コンテンツ又は現在計算されている画像コンテンツとの予定された結合をリアルタイムで実行し、これをモニタ又はアイピースといったディスプレイに表示する。これにより、対応するブルースクリーン/グリーンスクリーンの撮影を、生成時に評価して、必要に応じて補正する、又は繰り返すことができる。
本発明のある実施形態では、第1の対物レンズに関する光ビームの特性を決定するステップが実施され、第2の連続フレームのフレームを生成するステップが、第2の対物レンズ内での光ビームの特性を更に考慮に入れて実施される。これにより例えば、第1の対物レンズ(例えば広角対物レンズ)を用いて撮影された第1のフレームシーケンスを第2のフレームシーケンスへと変換でき、上記第2のフレームシーケンスはその後、異なる対物レンズ(例えば望遠対物レンズ)を用いて撮影されたかのような印象を生成する。
本発明のある発展形態では、上記決定するステップは、撮像パラメータの時系列を記録するステップを含む。これにより、特に一連のフレームを厳密な時間的順序で撮影することを含むフィルム撮影において、全てのフレーム又はフレームの特定のサブセットに関して、結合に必要なパラメータを検出して考慮に入れることができる。例えば実際に撮影を開始する前に、カメラマンは、仮想的に動作するカメラを用いて仮想シーンで撮影を行うことができ、これによって撮影するシーンを計画する。これは、事前視覚化(ドイツ語:Pravisualisierung、英語:Previsualizing)と呼ばれる場合もある。
これにより、例えば様々なカメラ設定又は様々な種類の対物レンズを、芸術的側面及び/又は技術的実現可能性に関して試験及び審査できる。時間分析的に検出できる可能なパラメータは、例えば:対物レンズの位置;対物レンズの配向;焦点、開口部、及び/又はズームに関する現在の設定であり得る。これらの記録は、セットを計画するための後続の作業ステップにおいて使用できる。
フィルムの撮影時間は通常コストがかかるものであり、制限されることが多いため、レンダリングによる事前視覚化を用いて、全体的なコストを最小限に抑える。事前視覚化(英語:Previsualisation)の利点は、ディレクター、カメラマン又はVFXスーパーバイザーが:照明;カメラの配置;カメラの動き;例えば焦点位置、焦点距離、又は被写界深度、配向、及び処理等の対物レンズの光学的設定といった、様々なステージングアプリケーションオプション及びアートディレクションアプリケーションオプションを、多大な生産コストを発生させることなく実験できることである。予算が大きなプロジェクトの場合、ディレクターは、視覚効果に関する部門で、又は特別な空間で、俳優と共同作業する。
事前視覚化は、音楽、サウンドエフェクト、及びダイアログを追加することによって、完全に製作及び編集が行われたシーンのシーケンスの様相をエミュレートできる。これらは最も一般的には、スタント及び特殊効果(例えばクロマキー)があるシーンで使用される。事前視覚化中には、デジタルビデオ、写真、手書きアート、クリップアート、及び3Dアニメーションが組み合わされる。フィルム産業及び写真に加えて、事前視覚化のためのレンダリングのアプリケーションは、建造物の計画、美容手術、又は医療用インプラントの位置決定において使用できる。
これに関連して、本発明による方法は更に、上述のように、撮像パラメータの時間的シーケンスの記録に基づく第1の連続フレームの撮影の計画、及び/又は撮像パラメータの時間的シーケンスの記録を用いた第1の連続フレームの撮影を含むことができる。これにより上述のように、極めてリアルな外観の撮影のシミュレーションを用いた高度な事前計画によって画像シーケンスを作成できる。
本発明は更に、本発明による方法を実施するための手段を備えたデータ処理システム、及びコンピュータプログラムに関する。
本発明によると、対物レンズ内のレンズの寸法、特性、及び場所を、シーンのシミュレーションに使用できる。上述のように、劇映画のための最新のアニメーションは、レンダリングによって作成される。ここでは、仮想ビームは、仮想センサピクセルから仮想ピンホールカメラ開口部を通って仮想3次元シーンまで追跡される。続いて、ビームがシーンのどこに当たるかに応じて、対応する色及び強度が上記ピクセルに与えられる。本発明によると、簡単なピンホールカメラモデルを、光学的設計プログラムのレイトレーシングに置き換える。これにより、対物レンズの極めてリアルなシミュレーションが可能となる。リアルさを更に高めるために、このレイトレーシング方法以外に、又はこれに加えて、波動光学的効果もシミュレートできる。ここでは例えば点像分布関数を、回折積分を用いて計算できる。
本発明のある可能な実施形態は、シーンの計画のために、フィルムセットの3次元コンピュータモデルを使用すること(事前視覚化)からなるものとすることができる。このようなモデルでは、フィルム化されるシーンを例えば大まかにしかモデル化及び/又はアニメーション化せず、そこから、望ましいシーンに応じて、俳優、カメラ(並びにその設定及び位置)、必要な設備、書き割り、並びに/又は特殊効果に関する要件を導出できる。撮影を開始する前に、カメラマンは、仮想カメラを用いて仮想シーンでの撮影を計画する。カメラのリアルなシミュレーションにより、例えば実際の撮影の前に、様々なカメラ設定を試験できる。これにより、コストを節減でき、予想外の状況を把握でき、従ってシーンをより良好に計画できる。例えば、通常は手動で実施されるフォーカスの設定を、特に動きが速い被写体で練習すること、又は特定のタイプの対物レンズ(実際のプロトタイプ若しくはまだ実現されていないプロトタイプ)の適合性を試験することが可能である。また、芸術的側面及び技術的実現可能性に関する設定も試験できる。例えば位置、方向、焦点、開口部、ズーム位置を、シミュレーションにおいて時間分析して保存できる。続いてこれらの情報を用いてセットを計画する。任意に、このデータを電子制御式の実際のカメラに転送して、これらの一連の設定を実際のカメラで再生できる。
別の実施形態は、3Dモデルに基づくフィルムシーンの部分的な又は完全な写実的生成を含むことができる。実際のフィルムのシーンを、コンピュータでアニメーション化されたシーンと重ね合わせること、例えば仮想生物を実際のシーンに重ね合わせること、及び/又は俳優を仮想シーンに重ね合わせること、又はこれら両方の組み合わせが可能である。このためにいわゆるグリーンスクリーンが使用されることが多い。実際のシーンとコンピュータアニメーションとの組み合わせの品質のためには、モデルにおける照明条件、モーションブラー、カラーレンダリング、ノイズ等が、実際のシーンの撮影とどの程度一致しているかかが重要である。これらのモデル化された特殊効果が風景と融合していない作品は、視聴者にとって簡単には十分にプロフェッショナルなものには見えない。ピンホールカメラモデルを用いた対物レンズのモデル化では、極めて単純化された様式で、対物レンズの(一定の)焦点距離だけが考慮される。シーンの遠近法的なレンダリングのみが、入射瞳及び射出瞳の場所、並びに対物レンズの焦点距離の変化に依存する。これらの瞳の場所は焦点距離及びズーム位置の関数であり、これらの関数は対物レンズに個別に依存している。シーンの深度によって決定されるf値もまた重要である。更に、歪み、周辺減光、カラーレンダリングの偏差、色誤差、反射依存性等といった、対物レンズの多数のパラメータが存在する。具体的には、グリーンスクリーンシーンの場合、例えば画像撮影時の位置、方向、焦点位置、開口部位置、及びズーム位置を、時間分析的に保存できる。これらの設定を、仮想シーンの生成時に使用する。利点としては、本物らしい外観、及び画像の重ね合わせが容易であることが挙げられる。
あるいは、又は更に、グリーンスクリーンシーンの場合、画像撮影時の位置、方向、焦点位置、開口部位置、及びズーム位置を、リアルタイムシミュレーションに直接送ることもでき、両方の画像がアイピース内で又はディスプレイ上で重ね合わされる。
全体として、本発明により、実施形態に応じて一連の利点を達成でき、仮想シーン内で事前に設定を行うことにより、カメラの設定時間を短縮できる。カメラによる撮影全体を事前に計画でき、またカメラの設定及びカメラの設定の変更を、仮想カメラにおいて記録して、実際のカメラで再現できる。特に必要なだけ繰り返すことができないシーンに関する特定のフィルム撮影の撮影品質を、カメラマンを事前に訓練することによって改善できる。仮想シーンの撮影時には、実際の対物レンズの正確なシミュレーションによって実際のシーンの撮影と同様の印象を生成できる。実際のカメラを用いてシミュレートされたシーンを、アニメーション化/生成できる。実際に存在しているレンズ/カメラに関して、仮想プロトタイピングを実施できる。
本発明のある実施形態は、保存及び補間された点像分布関数データを用いた、コンピュータプログラムの文脈での、3D画像シミュレーションの実施を提供する。この方法は、以下のステップを含む:
選択された画素のグループに関して、射出瞳のサイズ、形状、及び場所を決定するステップであって、例えばグリッド間隔が約5.4mmの2Dポイントグリッドを選択できる、ステップ;
他の画像位置に関して、選択された画素間で画素のサイズ、形状、及び場所を補間するステップ;
オブジェクト空間関数を入力するステップであって、上記オブジェクト空間関数は、対物レンズの入射瞳に対する距離に応じた強度の3次元関数として理解でき、上記オブジェクト空間関数は例えば、例えばRGBデータ若しくはグレースケールデータといったスペクトル特性、及び/又はオブジェクトから入射瞳までの距離(深度マップ)を含む、ステップ;
上記オブジェクト空間関数を、オブジェクト空間及び画像空間の割り当てを実行する目的関数と結びつけることによって、点像分布関数を生成するステップであって、この方法において、上記点像分布関数は、対物レンズの光学設計データを含み、上記光学設計データは、対物レンズの個々の又は全ての光学素子のコーティングデータを含む場合がある、ステップ;
オブジェクト座標に関して上記点像分布関数を積分するステップ;
射出瞳による波面変形を考慮に入れるために、射出瞳の形状に関して上記点像分布関数を積分するステップ;
レンダリングされたオブジェクト空間を作成するステップ。
更にこの実施形態では、デジタル収差(歪み及び/又は陰影等)の補正を実施できる。
本発明の更なる代替実施形態は、光伝達関数のデータを用いた3D画像シミュレーションの実施を提供する。この方法は、以下のステップを含む:
選択された画素のグループに関して、射出瞳のサイズ、形状、及び場所を決定するステップであって、例えばグリッド間隔が約5.4mmの2Dポイントグリッドを選択できる、ステップ;
他の画像位置に関して、選択された画素間で画素のサイズ、形状、及び場所を補間することにより、射出瞳関数を得るステップ;
オブジェクト空間関数を入力するステップであって、上記オブジェクト空間関数は、対物レンズの入射瞳に対する距離に応じた強度の3次元関数として理解でき、上記オブジェクト空間関数は若しくはオブジェクト空間関数は例えば、波長と光伝達関数との組み合わせから得ることができ、上記光伝達関数を得るためには、射出瞳関数の畳み込み(自己相関)が実行される、ステップ;
オブジェクト空間関数から連続フーリエ変換を計算するステップ;
ある固定波長の射出瞳座標に関して、光伝達関数とフーリエ変換されたオブジェクト空間関数との積を積分するステップ;
多数の波長にわたって上記計算を繰り返すステップ;
各カラーチャネル(スペクトル応答関数)の波長及び光源のスペクトル分布を積分するステップ;
各カラーチャネル(RGB)に関する画像を生成するステップ;
各カラーチャネル(RGB)に関する上記画像を重ね合わせて、写実的な画像を得るステップ。
上述の実施形態では、焦点ぼけが激しいオブジェクト空間点に対してフーリエ変換を実行することが問題となる。これには、例えば30×30ではなく10,000×10,000といった、射出瞳の非常に高いラスターサンプリングが必要である。これには時間がかかり、実行時間が非常に長くなる。
従って本発明のある代替実施形態は、3D画像シミュレーションのビーム追跡に基づく(レイトレーシング)レンダリングの実施を提供する。上記方法は、対物レンズに入射する光ビームが光源まで戻るという事実に基づくものである。この方法は、以下のステップを含む:
選択された画素のグループに関して、射出瞳のサイズ、形状、及び場所を決定するステップであって、例えばグリッド間隔が約5.4mmの2Dポイントグリッドを選択できる、ステップ;
他の画像位置に関して、選択された画素間で画素のサイズ、形状、及び場所を補間するステップ;
ビーム方向を計算するステップであって、上記ビーム方向は例えば、射出瞳によって定義される境界内に位置する、ステップ;
ビーム関数を生成するステップであって、これは例えば確率関数を表すことができ、光線の方向依存性分布を示すことができ、また例えば入射座標を射出座標と結びつけることができ、各入射ビームからは、達成したいレンダリングの品質に応じて、数百から数百万の射出ビームが出ることができる、ステップ;
光源までの全てのビームをシミュレートするステップ;
全ての個々の射出ビームに関して、光源の角度空間及び光源までの距離を積分するステップ;
対物レンズからオブジェクトへと向かう各入射ビーム、例えば10,000個のビームに関して、上記方法を繰り返すステップ;
全ての入射ビームに関して、光源に到達する射出ビームを積分するステップ;
画像を作成するステップ。
これより、本発明の例示的実施形態を、図面を参照して更に詳細に説明する。
図1A、1Bは、本発明による第1の方法のフローチャート及び概略図である。 図1A、1Bは、本発明による第1の方法のフローチャート及び概略図である。 図2A、2Bは、本発明による第2の方法のフローチャート及び概略図である。 図3A、3Bは、本発明による第3の方法のフローチャート及び概略図である。 図4は、本発明による第4の方法の概略図である。
図1A、1Bは、第1の連続フレームを用いて第2の連続フレームを生成するための、本発明による第1の方法を示す。第1のステップS11では、第1のフレームシーケンスを、実際のカメラ10を用いて作成する。この第1の方法に関しては、この第1のフレームシーケンスが実際に保存されるかどうかは重要ではない。上記フレームシーケンスを保存することはできるが、生成だけして記録しないものとすることもできる。
第2のステップ(S12)では、上記第1の画像シーケンスのカメラ設定及びカメラ位置を検出する。これは好ましくは、画像シーケンスの作成中、即ち実際のカメラ10を用いた第1の画像シーケンスの撮影中に実施される。これを撮影中に実施すると、第1の画像シーケンスの記録を省略できる。上記カメラ設定及びカメラ位置は、撮影を行う対物レンズの入射瞳の位置及び視野に関するものとすることができるが、例えば開口部/アパーチャ、露光時間、ズーム位置、焦点等といった更なるパラメータを検出することもできる。
更なるステップ(S13)では、上記カメラ設定及びカメラ位置をデータ11として仮想カメラ12に送信する。このステップは、初めの2つのステップS11、S12の後で実施することも、又はこれらと同時に実施することもできる。従って、第1の画像シーケンスの撮影(S11)、カメラ設定及びカメラ位置の検出(S12)、並びに送信(S13)は、同時に実行することも、又は適切に途中で保存しながら時間的オフセットを伴って順次実行することもできる。これに応じてカメラ設定及び位置の送信を実施できる。
仮想カメラ12は、例えば画像合成プログラム18の設定のためのパラメータに関するものとすることができ、上記画像合成プログラム18によって、更なるステップS14に従って仮想シーン16から得られる仮想画像シーケンス14を、上記カメラ設定及びカメラ位置を用いて生成できる。この画像合成プログラムは、例えばレイトレーシングアルゴリズムを用いる計算プログラムに関するものとすることができる。実際のカメラ10によって得られたデータ、及び事前に分かっているいずれのデータを用いて、カメラ10のモデルを画像合成プログラムで生成できる。このモデル、正確には仮想カメラ12を用いて、一方では、対物レンズに固有の、従って光学撮像に関連する効果を取り入れることができる。これにより、使用されている対物レンズの、又はカメラ10全体の、写実的なシミュレーションが可能となる。他方では、入射瞳及び視野の時間分析的なものであり得る検出に基づいて、実際のカメラ10の移動と、これに関連し得る効果、例えば様々な場所における照明条件の影響、又はモーションブラー、カラーレンダリング、又はノイズとが、仮想画像の生成に影響を及ぼし得る。
この方法のある具体的な実施形態では例えば、実際のカメラ10を、仮想シーン16内で仮想画像シーケンス14を作成するための仮想カメラ12のいわゆるコントローラとして、使用できる。
このようにして、コンピュータアニメーション化されたシーンを簡単な方法で生成できる。
図2A、2Bは、本発明による方法の第2の実施形態を示す。以下の複数の実施形態では、繰り返しを避けるために、同一の又は同等の特徴に対して同一の参照記号を使用し、個別に再度説明しない。図2A、2Bの方法もまた、上述の方法と同様に、実際のカメラ10を用いて第1の画像シーケンスを撮影すること(S21)を提供する。この方法では、第1の画像シーケンスの撮影を、現実に存在する実際のシーン20において実施し、実際の画像のシーケンス22を得る。上述のように、この方法でも、カメラ設定及びカメラ位置を検出し(S22)、仮想カメラ12に送信する(S23)。
これらのステップS21~S23によって得られた情報を更なるステップ(S24)で使用し、上記カメラ設定及びカメラ位置11を考慮しながら、画像合成プログラム18を用いて、仮想シーン16内で仮想カメラ12による第2の画像シーケンス24を作成する。第2の仮想画像シーケンス24の作成時には、例えば実際の画像のシーケンス22のカメラ10の入射瞳の場所及び視野に関する情報11が既に使用可能となっている。ある具体的な用途では、第1の実際の画像のシーケンス22は例えばフィルム撮影中のグリーンスクリーンシーンであってよい。このような場合、例えばカメラ10の位置及び配向、焦点、開口部、ズーム状態は、画像の撮影中に時間分析的に検出できる。次にこの情報を、仮想シーン16の生成、及び最終的には仮想画像シーケンス24の生成に使用できる。
更なるステップS24では、第1の実際の画像のシーケンス22と、第2の仮想画像のシーケンス24とを、結合済み画像シーケンス26へと結合させることができる。上述のグリーンスクリーン技術の例では、仮想画像のシーケンス24の仮想画像コンテンツを、実際の画像のシーケンス22の画像コンテンツに統合できる。ほとんどシームレスに挿入を実施できることにより、結合済みの画像シーケンス26は本物らしい外観を有する。更に、重ね合わせ/挿入は極めて簡単な方法で実施できる。
本発明による更なる実施形態を、図3A、3Bに示す。第1のステップ(S31)では、仮想シーン16を、実際のシーン20の空間データ及び他のデータ13を考慮して生成する。第2のステップ(S32)では、仮想カメラ12を用いて第1の画像シーケンス24を撮影する。この実施形態では、この第1の画像シーケンス24を保存することは重要ではない。むしろこの実施形態の目的は、カメラマンが実際の画像のシーケンス22を実際に撮影する前に、カメラの様々な設定を試験及び計画できるようにすることである。仮想カメラ12による実際のカメラ10の写実的なシミュレーションにより、この方法で様々なカメラ設定及びカメラ位置を、例えば芸術的側面及び技術的実現可能性に関しても計画及び試験できる。
これに対応して、更なるステップにおいて仮想カメラ12のカメラ設定及びカメラ位置を検出する(S33)。これは好ましくは時間分析的に実施され、即ち検出される各カメラ設定及びカメラ位置には1つのタイムスタンプが割り当てられる。好ましくは、フレームシーケンスの各フレームに関して、設定及び位置を検出する。設計に応じて、検出の頻度を状況に適合させることもできる。従って例えば、画像ごとよりも少ない頻度も考えられる。頻度は、固定された頻度(画像n枚ごと)に調整でき、又は発生し得る変更の関数として適合させることもできる。検出される設定としては例えば、位置、方向、焦点、開口部、又はズーム位置が挙げられる。次に、このようにして検出された情報を用いて、セット及びカメラでの撮影を計画できる。
任意に、このようにして検出されたカメラ設定及びカメラ位置を、更なるステップにおいて実際のカメラ10に送信できる(S34)。これらの設定を、第2の連続フレームの実際の撮影において考慮に入れることができる。例えば実際のカメラ20での撮影中に、設定シーケンスとしてこのカメラ設定を再生できるため、カメラマンの負担が軽減され、撮影中に撮影の細部の数が少なくなることを心配しなければならない。
本発明による方法の更なる実施形態を図4に示す。この方法は、図4に記載されているように、ステップS41、S42による2つの方法ステップを提供し、これらは時間的に互いに独立して実施できる。
ステップS41によって、後続のレンダリングのための開始基準が作成され、これはここではVFX生成と呼ばれる。この開始基準は例えば、必要な3次元情報を含むある仮想シーンのデータとすることができる。
3次元情報からレンダリングを実行するによってフレームのシーケンスを生成することを可能にする、他の何らかの基準を使用することもできる。例えば追加の深度情報を含む事前処理済み2次元画像、又は3次元シーンの3D位置が各画素に割り当てられている2次元画像を使用できる。ここで3D情報は、描画されるシーンに対して事前に定義された2次元画像に統合すること、描画されるシーンのためにエミュレートすること、又は描画されるシーンのために生成することができ、これは例えば、描画される実際のシーンを例えば3Dセンサを用いてキャプチャすることによって得られる3次元データに基づいて、行われる。
ステップS42では、対物レンズ/カメラデータを検出して、フレームのシーケンス(フィルムシーケンスの複数のフレーム)に割り当てることができる。上記検出は、例えばカメラの対物レンズに関連するものとすることができ、例えば上記対物レンズによって実施できる。
好ましくは、対物レンズ/カメラデータの検出(S42)と、フィルムシーケンスの検出(S43)とは、同時に実施できる。
対物レンズ/カメラデータは、対物レンズデータのシーケンスを含むことができ、ここで上記シーケンスは例えば、フレームに関する対物レンズ/カメラデータのセットを有する。あるいは、又は更に、フレームのシーケンス(フィルムシーケンス)全体に割り当てることができる対物レンズ/カメラデータだけを検出できる。
対物レンズ/カメラデータとしては例えば、対物レンズ自体の可能な特性及び/又は設定に関する情報、例えば対物レンズのタイプ若しくは個々の対物レンズの識別、対物レンズの種類、対物レンズの焦点距離、較正された焦点距離、較正されたT値、被写界深度、過焦点距離、水平方向視野角、又は入射瞳の位置及び/若しくはサイズが挙げられる。この対物レンズ/カメラデータは例えば、第1の連続フレーム(フィルムシーケンス)の記録中に、実際のカメラ又は実際の対物レンズによって撮影できる。対物レンズ/カメラデータの決定/計算及び/又は記録は例えば、各焦点及び各有効T値に対して、並びに/又は各フレームに関して実施できる。
あるいは、又は更に、対物レンズ/カメラデータは、対物レンズ内の1つ以上の、好ましくは全ての光学素子、例えばレンズ、開口部、及び/又はフィルタの特性を決定する、特定の物理的データを含むことができる。これらの物理的データは例えば、特にレンズ形状、素子のアパーチャ、例えば対物レンズの最大アパーチャ(最小のf値)、スペクトル透過率等であってよい。一般に、上記特定の物理的データは、対物レンズの光学的設計、従って撮像特性及び/又はレイトレーシング、レイキャスティング、点像分布関数、若しくは光伝達関数を使用する方法の実装に関する結論を導出することを可能にするようなデータとすることができる。
更に、又はあるいは、対物レンズ/カメラデータは、実際に撮影されるシーンの3次元構造に関する情報を含むことができる。これらの3Dデータの検出(S44)は例えば、対物レンズの特性及び/又は設定の検出(S42)と並行して実施できる。
上記3Dデータは、対物レンズ/カメラデータに統合できる。あるいは、又は更に、上記3Dデータをフィルムシーケンスデータに追加することもできる(S45)。
3Dデータの検出において、例えば1つ以上の3Dセンサを使用でき、これらは例えば、撮影されたシーンの光学的又は音響的スキャンによって空間データを作成し、上記空間データは、撮影されたフレームのシーケンス(フィルムシーケンス)に割り当てることができる。1つ以上のセンサは例えば、対物レンズ又はカメラとは別個に配設できる。好ましくは、1つ以上のセンサは、カメラ又は対物レンズ上に配置されるか、あるいはカメラ又は対物レンズに統合される。
あるいは、又は更に、対物レンズ/カメラデータは、位置データ、場所データ、及び/又は運動データを含むことができ、これらは更に時間分析的に記録され、例えばフレームのシーケンス(フィルムシーケンス)の複数のフレームに割り当てることができる。この位置情報、場所情報、及び/又は運動情報により、撮影される実際のシーンに対するカメラ及び/又は対物レンズの位置、並びに撮影されるシーンに対するカメラ及び/又は対物レンズの配向を決定できる。時間分析的な検出によって、カメラ及び/又は対物レンズの運動に関する直接的又は間接的な情報を検出又は導出できる。例えば場所又は位置の変化から、カメラ及び/又は対物レンズの運動を導出できる。あるいは、又は更に、カメラ/対物レンズの運動を直接検出するセンサ、例えばジャイロセンサを使用できる。
要約すると、対物レンズ/カメラデータは、対物レンズ特異性データ、実際のシーンの3Dデータ、及び/又は位置/場所/運動データを含むことができる。
この対物レンズ/カメラデータを記録中にリアルタイムで処理して、レンダリングに使用できるようにすることが考えられる(S46)。
あるいは、又は更に、対物レンズ/カメラデータを記録して、時間的に記録の後で実施される更なる処理ステップで初めて使用できる(S47)。
ステップS48では、レンダリング、即ち3次元データに基づく2次元画像の作成が実施される。
レンダリングでは、対物レンズ/カメラデータ(S46、S47)を考慮に入れることができる。
レンダリングは、以下の方法のうちの1つ以上を使用するアルゴリズムを用いて実施できる:レイトレーシング(ビーム関数)、レイキャスティング、点像分布関数、及び/又は光伝達関数。
あるいは、又は更に、既に上述したように、2次元画像の作成時、例えば深度情報を伴う既に事前処理済みの2次元画像、又は3次元情報が統合された2次元画像を使用できる。レンダリングは、対物レンズ/カメラデータに基づく既存の2次元画像の補正しか表さない場合もある。
対物レンズ/カメラデータを使用すると、レンダリングされたフレーム、又はフレームのシーケンス(フィルムシーケンス)に、この対物レンズ/カメラデータに属する対物レンズ/カメラを用いて撮影されたかのような印象を与える外観を与えることができる。
対物レンズ/カメラデータは、対物レンズ/カメラデータの記録中にリアルタイムでレンダリングのために使用できる。対物レンズ/カメラデータは、対物レンズ/カメラデータの、レンダリング用コンピュータへの無線又は有線送信によって、レンダリングプロセスにおいてリアルタイムで使用できるようになり(S46)、レンダリングのために使用できるようになる。
あるいは、又は更に、既に撮影を行った対物レンズ/カメラデータをレンダリングのために使用する(S47)ことを考えることができる。
対物レンズ/カメラデータは、例えば時間分析されていない対物レンズ及び/又はレンズ固有データのみを含むものとすることもできる。
あるいは、又は更に、対物レンズ/カメラデータは、例えば位置データ及び/若しくは場所データ並びに/又は運動データのみを含むものとすることもできる。
ある実施形態では、様々な対物レンズ/カメラデータを組み合わせてレンダリングに使用することもできる。例えば、時間分析されていない第1の対物レンズの対物レンズ及び/又はレンズ固有データを、第2の対物レンズ/第2のカメラの位置データ及び/若しくは場所データ並びに/又は運動データと組み合わせることができる。よって例えば、第1の対物レンズを用いて撮影されたフィルムシーケンスは、第2の対物レンズの対物レンズ及び/又はレンズ固有データを用いたレンダリングのために、位置データ及び/若しくは場所データ並びに/又は運動データを提供できる。これにより、フィルムシーケンスが別の対物レンズで撮影されたかのような印象を与えることができる。レンダリングはリアルタイムで実施でき、又は後続のステップにおいて行うことができる。
レンダリングは例えば、24fpsのフレームレートで、2Kの解像度のフィルムシーケンスをリアルタイムで作成できる。計算能力の向上により、上述のフレームレートで4K又は8Kの解像度も可能となる。
レンダリングされたフィルムシーケンスは、作成(S44)中又はその後に、レンダリングモニタ上に視認可能に表示できる(S49)。
上述のように対物レンズ/カメラデータを含んでレンダリングされた第1の連続フレーム(第1のフレームシーケンス)は、後続のステップS50において、実際に撮影された第2の連続フレーム(第2のフレームシーケンス)と結合させる(「コンポジット(Composite)」とする)ことができる。第2のフィルムシーケンスの撮影に使用された対物レンズ/カメラデータを用いて第1のフィルムシーケンスをレンダリングする、又は修正すると、これら2つのフィルムシーケンスの結合を、容易かつシームレスに行うことができる。
あるフィルムシーケンスに結合されたフィルムシーケンスは、記録して(S51)、コンポジットモニタ上に視認可能に表示できる(S52)。

Claims (12)

  1. 第1の連続フレームを用いて第2の連続フレームを生成する方法であって、前記第1の連続フレーム又は前記第2の連続フレームのフレームは、対物レンズの助けを借りて撮影される(S11)、方法において、
    前記方法は:
    ‐前記第1の連続フレームの前記フレームに関する前記対物レンズ内での光ビームの特性を決定するステップ(S12);
    ‐前記第1の連続フレームの各前記フレームの前記対物レンズ内での光ビームの特性を考慮に入れて、前記第2の連続フレームの前記フレームを生成する、又は適合させるステップ(S14)
    を含み、
    前記決定するステップは、
    撮像パラメータの時系列を記録するステップと、
    前記撮像パラメータの時間的シーケンスの記録に基づいて前記第1の連続フレームの撮影を、仮想的に動作する仮想カメラを用いることにより計画するステップと(S34)、
    前記撮像パラメータの時間的シーケンスの記録を用いて前記第1の連続フレームの該撮影を実行するステップ(S34)と、を含む、
    方法。
  2. 前記対物レンズ内での光ビームの特性を決定する前記ステップは、前記第1の連続フレームの前記フレームに関する前記対物レンズの入射瞳及び視野を決定するステップ(S12)を含み;及び/又は
    ‐前記第2の連続フレームの前記フレームを生成する、又は適合させる前記ステップは、前記第1の連続フレームの各前記フレームの前記対物レンズの前記入射瞳及び前記視野を考慮に入れて実施される、請求項1に記載の方法。
  3. 前記生成する、又は適合させるステップは、点像分布関数及び/又は光伝達関数及び/又はビーム関数の使用を含む、請求項2に記載の方法。
  4. 第1の連続フレームの画像コンテンツと、第2の連続フレームの画像コンテンツとを結合させるステップ(S25)を含み、
    前記結合させるステップは、前記第2の連続フレームのフレームの画像コンテンツを前記第1の連続フレームのフレームの画像コンテンツに適合させるステップ、又は前記第2の連続フレームのフレームを生成するステップを含み、前記適合させるステップ及び前記生成するステップはそれぞれ、前記第1の連続フレームの各フレームの対物レンズの入射瞳及び視野を考慮して行われる、請求項1~3のいずれか1項に記載の方法。
  5. 前記フレームを適合させる又は生成する前記ステップは、入射瞳及び視野を考慮に入れることに加えて、射出瞳の位置、被写界深度、ビネッティング、歪み、ぼけ、色誤差、焦点、対物レンズ内のレンズ素子の位置、アパーチャ、露光時間、色の見え及び/又は対物レンズ内での反射を考慮に入れることを含む、請求項4に記載の方法。
  6. 前記第2の連続フレームの前記フレームを生成する前記ステップは、仮想シーンのレンダリングによって前記フレームを生成するステップ(S24)を含む、請求項1~5のいずれか1項に記載の方法。
  7. 前記第2の連続フレームの前記フレームを適合させる前記ステップに、カメラ用の対物レンズを用いて前記フレームを生成するステップ(S21)が先行する、請求項1~5のいずれか1項に記載の方法。
  8. 第1の対物レンズに関する光ビームの特性を決定するステップが実施され、第2の連続フレームのフレームを生成するステップが、第2の対物レンズ内での光ビームの特性を更に考慮に入れて実施される、請求項1~7のいずれか1項に記載の方法。
  9. 前記決定するステップは:
    前記フレームの前記第1の連続フレームの撮影時に、前記対物レンズの1つ以上の撮像パラメータを記録するステップ(S22)
    を含み、
    前記適合させる、又は生成するステップは:
    前記第2の連続フレームの前記フレームの適合又は生成に前記撮像パラメータを使用するステップ(S24)
    を含む、請求項1~8のいずれか1項に記載の方法。
  10. 前記対物レンズの前記撮像パラメータは、前記第2の連続フレームの前記フレームの生成のためにリアルタイムで使用される、請求項9に記載の方法。
  11. 映画撮影、写真撮影、コンピュータゲーム、医療用撮像、例えば顔認識のようなセキュリティアプリケーション、コンピュータベースシミュレーション、仮想現実、及び/又は産業的測定技法の分野のうちの1つ以上における、請求項1~10のいずれか1項に記載の方法の使用。
  12. 請求項1~11のいずれか1項に記載のステップを実行するための手段を有する、データ処理システム。
JP2021503548A 2018-07-27 2019-07-29 画像の合成のための方法及びデータ処理システム Active JP7489960B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018118187.6 2018-07-27
DE102018118187.6A DE102018118187A1 (de) 2018-07-27 2018-07-27 Verfahren und Datenverarbeitungssystem zur Synthese von Bildern
PCT/EP2019/070332 WO2020021121A1 (de) 2018-07-27 2019-07-29 Verfahren und datenverarbeitungssystem zur synthese von bildern

Publications (2)

Publication Number Publication Date
JP2021532649A JP2021532649A (ja) 2021-11-25
JP7489960B2 true JP7489960B2 (ja) 2024-05-24

Family

ID=67742349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021503548A Active JP7489960B2 (ja) 2018-07-27 2019-07-29 画像の合成のための方法及びデータ処理システム

Country Status (10)

Country Link
US (2) US12008708B2 (ja)
EP (1) EP3830796A1 (ja)
JP (1) JP7489960B2 (ja)
KR (1) KR20210038609A (ja)
CN (1) CN112513933A (ja)
AU (1) AU2019309552B2 (ja)
CA (1) CA3107886A1 (ja)
DE (1) DE102018118187A1 (ja)
NZ (1) NZ772353A (ja)
WO (1) WO2020021121A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019134022B3 (de) * 2019-12-11 2020-11-19 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Verfahren und Vorrichtungen zum Emulieren von Kameraobjektiven
US11869135B2 (en) * 2020-01-16 2024-01-09 Fyusion, Inc. Creating action shot video from multi-view capture data
DE102020119601A1 (de) 2020-07-24 2022-01-27 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Hintergrundwiedergabesystem
DE102021200965A1 (de) * 2021-02-03 2022-08-04 Carl Zeiss Ag Verfahren zur Simulation einer optischen Abbildung
PL4068198T3 (pl) * 2021-04-01 2024-05-27 Carl Zeiss Ag Sposób generowania obrazu obiektu, produkt programu komputerowego i system generowania obrazu do przeprowadzania sposobu
US11488348B1 (en) * 2021-12-09 2022-11-01 Unity Technologies Sf Computing virtual screen imagery based on a stage environment, camera position, and/or camera settings

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004227332A (ja) 2003-01-23 2004-08-12 Hitachi Ltd 情報表示方法
JP2005252680A (ja) 2004-03-04 2005-09-15 Fujinon Corp レンズシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5990935A (en) * 1997-04-04 1999-11-23 Evans & Sutherland Computer Corporation Method for measuring camera and lens properties for camera tracking
US6268863B1 (en) * 1997-10-02 2001-07-31 National Research Council Canada Method of simulating a photographic camera
US8014985B2 (en) * 1999-03-26 2011-09-06 Sony Corporation Setting and visualizing a virtual camera and lens system in a computer graphic modeling environment
US20050168485A1 (en) * 2004-01-29 2005-08-04 Nattress Thomas G. System for combining a sequence of images with computer-generated 3D graphics
CN101968880A (zh) * 2010-09-10 2011-02-09 中国科学院软件研究所 一种图像散景效果的生成方法
WO2013082539A1 (en) * 2011-12-01 2013-06-06 Lightcraft Technology Llc Automatic tracking matte system
CN106133796B (zh) * 2014-03-25 2019-07-16 苹果公司 用于在真实环境的视图中表示虚拟对象的方法和系统
CN106464813B (zh) * 2014-06-20 2019-09-17 高通股份有限公司 能够捕获全宽视野图像的无视差薄型多相机系统
JP6682184B2 (ja) * 2014-12-19 2020-04-15 キヤノン株式会社 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP6674643B2 (ja) * 2015-04-28 2020-04-01 ソニー株式会社 画像処理装置及び画像処理方法
US10291899B2 (en) 2015-11-30 2019-05-14 Canon Kabushiki Kaisha Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for generating restored image
US10692288B1 (en) * 2016-06-27 2020-06-23 Lucasfilm Entertainment Company Ltd. Compositing images for augmented reality
US10713836B2 (en) * 2018-06-25 2020-07-14 Microsoft Technology Licensing, Llc Simulating lenses

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004227332A (ja) 2003-01-23 2004-08-12 Hitachi Ltd 情報表示方法
JP2005252680A (ja) 2004-03-04 2005-09-15 Fujinon Corp レンズシステム

Also Published As

Publication number Publication date
US12008708B2 (en) 2024-06-11
AU2019309552B2 (en) 2023-12-14
US20240029342A1 (en) 2024-01-25
DE102018118187A1 (de) 2020-01-30
EP3830796A1 (de) 2021-06-09
US20210150804A1 (en) 2021-05-20
JP2021532649A (ja) 2021-11-25
NZ772353A (en) 2024-02-23
KR20210038609A (ko) 2021-04-07
AU2019309552A1 (en) 2021-02-18
WO2020021121A1 (de) 2020-01-30
CN112513933A (zh) 2021-03-16
CA3107886A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP7489960B2 (ja) 画像の合成のための方法及びデータ処理システム
CN108200445B (zh) 虚拟形象的虚拟演播系统及方法
JP6230239B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP3450833B2 (ja) 画像処理装置及びその方法並びにプログラムコード、記憶媒体
JP4904264B2 (ja) 3d空間次元に基づく画像処理のためのシステムおよび方法
US10275898B1 (en) Wedge-based light-field video capture
WO2019041351A1 (zh) 一种3d vr视频与虚拟三维场景实时混叠渲染的方法
US20130016097A1 (en) Virtual Camera System
US11514654B1 (en) Calibrating focus/defocus operations of a virtual display based on camera settings
JP2010011223A (ja) 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2018107793A (ja) 仮想視点画像の生成装置、生成方法及びプログラム
JP2023056056A (ja) データ生成方法、学習方法及び推定方法
Bonnard et al. High-dynamic range video acquisition with a multiview camera
WO2022055367A1 (en) Method for emulating defocus of sharp rendered images
JP2008217593A (ja) 被写体領域抽出装置及び被写体領域抽出プログラム
JP6799468B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
WO2020110432A1 (ja) 学習装置、前景領域推定装置、学習方法、前景領域推定方法、及び、プログラム
JP2005063041A (ja) 3次元モデリング装置、方法、及びプログラム
JP2015213234A (ja) 疑似hdr画像推定装置及び方法
WO2022091811A1 (ja) 画像処理装置、画像処理方法、画像処理システム
WO2023047643A1 (ja) 情報処理装置、映像処理方法、プログラム
WO2023238660A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20240013499A1 (en) Image processing apparatus, image processing method, recording medium, and image processing system
Mandl et al. Neural Bokeh: Learning Lens Blur for Computational Videography and Out-of-Focus Mixed Reality
WO2024042893A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240514

R150 Certificate of patent or registration of utility model

Ref document number: 7489960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150