JP6683307B2 - 多数のカメラを用いた最適の球形映像獲得方法 - Google Patents

多数のカメラを用いた最適の球形映像獲得方法 Download PDF

Info

Publication number
JP6683307B2
JP6683307B2 JP2017567469A JP2017567469A JP6683307B2 JP 6683307 B2 JP6683307 B2 JP 6683307B2 JP 2017567469 A JP2017567469 A JP 2017567469A JP 2017567469 A JP2017567469 A JP 2017567469A JP 6683307 B2 JP6683307 B2 JP 6683307B2
Authority
JP
Japan
Prior art keywords
image
mesh
size
rendering
square
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017567469A
Other languages
English (en)
Other versions
JP2019509526A (ja
Inventor
ジン リ,ジョン
ジン リ,ジョン
フン チャ,スン
フン チャ,スン
ヒョン ウィ,デ
ヒョン ウィ,デ
ファン クォン,ジェ
ファン クォン,ジェ
フィ キム,ヨン
フィ キム,ヨン
ファ ジョン,スン
ファ ジョン,スン
ヒョン キム,ケ
ヒョン キム,ケ
キ キム,ボム
キ キム,ボム
Original Assignee
カイ インコーポレイテッド
カイ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カイ インコーポレイテッド, カイ インコーポレイテッド filed Critical カイ インコーポレイテッド
Publication of JP2019509526A publication Critical patent/JP2019509526A/ja
Application granted granted Critical
Publication of JP6683307B2 publication Critical patent/JP6683307B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Description

本発明は多数のカメラを用いて最適の球形映像を獲得する方法に関するものであって、特にリグに固定された互いに相異する撮影時点を有する複数のカメラを用いて1つの映像を製作する映像提供方法を提供する。
スクリーンエックス(ScreenX)、バルコエスケープシステム(the Barco Escape System)などのマルチプロジェクション基盤の没入型映画観覧プラットフォームの成長と共に、バーチャルリアリティ市場の拡大及びバーチャルリアリティコンテンツ製作活性化による没入型プラットフォームに基盤した次世代コンテンツ市場が拡大されている。
そして、多様なVR(Virtual Reality)コンテンツ再生環境が拡散されると共に、全方向高画質を要する環境、中央画面に焦点を合せて、周囲の雰囲気を造成する環境が同時発展している。
特に、多数台のカメラを通じて、これを1つの映像にスティッチングしてパノラマ映像を製作する場合、その重畳する部分と最終映像の品質及び歪みの問題が発生している。
これを解決するために多数の論文と特許で種々の解決方法などを提示したことがある(例えば、特許文献1、2を参照)。
韓国登録特許第10−0519929号公報 韓国登録特許第10−1021847号公報
本発明は上記の問題を解決するために案出されたものであって、複数個のカメラから映像を連結する過程で発生する映像品質損失及び歪みの問題を解決することができる映像提供方法を提供しようとする。
本発明の目的は以上で言及した目的に制限されず、言及されない更に他の目的は以下の記載から本発明が属する通常の知識を有する者に明確に理解されることができる。
前記の課題を解決するための手段として、リグに固定された互いに相異する撮影時点を有する複数のカメラを用いて1つの球形映像を製作する方法において、前記複数のカメラから得られた映像をパラメータ情報を用いて予め定まった非定型閉鎖曲面型のプロジェクション面に投写させて1つの映像を獲得するステップを含む、多数のカメラを用いた最適の球形映像獲得方法を提供する。
ここで、前記閉鎖曲面のプロジェクション面は各々の映像が有する深さ(depth)によって変化可能であることを特徴とする。
前記球形映像を製作する方法は、前記複数のカメラの互いに異なる位置と視線に従うパラメータ情報を獲得するためのキャリブレーションステップをさらに含むことができる。
前記キャリブレーションステップは、チェッカーボードのような物理的パターン対象を距離と角度を変化させながら撮影して、前記複数のカメラの位置関係に対するパラメータ情報を獲得するステップを含むことができる。
前記球形映像を製作する方法は、前記獲得された1つの映像を各領域別に不均一なサンプリング過程を通じて四角フレームにフィッティングするレンダリングステップをさらに含むことができる。
前記球形映像を製作する方法は、前記サンプリングされた映像をビューイングスペアにマッピングするビューイングステップをさらに含むことができる。
また、リグに固定された互いに相異する撮影時点を有する複数のカメラを用いて1つの球形映像を製作する方法において、前記複数のカメラから得られた映像を用いて1つの映像を獲得するスティッチングステップ;前記獲得された1つの映像を各領域別にサンプリング過程を通じて四角フレームにフィッティングするレンダリングステップを含む、多数のカメラを用いた最適の球形映像獲得方法を提供する。
この場合、前記レンダリングステップで、映像が重要な領域(例えば、人の顔がある領域など)では、より高い解像度を有するようにピクセルを配列することを特徴とする。
また、リグに固定された互いに相異する撮影時点を有する複数のカメラを用いて1つの球形映像を製作する方法において、前記複数のカメラから得られた映像を用いて1つの映像を獲得するスティッチングステップ;前記獲得された1つの映像を各領域別にサンプリング過程を通じてフィッティングするレンダリングステップ;及び前記サンプルされた映像をビューイングスペアにマッピングするビューイングステップを含む、多数のカメラを用いた最適の球形映像獲得方法を提供する。
また、リグに固定された互いに相異する撮影時点を有する複数のカメラを用いて1つの球形映像を製作する方法において、既存の360度映像を獲得するステップ;前記獲得された映像を各領域別に不均一なサンプリング過程を通じて四角フレームにフィッティングするレンダリングステップを含む、多数のカメラを用いた最適の球形映像獲得方法を提供する。
一側に従う球形映像生成方法は、相異する撮影時点を有する複数のカメラから映像を獲得するステップ;及び前記複数のカメラのパラメータ情報を用いて前記映像を非定型閉鎖曲面型のプロジェクション面に投射するステップを含む。
前記球形映像生成方法は、前記映像の深さ(depth)に基づいて、前記非定型閉鎖曲面型のプロジェクション面を決定するステップをさらに含むことができる。
前記非定型閉鎖曲面型のプロジェクション面を決定するステップは、隣接映像の間の重畳領域で抽出され、対象メッシュポイントと隣接した特徴点の深さに基づいて、前記対象フレーム内の前記対象メッシュポイントの深さを決定するステップを含むことができる。
前記対象メッシュポイントの深さを決定するステップは、前記対象メッシュポイントと隣接したメッシュポイントの深さ、及び対象フレームと隣接したフレームで前記対象メッシュポイントに対応するメッシュポイントの深さのうち、少なくとも1つにさらに基づいて、前記対象メッシュポイントの深さを決定するステップを含むことができる。
前記球形映像生成方法は、前記非定型閉鎖曲面型のプロジェクション面に沿って設定されたメッシュに基づいて、前記投射された映像をレンダリングするステップをさらに含むことができる。
前記レンダリングするステップは、前記投射された映像内の重要な領域でより高い解像度を有するようにピクセルを配列するステップを含むことができる。
前記レンダリングするステップは、前記メッシュに含まれた四角フェースの重要度に基づいて、前記四角フェースのターゲットサイズを決定するステップ;前記四角フェースのターゲットサイズに基づいて前記四角フェースのサイズを決定するステップ;及び前記四角フェースのサイズに基づいて、前記投射された映像をサンプリングするステップを含むことができる。
前記四角フェースのサイズを決定するステップは、前記四角フェースの類似性変形項目、前記四角フェース内の垂直及び水平方向歪み防止項目、及び前記四角フェースの時間平滑化項目のうち、少なくとも1つにさらに基づいて、前記四角フェースのサイズを決定するステップを含むことができる。
一側に従う球形映像生成方法は、相異する撮影時点を有する複数のカメラから得られた映像を用いて生成された360度映像を獲得するステップ;及び前記獲得された映像を各領域別に不均一なサンプリング過程を通じて四角フレームにフィッティングするレンダリングステップを含む。
一側に従う球形映像再生方法は、不均一レンダリングを通じて生成されたメッシュに関する情報を獲得するステップ;前記不均一レンダリングを通じてサンプルされた映像を獲得するステップ;及び前記メッシュに関する情報に基づいて、前記サンプルされた映像をビューイングスペアにマッピングするビューイングステップを含む。
前記メッシュに関する情報は、前記メッシュに含まれた四角フェースのサイズに関する情報を含むことができる。前記ビューイングステップは、前記四角フェースのサイズに関する情報に基づいて、前記メッシュに含まれた頂点を前記ビューイングスペアに含まれた頂点にマッピングするステップを含むことができる。
本発明は、複数個のカメラから映像を連結する過程で発生する映像品質損失と歪み問題を解決することができる映像を提供する効果がある。
深さ固定プロジェクション面を用いる既存の技術を用いた、一実施形態に係る複数個のカメラを用いてパノラマ映像を作った例を説明する図である。 本発明に係る深さ可変プロジェクション面を用いた、一実施形態に係る複数個のカメラを用いてパノラマ映像を作った例を説明する図である。 一実施形態に係る2.1mのラジアル距離を有する球にイメージをプロジェクションした結果を示す図である。 一実施形態に係る7mのラジアル距離を有する球にイメージをプロジェクションした結果を示す図である。 <数式3>を利用せずに最適化した、一実施形態に係る微分係数を用いて最適化した結果メッシュを示す図である。 <数式3>を用いて最適化した、一実施形態に係る微分係数を用いて最適化した結果メッシュを示す図である。 既存の技術を用いた単純球からプロジェクションイメージを得た、一実施形態に係る変形可能な閉鎖曲面のプロジェクション面を用いた映像を示す図である。 本発明に従う変形可能な閉鎖曲面のプロジェクション面からイメージを得た、一実施形態に係る変形可能な閉鎖曲面のプロジェクション面を用いた映像を示す図である。 メッシュに含まれたフェースのサイズは均一である、一実施形態に係るレンダリング過程を説明する図である。 イメージ内の重要領域が自動で分析された、一実施形態に係るレンダリング過程を説明する図である。 イメージ内の重要領域はユーザにより指定された、一実施形態に係るレンダリング過程を説明する図である。 メッシュに含まれたフェースのサイズが不均一であり、重要な領域であるほどフェースサイズが増加された、一実施形態に係るレンダリング過程を説明する図である。 一実施形態に係る結果レイメッシュに対するNcの影響を示す図である。 既存の技術を用いたレンダリング及び復元イメージであり、一実施形態に係る四角フェース内のメッシュエッジの歪みが防止される効果を説明する図である。 本発明に係るレイメッシュを用いたレンダリング及び復元イメージであり、一実施形態に係る四角フェース内のメッシュエッジの歪みが防止される効果を説明する図である。 一実施形態に係るシステムの構成図である。 一実施形態に係る複数個のカメラを装着したシステムの様子を示す図である。 一実施形態に係るキャリブレーション情報のためのシステムの構成図である。 一実施形態に係るシステムの構成図である。 一実施形態に係る球形映像を生成する方法を示す流れ図である。 一実施形態に係るレンダリング方法を示す流れ図である。 一実施形態に係るビューイング方法を示す流れ図である。 一実施形態に係るリマスタリング方法を示す流れ図である。 一実施形態に係るスティッチング方法を示す流れ図である。
本発明の目的及び効果、そしてそれらを達成するための技術的構成は添付の図面と共に詳細に後述されている実施形態を参照すれば明確になる。本発明を説明するに当たって、公知機能または構成に対する具体的な説明が本発明の要旨を曖昧にすることがあると判断される場合にはその詳細な説明を省略する。
そして、後述する用語は本発明での機能を考慮して定義された用語であって、これはユーザ、運用者の意図または慣例などによって変わることがある。
しかしながら、本発明は以下に開示される実施形態に限定されるものでなく、互いに異なる多様な形態に具現できる。但し、本実施形態は本発明の開示が完全になるようにし、本発明が属する技術分野で通常の知識を有する者に発明の範疇を完全に知らせるために提供されるものであり、本発明は請求項の範疇により定義されるだけである。したがって、その定義は本明細書の全般に亘る内容に基づいて下されるべきである。
以下、映像提供方法について説明する。本発明で、閉鎖曲面の表現を使用したが、これは球形の曲面を意味するものとして理解できる。
このような映像提供方法は、大別して次のステップを経るようになる。第1は、プロジェクション(projection)過程、第2は、レンダリング(rendering)過程、そして最後にビューイング(viewing)過程である。プロジェクション過程及びレンダリング過程を通じて球形映像が生成できる。以後、ビューイング過程を通じて球形映像がユーザに提供できる。
以下、各々の過程について具体的に説明する。
本過程のプロジェクション過程の以前にキャリブレーション過程が含まれることができる。キャリブレーション過程に対しては、装置に対する説明をしながら詳細に後述する。本発明において、映像を獲得する装置は、リグを用いて複数個のカメラを固定させているので、繰り返して映像を撮影する場合にも複数のカメラの視線には変化がない。したがって、初めて各々のカメラの位置関係によってパラメータ情報を獲得して継続的なテンプレートに活用することができる。このために、初期にキャリブレーション過程が必要となる。
キャリブレーション過程では、チェッカーボードのような一定パターンがある事物を活用する。リグを通じて固定されている複数のカメラは撮影対象であるチェッカーボードを撮影するようになり、前記映像を1つの映像に作りながらキャリブレーション過程が遂行される。但し、より正確なキャリブレーション情報を獲得するために角度と距離を変化させながらこのような過程を反復遂行するようになる。
このようなキャリブレーション過程を通じて各々のカメラの位置に従うキャリブレーション因子情報が獲得されて、テンプレートが設けられる。このようにキャリブレーション過程で360度カメラのパラメータが獲得できる。
キャリブレーション過程を経れば、本映像提供装置を通じて映像を撮影するようになる。映像を撮影して獲得する過程で、プロジェクションステップを経るようになる。プロジェクション過程は、入力されたイメージをキャリブレーション過程で得た各々のカメラのパラメータ情報を用いてプロジェクション面に投写させるものである。一般的に、プロジェクション面は360度映像を得るための完全な閉鎖曲面に提供される。しかしながら、これは場面の3次元的な幾何学的な形態を表現できない限界がある。即ち、各々のイメージの深さ(depth)情報を反映できない限界がある。
本発明では深さが可変できるプロジェクション面を用いる。このような深さ可変プロジェクション面を用いる場合には、カメラ時点差によって各イメージがオーバーラップされる領域でのパララックスを効率良く減少させることができる長所がある。言い換えると、既存の方法は遠景または前景の物体のみ一致させることができるが、本発明はオーバーラップされる領域に多様な深さの物体があるとしても正確に一致した綺麗な360度映像を得ることができる。
図1a及び図1bは、一実施形態に係る複数個のカメラを用いてパノラマ映像を作った例を説明する図である。図1aは深さ固定プロジェクション面を用いる既存の技術を用いたものであり、図1bは本発明に係る深さ可変プロジェクション面を用いた結果である。図1aを参照すると、画面の中央の声楽家110の深さに合せて映像がプロジェクションされた結果、異なる深さを有する演奏者120が数人に見えるパララックス誤りが発生する。一方、図1bを参照すると、可変深さプロジェクション面を用いることによって、画面の中央の声楽家110だけでなく、異なる深さを有する演奏者130も綺麗に表現される映像を得ることができる。
本発明では、隣り合う2つのカメラの間の隣り合う領域を三角形要素に区分し、このような三角形要素が形成する3Dポイントを拘束点にして閉鎖曲面のプロジェクション面が変化できるようにすることが特徴である。
レンダリング過程で、繋がった非定型閉鎖曲面上の形状のイメージが四角形フレームに調節される。本発明の核心はイメージグラジエント、突出(saliency)、及び顔検出器(face detector)などの組み合わせにより計算されるか、またはユーザが直接割り当てた重要な領域にはより多いピクセルを割り当てて、そうでない領域はより少ないピクセルを割り当てるなど、映像の解像度を変化させて使用するものである。例えば、人の顔がある映像部分は重要な領域として取扱って、より多いピクセルを割り当てて、背景になる単色の壁のようなイメージの領域には少ないピクセルを割り当てるなど、映像の解像度を変化させて使用することができる。重要な領域は、ユーザにより設定されるか、または予め定まった基準により自動で設定された領域でありうる。
プロジェクションステップで、各々のイメージを非定型閉鎖曲面型のプロジェクション面に投射する過程では、三角形あるいは四角形メッシュ(mesh)を使用するようになるが、各々のメッシュ内のピクセルの重要度によって各メッシュ面の幅と高さが計算される。即ち、高い重要度を有するメッシュ面は目標イメージにおいてサンプリング過程でより多いピクセルを有するように、より大きい領域が割当てされなければならない。イメージ空間内の頂点位置を最適化する過程を通じて最終レイメッシュ(ray mesh)が決定される。ここで、レイ(ray)とは、映像が投射された面の1点を示す言葉を意味する。計算されたメッシュを用いて後述するレンダリングで各ピクセルをサンプリングするレイが決定される。
最終映像での各々のピクセルは、閉鎖曲面座標系を用いてレイメッシュの周辺の頂点から線形的に補間されたレイに沿って各々の映像のピクセルを閉鎖曲面プロジェクション面に投射するサンプリングを通じて決定される。
最後に、ビューイング過程はインタラクティブビューイングのためにユーザが前の過程で作られた映像をビューイングスペア(viewing sphere)にマッピングする過程である。ビューイングスペアは最終レイメッシュの解像度と同一な解像度を有するように設定される。以後、360度映像を再生する時、毎フレームイメージをビューイングスペアにテクスチャマッピングされる。この際、非−均一な様子を有するレンダリング映像を原本イメージの形態に復元するために、ビューイングスペアで各々の頂点のUVポジションはレイメッシュシーケンスのUV情報によって決定される。
実施形態によれば、前述したプロジェクション過程とレンダリング過程が共に適用されることもでき、前述したプロジェクション過程とレンダリング過程のうち、いずれか1つのみ適用されることもできる。
一例に、前述したプロジェクション過程を通じて深さが可変するプロジェクション面を用いることによって、360度映像を得た後、前述したレンダリング過程の代わりに重要な領域を区分せず、均一にサンプリングする一般的なレンダリング過程が適用できる。この場合、レンダリング映像は均一な様子を有するので、前述したビューイング過程の代わりに仮想の球形スペアに均一なレンダリング映像を復元する一般的なビューイング過程を通じてユーザに映像が提供できる。
他の例に、前述したプロジェクション過程の代わりに深さが固定されたプロジェクション面を用いる一般的なプロジェクション過程が遂行された後に、前述したレンダリング過程を通じて重要な領域でより多いサンプリングが遂行されることもできる。この場合、レンダリング映像は非−均一な様子を有するので、前述したビューイング過程を通じてテクスチャマッピング過程で原本イメージの形態が復元できる。
以下、数式と図面を参照して本発明に対してより具体的に説明する。
まず、プロジェクション過程を説明する。
プロジェクション球はm×nメッシュで表現される。M={V,F,Q}であり、Mはメッシュを示し、Vは球形座標系の頂点セットにV={v1,...,vmxn}である。ここで、v=(θ、φ、r)であって、球形座標系を表示する。以下、vは頂点、あるいはメッシュポイントと称されることができる。
Fは隣接した3個の頂点で構成されるトライアングルフェースの集合であり、Qは隣接した4個の頂点で構成されるクォードフェースの集合を意味する。
スペアのラジアル距離によって、重なる部分が変わることがある。例えば、スペアのラジアル距離に対応する深さのオブジェクトはプロジェクション時、整列がよくなされて、一方、スペアのサイズに対応しない深さのオブジェクトあるいは背景は、プロジェクション時、パララックス誤り(パララックスアーティファクト)が発生することがある。
図2a及び図2bは、一実施形態に係るラジアル距離を変化させてイメージを球にプロジェクションした結果を示す図である。図2aは2.1mのラジアル距離を有する球にイメージをプロジェクションしたものであり、図2bは7mのラジアル距離を有する球にイメージをプロジェクションしたものである。図2aを参照すると、2.1mのラジアル距離より遠い深さを有する客体210でパララックス誤りが発生し、図2bを参照すると、7mのラジアル距離より近い深さを有する客体220でパララックス誤りが発生した。
プロジェクション過程の目標は、最適化されたプロジェクション面Mを生成するものである。ここで、tはフレームのインデックスを示す。言い換えると、プロジェクション過程を経てフレーム毎に最適化されたプロジェクション面が導出できる。例えば、部分別に変化するフレームtで各頂点はラジアル距離r を有する。ここで、iは頂点のインデックスを示す。前述したように、実施形態は深さ可変プロジェクション面を用いることによって、隣り合うイメージ間のオーバーラップされる領域でのパララックス(parallax)を最小化することができる。
各頂点のラジアル距離r を求めるために、まずオーバーラップされる領域でオブジェクトの実際距離を知っていなければならない。一実施形態によれば、最適化過程でメッシュを拘束する3DポイントPのセットはオーバーラップされる領域の特徴を用いて計算される。Pはtフレームでオーバーラップされる領域から抽出された特徴点の集合である。この際、各々のイメージからスパースな特徴点(sparse feature points)が抽出される。
特徴点を用いてステレオマッチングを遂行して実際の距離を知ることができ、実際の距離を用いてプロジェクション面のr を設定することができる。例えば、視差(disparity)を計算するために2つの隣り合うイメージの間で特徴間の類似度が決定される。しかしながら、テクスチャレス(texture less)領域では視差が計算できない。したがって、一般的なステレオスコピック(stereo-scopic)イメージ処理方法と類似するように、ダウンサンプル処理された高密度の類似度から付加的な視差を得ることができる。これは、光学フロー方法を用いることと評価できる。
は、先に求めた視差対と対応するカメラパラメータを用いて復元された3次元点である。復元する時はコンピュータビジョンで広く使われる三角測量法(linear triangulation)を用いる。エネルギー関数はr (メッシュポイント)とp (特徴点)との間の差を測定するもので、<数式1>のように定義される。
ここで、p はp ∈P球形座標に変換されたものである。f(p )は2次元極座標系(θ,φ)でp を含むフェースを構成する頂点指標のセットである。λ はp の周辺頂点(周辺メッシュポイント)に対する(θ,φ)座標での重心の加重値である。<数式1>はp のラジアル距離を示すr(p )をマッチするための周辺の頂点r の線形組み合わせを示す。
が結果メッシュで柔らかく変わるようにするために、<数式2>のような部分的平滑化項目が定義できる。また、重畳されない領域の場合、ステレオマッチングが不可能であるので、<数式2>を用いて重畳されない領域に含まれたr を獲得することができる。
ここで、N(i)はv の4個の連結された隣り合う頂点の指標を意味する。nはN(i)に含まれた隣の頂点の数である。Es1はラプラシアン平滑化オペレーションである。この項目はr の2次部分微分係数を最小化させることによりr をオーバーラップがない領域で柔らかくインターポレートできるようにする。
しかしながら、r のオーバーラップされる領域でグラジエントが相対的に非常に大きければ、EとEs1を最小化させることは不安定な結果をもたらす。したがって、Eにより拘束されない頂点は概略的な1次部分微分係数を最小化して正規化する。エネルギー関数は<数式3>及び<数式4>の通りである。
ここで、r(i,j)はMのi番目の行とj番目の列でv ixm+jのラジアル距離を意味する。ΩはPにより拘束されない頂点セットを意味する。EdxとEdyは水平方向と垂直方向で1次部分微分係数を見積もったものである。例えば、r(i+1,j)は(i,j)に該当する頂点の右側に隣接した頂点のラジアル距離であり、r(i−1,j)は(i,j)に該当する頂点の左側に隣接した頂点のラジアル距離である。また、r(i,j+1)は(i,j)に該当する頂点の上側に隣接した頂点のラジアル距離であり、r(i,j−1)は(i,j)に該当する頂点の下側に隣接した頂点のラジアル距離である。
図3a及び図3bは、一実施形態に係る微分係数を用いて最適化した結果メッシュを示す図である。図3aは<数式3>を利用せずに最適化した結果メッシュであり、図3bは<数式3>を用いて最適化した結果メッシュである。図3aを参照すると、重畳領域310で急激な変化が発生するが、図3bを参照すると、<数式3>を用いた結果、急激な変化が発生しないことが確認される。
<数式5>は、時間の平滑化のためのエネルギー関数である。毎フレーム別にメッシュが変わる時、現在フレームと他のフレームとの間の差を最小化する制約条件を定義することによって、メッシュが柔らかく変化するようにする。
ここで、tは時間のウィンドウサイズである。T(i,t)はr のフレームt−tからt+tまでの時間隣り頂点への指標セットを意味する。言い換えると、T(i,t)は他の時間にある現在頂点の集合を意味する。tは一実施形態で3に固定できる。
一実施形態によれば、<数式1>から<数式5>に定義されたエネルギー関数に基づいてr を導出することができる。例えば、<数式1>から<数式5>に定義されたエネルギー関数の各々が最小化されるように、あるいは<数式1>から<数式5>に定義されたエネルギー関数の加重和が最小になるようにするr の集合が導出できる。
図4a及び図4bは、一実施形態に係る変形可能な閉鎖曲面のプロジェクション面を用いた映像を示す図である。図4aは既存の技術を用いた単純球からプロジェクションイメージを得た結果であり、図4bは本発明に従う変形可能な閉鎖曲面のプロジェクション面からイメージを得た結果である。図4aに示されるパララックス誤りが図4bでは示されないことが確認される。
以下、レンダリング過程を説明する。
ターゲット解像度Iwidth x Iheightが与えられれば、経度と緯度の対である(θ、φ)として定義されるレイ(ray)を各々のターゲットイメージの各々のピクセルに割り当てるようになる。各レイに従う位置でプロジェクションされたオリジナルイメージからサンプリングする過程を通じてターゲットイメージの各ピクセルの色を決定するようになる。
図5a、図5b、図5c、及び図5dは、一実施形態に係るレンダリング過程を説明する図である。図5aを参照すると、ターゲットイメージでの一定の間隔を有する頂点の初期配列は正方形または長方形に該当する。図5aのメッシュに含まれたフェースのサイズは均一である。
図5bを参照すると、イメージ内の重要領域が自動で分析できる。例えば、図5bで明るい点は暗い点に比べて重要であると認識された領域でありうる。
図5cを参照すると、イメージ内の重要領域はユーザにより指定できる。例えば、ユーザは中央のスクリーン領域を重要な領域として指定し、スクリーンと左側人との間の第1空間、及びスクリーンと右側人との間の第2空間を相対的に少なめに重要な領域として指定することができる。
各々のピクセルに対するレイは、周辺の頂点の線形的な補間(θ,φ)を用いて計算できる。隣り合う頂点の間のサンプルの個数はイメージ座標の間隔の距離に左右される。したがって、Mのd番目の四角フェースq により占有されたイメージ領域が重要な情報を含んであれば、その領域を拡大させることが必要である。領域に重要な情報が含まれるか否かによって、Mのv を二次元イメージ座標(x 、y )を有して増加させることができる。
図5dを参照すると、メッシュに含まれたフェースのサイズが不均一である。この際、重要な領域であるほどフェースサイズが増加できる。例えば、スクリーン領域510に該当する四角フェースのサイズが異なる領域の四角フェースのサイズより大きく、この場合、スクリーン領域の四角フェースでより多いサンプリングが遂行できる。
一実施形態に係るレンダリング過程のために、ターゲットイメージ空間で(x 、y )の最適化問題として式が構成される必要がある。四角フェースのターゲットサイズ(例えば、四角フェースq のターゲット幅qw 及びターゲット高さqh )は<数式6>のように四角フェースq の重要度sx とsy に基づいて決定される。sx は横方向の重要度であり、sy は縦方向の重要度である。重要度は多様な方式により決定できる。例えば、重要度sx 及びsy は各々フレームでS及びSで内部ピクセルの重要度の平均値に定まることができる。または、イメージグラジエントの値が大きいほど重要度が高く決定されるか、または顔検出技法を通じて検出された顔領域の重要度が高く決定できる。
ここで、行(d)と列(d)はqのような行と列に属する四角フェースの指標セットを意味する。言い換えると、dは四角フェースのインデックスであり、row(d)は四角フェースqと同一な行のフェースの集合であり、col(d)は四角フェースqと同一な列のフェースの集合でありうる。<数式6>はqw とqh を同一な行と列の重要度の和に対するsx 及びsy の比率によって計算される。
は不均一の程度を決定するユーザパラメータである。図6は、一実施形態に係る結果レイメッシュに対するNの影響を示す図である。図6を参照すると、Nが増加するによって、得られる四角フェース間の解像度のコントラストはより強くなる。
最適化のために、各々の四角フェースの幅と高さは<数式6>から得られたqw 及びqh に拘束される。このためのエネルギー関数は<数式7>のように定義される。
ここで、hE(q )及びvE(q )は水平方向及び垂直方向に沿ってq の有向された(directed)エッジ(例えば、i→j)のセットを意味する。xとxは水平方向に隣接したメッシュポイントを示し、yとyは垂直方向に隣接したメッシュポイントを示す。
四角フェースを従う解像度の変化を緩和し、四角フェースのフリップ問題を解決するための類似性変形項目は、<数式8>のように定義される。<数式8>のエネルギー関数は四角フェースが四角形の形態を維持するように作る役割をする。
ローカル座標u、vは初期の均一なメッシュから計算される。β は各面の類似度変形項目の加重値を意味する。加重値を変化させながら面のフリップが除去されるまで続けて反復的に遂行する。
前述したように、本発明では結果イメージの歪みを最小化するために重要な領域に、より多いサンプルピクセルを割り当てる。歪まれた閉鎖曲面形状は、結果メッシュを用いて再生時にビューイングステップで復元される。復元された結果物で歯車のようにぎざぎざになった歪みが強い水平ライン及び強い垂直ラインに沿って発生することがある。
このような問題を解決するために、強い水平ライン及び強い垂直ラインを含む四角フェースの歪み現象を最小化させなければならない。斜線をフィルター処理して除去し、残した要素は垂直ラインまたは水平ライン、hLine及びvLineのうちの1つとしてラベリング処理する。ライン要素を含む全ての四角フェースq は最適化を通じて<数式9>のエネルギー関数を最小化させるようになる。
<数式9>は、四角フェースの中でライン方向によってメッシュエッジの歪みが発生することを防止する。図7a及び図7bは、一実施形態に係る四角フェース内のメッシュエッジの歪みが防止される効果を説明する図である。図7aは既存の技術を用いたレンダリング及び復元イメージであり、図7bは本発明に係るレイメッシュを用いたレンダリング及び復元イメージである。図7aを参照すると、レンダリングされたイメージ710に傾いた線が含まれ、傾いた線は復元された映像720で垂直または水平に復旧されるが、映像730で確認できるように歯車のようにぎざぎざになった歪みが発生することがある。
<数式9>を通じて水平線に該当するhLine領域に限って垂直方向に変形されないように強制し、垂直線に該当するvLine領域に限って水平方向には変形されないように強制することができる。
効果的な映像圧縮と急激な解像度変化を防止するために、<数式10>のように時間の平滑化項目が最適化に導入される。
時間上のボックスフィルタリングを各フレーム別重要度マップsx 及びsy に時間のウィンドウ[t,t+t]を有して適用する。このような単純なフィルタリングはシーケンスによってメッシュの外観をより柔らかくする。
最後に、四角形フレームを維持する<数式12>の境界拘束を維持し、<数式11>のように、前述したエネルギー関数の和を最小化させる{x ,y }を決定する。
ここで、空間平滑化のための加重値αは0.5でありうる。αは、<数式9>で説明されたように、歪みを最小化するための加重値でありうる。<数式11>を解けば、レンダリングのために使われる時間的に一貫性があるレイメッシュを生成することができる。結果メッシュのイメージ座標(x,y)はIwidth及びIheight により正規化される。
レンダリング過程を経て決定されたメッシュに基づいてプロジェクションされた映像がサンプリングされる。メッシュは複数のメッシュポイントを含み、各メッシュポイント毎に緯度経度が決定される。メッシュポイントの間の中間値はインターポレーションを通じて映像がサンプリングできる。
図8から図11は、本発明のキャリブレーションステップで複数個のカメラを通じて多重の映像を得るための装置及びその構成図の一実施形態を図示している。本発明の場合、他の実施形態が適用されることもでき、図8から図11に制限されるものではない。
本発明での複数のカメラを通じて映像を得る装置及び構成は、必ず本一実施形態を従わなければならないものではなく、他の多様な方法でも獲得することができる。
図8は、一実施形態に係るシステムの構成図である。図8を参考すると、本発明の映像提供装置は、第1結合リグ813に結合された多数の第1カメラ811、キャリブレーション遂行部820、パノラマ映像生成部830、多面映像生成部840、映像コンテンツ提供部850などを含むことができる。
多数の第1カメラ811は互いに相異する撮影時点を有する多数の全方位映像を獲得及び提供するようにする。このような第1カメラ811の全ては同一スペックのカメラで具現されることが好ましいが、これは第1カメラ811を通じて獲得される全方位映像の全てが同一画角及び同一解像度を有して、今後に遂行されるキャリブレーション及び映像整合動作がより容易に遂行できるようにするためである。
第1結合リグ813は、多数の第1カメラ811の各々が結合及び支持できるようにする。
例えば、図9は一実施形態に係る複数個のカメラを装着したシステムの様子を示す図である。図9を参照すると、本発明の第1結合リグ813は、第1カメラが正面811−4、後面(図示せず)、右側面811−2、左側面811−3、上面811−1、及び下面(図示せず)に付着及び支持できるようにする手段を備えて、第1結合リグ813に付着された第1カメラが正面方向、後面方向、右側面方向、左側面方向、上面方向、及び下面方向の各々に対応する6個の全方位映像を同時獲得して提供できるようにする。
また、図8を参照すると、キャリブレーション遂行部820は第1キャリブレーション遂行部821を備えて、第1結合リグ813に第1カメラ811に対するキャリブレーションを遂行して第1カメラ811間の位置関係を把握するようにする。
より詳しくは、図10は、一実施形態に係るキャリブレーション情報のためのシステムの構成図である。図10を参照すると、第1キャリブレーション遂行部821は、パターン分析部1011、カメラパラメータ計算部1012、及びカメラパラメータ最適化部1013などを含んで、以下のような方式により第1キャリブレーション動作を遂行することができる。
まず、チェスボードのような規格化されたパターンイメージを出力して第1結合リグに位置した第1カメラ811に見えるように挙げて、同時に動映像撮影するようにする。特に、本発明では第1カメラ811の間の重畳領域の中にパターンイメージが必ず入るようにし、正確度の向上のためにカメラからの距離を異にしてパターンイメージを反復撮影するようにする。
すると、パターン分析部1011は第1カメラ811の各々に撮影された動映像を分析してパターンイメージを検出し、フレーム情報及び同時に見えるカメラ情報に基づいてマッチング情報を生成する。
そして、カメラパラメータ計算部1012はマッチング情報に基づいて隣接した2台のカメラ間の相対的なカメラパラメータを計算し、カメラパラメータ最適化部1013はカメラパラメータ計算部1012を通じて計算された全ての第1カメラのパラメータをマッチング情報に基づいて非−線形最適化を通じて改善した後、これらの全ての情報を含む第1キャリブレーション情報を生成するようにする。即ち、第1カメラ811間の位置関係に対する情報を有する第1キャリブレーション情報を生成するようにする。
また、図8を参照すると、パノラマ映像生成部830は、第1キャリブレーション遂行部821を通じて獲得された第1カメラ811間の位置関係に基づいて第1カメラ811を通じて獲得された全方位映像を1つの映像に整合してパノラマ映像を生成するようにする。パノラマ映像生成部830は、第1キャリブレーション情報に基づいてパノラマ映像を整合する。
より詳しくは、図11は一実施形態に係るシステムの構成図である。図11を参照すると、パノラマ映像生成部830は、焦点マッチング部1110、色相マッチング部1120、特徴点マッチング部1130、スティッチング部1140、ワーピング部1150、及びレンダリング部1160などを含んで、以下のような方式によりパノラマ映像を生成することができる。
まず、焦点マッチング部1110は第1キャリブレーション動作を通じて第1カメラの位置関係に基づいて各映像の初期整列を進行し、色相マッチング部1120は各映像の色相を補正するようにする。そして、特徴点マッチング部1130は特徴点抽出アルゴリズムを各映像内の特徴点を求めて、特徴点に対するディスクリプタにイメージ特徴点間の対応点を探すようにする。この際、特徴点抽出アルゴリズムには公知の技術に従う全てのアルゴリズムが適用できる。
スティッチング部1140は、特徴点マッチング部1130を通じて獲得された特徴点間の対応点を使用して各映像の重畳部分を接合し、ワーピング部1150は接合された2つの映像を自然に作るためにピクセルの位置を移動させる幾何学的処理を進行するようにする。そして、映像単一化部1160はユーザなどにより入力されるコンポジション情報に基づいて複数個の映像の単一化作業を遂行する。
また、図8を参照すると、映像コンテンツ提供部850は、第1カメラ811、パノラマ映像生成部830の各々を通じて獲得される映像に対する情報の全てを含む映像コンテンツを生成して提供するようにする。
図12は、一実施形態に係る球形映像を生成する方法を示す流れ図である。本発明の内容を整理すると、図12を参照すると、リグに固定された互いに相異する撮影時点を有する複数のカメラを用いて1つの球形映像を製作する方法において、前記複数のカメラから得られた映像をパラメータ情報を用いて予め定まった非定型閉鎖曲面型のプロジェクション面に投写させて1つの映像を獲得するスティッチングステップ(1210)を含む、多数のカメラを用いた最適の球形映像獲得方法を提供する。以下、球形映像は多面映像を含むことができる。ここで、前記閉鎖曲面のプロジェクション面は各々の映像が有する深さ(depth)によって変化可能であることを特徴とする。
また、前記獲得された1つの映像を各領域別に不均一なサンプリング過程を通じて四角フレームにフィッティングするレンダリングステップ(1220)をさらに含む、多数のカメラを用いた最適の球形映像獲得方法を提供する。この場合、前記レンダリングステップで、映像が重要であると判断される領域では、より高い解像度を有するようにピクセルを配列することを特徴とする。
また、図13は一実施形態に係るレンダリング方法を示す流れ図である。図13を参照すると、実施形態はスティッチング(1210)とレンダリング(1220)との間に、初期球形メッシュ投写イメージを獲得し(1310)、イメージ内の重要領域を分析し(1320)、レイメッシュを最適化(1330)するステップをさらに含むことができる。
また、図14は一実施形態に係るビューイング方法を示す流れ図である。図14を参照すると、映像を再生する方法において、不均一レンダリングを通じて生成されたレイメッシュシーケンスを復元するステップ(1410);及び復元された映像を再生するステップ(1420)を含む、映像再生方法を提供する。
レイメッシュシーケンスは、サンプルされた映像とメッシュに関する情報を含む。ここで、メッシュに関する情報はメッシュに含まれた四角フェースのサイズに関する情報を含むことができる。レイメッシュシーケンスを復元するステップ(1410)は、四角フェースのサイズに関する情報に基づいて、メッシュに含まれた頂点を前記ビューイングスペアに含まれた頂点にマッピングするステップを含むことができる。
一実施形態によれば、復元するステップ(1410)で、メッシュ情報に基づいたテクスチャマッピングが利用できる。例えば、仮想の3Dスペアにテクスチャマッピング時、不均一レンダリング結果が復元されるようにメッシュ情報を用いてu、v値を調節することができる。
また、図15は一実施形態に係るリマスタリング方法を示す流れ図である。図15を参照すると、不均一レンダリングを通じての既存のコンテンツリマスタリング方法に対するものであって、既存の360度の映像をリマスタリングして使えば、より少ない解像度を高品質で表現可能である。例えば、8Kの既存の360度の映像を不均一レンダリング方法を用いて4Kに作って見れば、一般的なダウンサンプリングに作った4K映像より重要な領域をより高品質で観覧可能である。
このために、多数のカメラを用いた最適の球形映像獲得方法は、既存の360度映像を獲得して初期球形メッシュ投写イメージを獲得するステップ(1510);イメージ内の重要領域を分析するステップ(1520);レイメッシュを最適化するステップ(1530);及びレンダリングを通じてレイメッシュシーケンスを生成するステップ(1540)を含むことができる。
また、図16は、一実施形態に係るスティッチング方法を示す流れ図である。図16を参照すると、映像提供方法は、初期球形メッシュ投写イメージを獲得するステップ(1610);重畳複領域内の視差対応点を分析するステップ(1620);3次元の点を復元するステップ(1630);メッシュを最適化するステップ(1640);及び映像を投射するステップ(1650)を含む。
図12から図16に図示された各ステップには、図1から図11を通じて前述した事項がそのまま適用できるので、より詳細な説明は省略する。
以上の説明は本発明の技術思想を例示的に説明したことに過ぎないものであって、本発明が属する技術分野で通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲で多様な修正及び変形が可能である。したがって、本発明に開示された実施形態は本発明の技術思想を限定するためのものでなく、説明するためのものであり、このような実施形態により本発明の技術思想の範囲が限定されるものではない。本発明の保護範囲は以下の請求範囲により解析されなければならず、それと同等な範囲内にある全ての技術思想は本発明の権利範囲に含まれるものとして解析されるべきである。
以上で説明された実施形態は、ハードウェア構成要素、ソフトウェア構成要素、及び/又はハードウェア構成要素及びソフトウェア構成要素の組み合わせで具現できる。例えば、実施形態で説明された装置、方法、及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令(instruction)を実行し応答することができる他の如何なる装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを用いて具現できる。処理装置は、運営体制(OS)及び前記運営体制上で遂行される1つ以上のソフトウェアアプリケーションを遂行することができる。また、処理装置はソフトウェアの実行に応答して、データを接近、格納、操作、処理、及び生成することもできる。理解の便宜のために、処理装置は1つが使われると説明された場合もあるが、該当技術分野で通常の知識を有する者は、処理装置が複数個の処理要素(processing element)及び/又は複数類型の処理要素を含むことができることが分かる。例えば、処理装置は複数個のプロセッサまたは1つのプロセッサ及び1つのコントローラを含むことができる。また、並列プロセッサ(parallel processor)のような、他の処理構成(processing configuration)も可能である。
ソフトウェアは、コンピュータプログラム(computer program)、コード(code)、命令(instruction)、またはこれらのうちの1つ以上の組み合わせを含むことができ、所望の通り動作するように処理装置を構成するか、独立的に、または結合的に(collectively)処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置により解析されるか、または処理装置に命令またはデータを提供するために、どんな類型の機械、構成要素(component)、物理的装置、仮想装置(virtual equipment)、コンピュータ格納媒体または装置、または転送される信号波(signal wave)に永久的に、または一時的に具体化(embody)できる。ソフトウェアは、ネットワークに連結されたコンピュータシステム上に分散されて、分散された方法により格納されるか、または実行できる。ソフトウェア及びデータは、1つ以上のコンピュータ読取可能記録媒体に格納できる。
実施形態に従う方法は、多様なコンピュータ手段を通じて遂行できるプログラム命令形態に具現されてコンピュータ読取可能媒体に記録できる。前記コンピュータ読取可能媒体は、プログラム命令、データファイル、データ構造などを単独に、または組み合わせて含むことができる。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計され構成されたもの、またはコンピュータソフトウェア当業者に公知されて使用可能なものでありうる。コンピュータ読取可能記録媒体の例には、ハードディスク、フロッピーディスク、及び磁気テープのような磁気媒体(magnetic media)、CD−ROM、DVDのような光気録媒体(optical media)、フロップティカルディスク(floptical disk)のような磁気−光媒体(magneto-optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を格納し遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例には、コンパイラにより作られるもののような機械語コードだけでなく、インタプリタなどを使用してコンピュータにより実行できる高級言語コードを含む。前記したハードウェア装置は、実施形態の動作を遂行するために1つ以上のソフトウェアモジュールとして作動するように構成されることができ、その逆も同様である。
以上のように、実施形態がたとえ限定された図面により説明されたが、該当技術分野で通常の知識を有する者であれば、前記に基づいて多様な技術的修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で遂行されるか、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態に結合または組み合わせされるか、異なる構成要素または均等物により対置または置換されても適切な結果が達成できる。

Claims (12)

  1. 相異する撮影時点を有する複数のカメラから映像を獲得するステップと、
    前記複数のカメラのパラメータ情報を用いて前記映像を非定型閉鎖曲面型のプロジェクション面に投射するステップと、を含み、
    前記非定型閉鎖曲面型のプロジェクション面に沿って設定されたメッシュに基づいて、投射された前記映像をレンダリングするステップをさらに含み、
    前記レンダリングするステップは、
    前記メッシュに含まれた四角フェースの重要度に基づいて、前記四角フェースのターゲットサイズを決定するステップと、
    前記四角フェースのターゲットサイズに基づいて前記四角フェースのサイズを決定するステップと、
    前記四角フェースのサイズに基づいて、投射された前記映像をサンプリングするステップとを含む、球形映像生成方法。
  2. 前記映像深さ(depth)に基づいて、前記非定型閉鎖曲面型のプロジェクション面を決定するステップをさらに含む、請求項1に記載の球形映像生成方法。
  3. 前記非定型閉鎖曲面型のプロジェクション面は複数のメッシュポイントを含み、
    前記非定型閉鎖曲面型のプロジェクション面を決定するステップは、
    隣接映像の間の重複領域で抽出され、対象メッシュポイントと隣接した特徴点の深さに基づいて、対象フレーム内の前記対象メッシュポイントの深さを決定するステップを含む、請求項2に記載の球形映像生成方法。
  4. 前記対象メッシュポイントの深さを決定するステップは、
    前記対象メッシュポイントと隣接したメッシュポイントの深さ、及び対象フレームと隣接したフレームで前記対象メッシュポイントに対応するメッシュポイントの深さのうち、少なくとも1つにさらに基づいて、前記対象メッシュポイントの深さを決定するステップを含む、請求項3に記載の球形映像生成方法。
  5. 前記レンダリングするステップは、
    投射された前記映像内の重要な領域でより高い解像度を有するようにピクセルを配列するステップを含む、請求項に記載の球形映像生成方法。
  6. 前記四角フェースのサイズを決定するステップは、
    前記四角フェースの類似性変形項目、前記四角フェース内の垂直及び水平方向歪み防止項目、及び前記四角フェースの時間平滑化項目のうち、少なくとも1つにさらに基づいて、前記四角フェースのサイズを決定するステップを含む、請求項に記載の球形映像生成方法。
  7. 相異する撮影時点を有する複数のカメラから得られた映像を用いて生成された360度映像を獲得するステップと、
    獲得された映像を各領域別に不均一なサンプリング過程を通じて四角フレームにフィッティングするレンダリングステップとを含み、
    前記レンダリングステップは、
    前記四角フレームの重要度に基づいて、前記四角フレームのターゲットサイズを決定するステップと、
    前記四角フレームのターゲットサイズに基づいて前記四角フレームのサイズを決定するステップと、
    前記四角フレームのサイズに基づいて、投射された映像をサンプリングするステップとを含む、球形映像生成方法。
  8. 前記レンダリングステップは、
    前記獲得された映像内の重要な領域でより高い解像度を有するようにピクセルを配列するステップを含む、請求項に記載の球形映像生成方法。
  9. 前記四角フレームのサイズを決定するステップは、
    前記四角フレームの類似性変形項目、前記四角フレーム内の垂直及び水平方向歪み防止項目、及び前記四角フレームの時間平滑化項目のうち、少なくとも1つにさらに基づいて、前記四角フレームのサイズを決定するステップを含む、請求項に記載の球形映像生成方法。
  10. 不均一レンダリングを通じて生成されたメッシュに関する情報を獲得するステップと、
    前記不均一レンダリングを通じてサンプルされた映像を獲得するステップと、
    前記メッシュに関する情報に基づいて、前記サンプルされた映像をビューイングスペアにマッピングするビューイングステップとを含む、球形映像再生方法。
  11. 前記メッシュに関する情報は前記メッシュに含まれた四角フェースのサイズに関する情報を含み、
    前記ビューイングステップは、
    前記四角フェースのサイズに関する情報に基づいて、前記メッシュに含まれた頂点を前記ビューイングスペアに含まれた頂点にマッピングするステップを含む、請求項10に記載の球形映像再生方法。
  12. 請求項1の方法を実行させるためのプログラムが記録されたコンピュータ読取可能な記録媒体。
JP2017567469A 2016-10-06 2016-12-29 多数のカメラを用いた最適の球形映像獲得方法 Active JP6683307B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2016-0128947 2016-10-06
KR20160128947 2016-10-06
PCT/KR2016/015511 WO2018066760A1 (ko) 2016-10-06 2016-12-29 다수의 카메라를 이용한 최적의 구형 영상 획득 방법

Publications (2)

Publication Number Publication Date
JP2019509526A JP2019509526A (ja) 2019-04-04
JP6683307B2 true JP6683307B2 (ja) 2020-04-15

Family

ID=61831167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017567469A Active JP6683307B2 (ja) 2016-10-06 2016-12-29 多数のカメラを用いた最適の球形映像獲得方法

Country Status (5)

Country Link
US (1) US10783607B2 (ja)
JP (1) JP6683307B2 (ja)
KR (1) KR101969082B1 (ja)
CN (1) CN109716386A (ja)
WO (1) WO2018066760A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102598082B1 (ko) * 2016-10-28 2023-11-03 삼성전자주식회사 영상 표시 장치, 모바일 장치 및 그 동작방법
WO2018144890A1 (en) 2017-02-03 2018-08-09 Warner Bros. Entertainment, Inc. Rendering extended video in virtual reality
KR102546346B1 (ko) * 2018-05-14 2023-06-22 한국전자통신연구원 전방위 카메라의 캘리브레이션을 위한 장치 및 방법
US10810700B2 (en) * 2019-03-05 2020-10-20 Aspeed Technology Inc. Method of adjusting texture coordinates based on control regions in a panoramic image
CN114616834B (zh) * 2019-08-16 2024-04-02 谷歌有限责任公司 用于视频通话的基于面容的帧封装
KR102356037B1 (ko) * 2020-10-14 2022-02-07 성균관대학교산학협력단 다시점 360도 영상 스트리밍 방법 및 장치
CN112669199B (zh) * 2020-12-16 2022-06-21 影石创新科技股份有限公司 图像拼接方法、计算机可读存储介质及计算机设备

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL139995A (en) * 2000-11-29 2007-07-24 Rvc Llc System and method for spherical stereoscopic photographing
KR100519929B1 (ko) 2003-01-13 2005-10-10 정보통신연구진흥원 지피에스 시간에 동기된 카메라로 촬영된 파노라마영상처리 시스템 및 그 방법
US7499586B2 (en) * 2005-10-04 2009-03-03 Microsoft Corporation Photographing big things
JP5369465B2 (ja) * 2008-03-25 2013-12-18 富士通株式会社 車両用画像処理装置、車両用画像処理方法、車両用画像処理プログラム
KR101021847B1 (ko) 2008-12-17 2011-03-17 주식회사바텍 파노라마 영상획득 장치
US8786673B2 (en) * 2011-01-07 2014-07-22 Cyberlink Corp. Systems and methods for performing video conversion based on non-linear stretch information
US9407904B2 (en) * 2013-05-01 2016-08-02 Legend3D, Inc. Method for creating 3D virtual reality from 2D images
US9135678B2 (en) 2012-03-19 2015-09-15 Adobe Systems Incorporated Methods and apparatus for interfacing panoramic image stitching with post-processors
CN104285441B (zh) * 2012-05-22 2018-01-05 三菱电机株式会社 图像处理装置
US9519972B2 (en) * 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
KR20140112909A (ko) 2013-03-14 2014-09-24 삼성전자주식회사 파노라마 영상을 생성하는 전자 장치 및 방법
US9269187B2 (en) * 2013-03-20 2016-02-23 Siemens Product Lifecycle Management Software Inc. Image-based 3D panorama
US9930363B2 (en) * 2013-04-12 2018-03-27 Nokia Technologies Oy Harmonized inter-view and view synthesis prediction for 3D video coding
US20150302648A1 (en) * 2014-02-18 2015-10-22 Sulon Technologies Inc. Systems and methods for mapping an environment using structured light
US9877016B2 (en) * 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content
CN108470379B (zh) * 2017-02-23 2021-12-07 株式会社理光 三维图像融合方法和装置
US10460509B2 (en) * 2017-11-07 2019-10-29 Dolby Laboratories Licensing Corporation Parameterizing 3D scenes for volumetric viewing

Also Published As

Publication number Publication date
CN109716386A (zh) 2019-05-03
US10783607B2 (en) 2020-09-22
WO2018066760A1 (ko) 2018-04-12
KR20180048443A (ko) 2018-05-10
KR101969082B1 (ko) 2019-04-16
US20190220952A1 (en) 2019-07-18
JP2019509526A (ja) 2019-04-04

Similar Documents

Publication Publication Date Title
JP6683307B2 (ja) 多数のカメラを用いた最適の球形映像獲得方法
US11869205B1 (en) Techniques for determining a three-dimensional representation of a surface of an object from a set of images
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
US10551913B2 (en) Virtual 3D methods, systems and software
US20190019299A1 (en) Adaptive stitching of frames in the process of creating a panoramic frame
JP6201476B2 (ja) 自由視点画像撮像装置およびその方法
JP2018515825A (ja) Lidarステレオ融合実写3dモデルバーチャルリアリティビデオ
TWI554976B (zh) 監控系統及其影像處理方法
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
CN107798704B (zh) 一种用于增强现实的实时图像叠加方法及装置
JP2016537901A (ja) ライトフィールド処理方法
CN111866523B (zh) 全景视频合成方法、装置、电子设备和计算机存储介质
Nielsen Surround video: a multihead camera approach
US10354399B2 (en) Multi-view back-projection to a light-field
CN113132708B (zh) 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质
CN107787507B (zh) 获得表示图像的锐度级别的配准误差图的装置和方法
JP2016114445A (ja) 3次元位置算出装置およびそのプログラム、ならびに、cg合成装置
TW201911239A (zh) 立體環景影片產生方法及裝置
Gledhill 3D panoramic imaging for virtual environment construction
Swaminathan et al. Polycameas: Camera Clusters for Wide Angle Imaging CUCS-013-99
Gao et al. Real‐time generation of spherical panoramic video using an omnidirectional multi‐camera system
Zhou et al. Light Field Stitching Based On Concentric Spherical Modeling
Mukati et al. Light field stitching for extended synthetic aperture
Gibb Dealing with Time Varying Motion Blur in Image Feature Matching
Vaughan Computational Imaging Approach to Recovery of Target Coordinates Using Orbital Sensor Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200310

R150 Certificate of patent or registration of utility model

Ref document number: 6683307

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250